• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia teasert Geforce RTX 3080 Ti and RTX 3070 Ti

RavionHD

PCGH-Community-Veteran(in)
Zu den Konsolen:
Ich besitze selbst eine PS5 und auch dort kritisiere ich die 10GB VRAM.
Die Konsolen haben keine 10GB Vram, sie nutzen einen gemeinsam angebundenen Speicher auf den GPU und CPU zugreifen können, daher dynamisch adressierbar.
Effektiv und praktisch ist da wie man anhand aktueller Beispiele deutlich weniger als "Vram" nutzbar, wenn man sich Beispiele wie Watch Dogs Legion ansieht wo GPU's mit 8GB Vram höhere Textursettings nutzen können als Konsolen.
 

WeeFilly

PC-Selbstbauer(in)
Na, mit einer 3090 unterm Tisch kann man sich zum Glück bei solchen "News" und den Diskussionen dazu entspannt zurücklehnen... Hat auch so seinen Wert! :devil:
 

raPid-81

Freizeitschrauber(in)
Das weiß ich tatsächlich (+1)
Nur um die Texturen zu verarbeiten, brauche ich sie im Ram und die kommen wie dahin?
Je mehr Texturen ich bevorraten kann, desto schneller sind die nochmal wo?
Enter DS + SFS, damit müssen die Texturen nicht mehr komplett bevorratet werden. Das ist ja der Vorteil an der neuen Streaming Pipeline. Und ja, die wird per DX12 auf allen GPU's möglich. Allerdings macht das Feature, sollte es so kommen wie angekündigt, 16 GB VRAM erst mal ziemlich unnütz.

Dieselbe Szene mit unterschiedlichen Streaming-Techniken:

1622134249635.png


2,7 GB mit der alten Streaming Pipeline
0,5 GB mit der neuen Streaming Pipeline

Ich hoffe die AMD-Karten legen mit dem DLSS-Pendant nochmal etwas Performance drauf, dann wäre dieses "mehr" an Speicher noch mehr berechtigt. Genau sagen kann man dies allerdings erst, wenn dort Tests vorliegen.
Sowohl DLSS als auch FSR rendern intern mit niedrigerer Auflösung, ergo wird der VRAM Bedarf kleiner, nicht größer.
 

pietcux

Software-Overclocker(in)
Ja die RDNA2 Karten sind für Rasterisierung Spitze. Aber darauf hat Nvidia bewusst weniger Gewicht gelegt um die neuen Features wie DXR und DLSS wirksam in Hardware zu unterstützen. Nun darf ich immer noch entscheiden was mir persönlich wichtiger ist.
 

Khabarak

BIOS-Overclocker(in)
Ja die RDNA2 Karten sind für Rasterisierung Spitze. Aber darauf hat Nvidia bewusst weniger Gewicht gelegt um die neuen Features wie DXR und DLSS wirksam in Hardware zu unterstützen. Nun darf ich immer noch entscheiden was mir persönlich wichtiger ist.
Wobei man da noch immer argumentieren könnte, dass Nvidia noch weit von "wirksam" entfernt ist.
Ohne DLSS klappt in vielen Fällen nämlich nix mit RT.
 

raPid-81

Freizeitschrauber(in)
ALLE ?!? :devil:

MfG Föhn.
Ja alle wenn man die aktuelle Rangliste nimmt. Aber bleib Du weiter bei Deinen Uralt-Screenshots, solange es Dich glücklich macht...
Wobei man da noch immer argumentieren könnte, dass Nvidia noch weit von "wirksam" entfernt ist.
Ohne DLSS klappt in vielen Fällen nämlich nix mit RT.
Jo, das sieht man bei den AMD Karten sobald RT eingeschaltet wird. Also wer ist da weiter entfernt von "wirksam"? :lol:
 

onkel-foehn

Software-Overclocker(in)
Ja alle wenn man die aktuelle Rangliste nimmt. Aber bleib Du weiter bei Deinen Uralt-Screenshots, solange es Dich glücklich macht...
Die sind von eben AKTUELL auf CB gemacht (im Anhang).
Wo Deine auch her kommen.
Nur bei meinen herrscht Gleichstand in 4K.
Und auf den "Uralt" führen sie, genau deswegen ein Dorn im Auge !
Da sind die eigenen Cherry´s einfach BESSER, gelle ... :wall:

MfG Föhn.
 

Anhänge

  • Bench 4K CB.jpg
    Bench 4K CB.jpg
    431,8 KB · Aufrufe: 39
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Enter DS + SFS, damit müssen die Texturen nicht mehr komplett bevorratet werden. Das ist ja der Vorteil an der neuen Streaming Pipeline. Und ja, die wird per DX12 auf allen GPU's möglich. Allerdings macht das Feature, sollte es so kommen wie angekündigt, 16 GB VRAM erst mal ziemlich unnütz.

Dieselbe Szene mit unterschiedlichen Streaming-Techniken:

Anhang anzeigen 1365205

2,7 GB mit der alten Streaming Pipeline
0,5 GB mit der neuen Streaming Pipeline


Sowohl DLSS als auch FSR rendern intern mit niedrigerer Auflösung, ergo wird der VRAM Bedarf kleiner, nicht größer.
Du wirst auch nicht müde diesen Unsinn zu verbreiten.
 

onkel-foehn

Software-Overclocker(in)
@onkel-foehn Ich würde mir keine Karte mehr ohne DLSS kaufen und die CB-Balken kannste eh in die Tonne kloppen. :fresse:
Ich eben schon. Da ICH auf die paar Games mit DLSS Unterstützung nicht "scharf" (Achtung Wortspiel) bin zu dem Preis. Und "seine" Balken stammen ja auch von CB. Ich weiß schon, dass Du und div. Gleichgesinnte KEINE Benches von CB haben/sehen wollt, sowie auch andere, in denen der oberste Balken nicht der Wunschfarbe entspricht ... :motz:

MfG Föhn.
 

raPid-81

Freizeitschrauber(in)
Die sind von eben AKTUELL auf CB gemacht (im Anhang).
Wo Deine auch her kommen.
Nur bei meinen herrscht Gleichstand in 4K.
Und auf den "Uralt" führen sie, genau deswegen ein Dorn im Auge !
Da sind die eigenen Cherry´s einfach BESSER, gelle ... :wall:

MfG Föhn.
Du bist ja geil, der erste Screenshot ist alt (sieht man in der URL...), der nächste dann die aktuelle Percentile-Rangliste. Hier mal die "passende" zu deinem alten Screenshot:

1622147679381.png


Eine 3080 sollte ja in eurer Theorie in 4K mit "nur" 10 GB bereits jetzt schon untergehen. Sieht für mich nicht so aus.

Es ist egal, wer weiter weg ist.. beide habendas Ziel noch nicht erreicht.
Und bis dahin... tjos.. weiter warten
Metro Exodus Enhanced und CP2077 möchten gern ein Wörtchen mit Dir wechseln. Für GI + Reflections + Shadows reicht die RT Performance offensichtlich bereits jetzt.

Du wirst auch nicht müde diesen Unsinn zu verbreiten.
Und Du wirst nicht müde ohne auch nur einen Beleg zu behaupten dass es Unsinn ist.

Hier noch eine weitere Quelle die bestätigt was ich so an "Unsinn" verbreite (die MS Dev Blogs, das Xbox Velocity Architecture Video und diverse andere reichen Dir ja nicht):
Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

1622148029008.png
 

onkel-foehn

Software-Overclocker(in)
Du bist ja geil, der erste Screenshot ist alt (sieht man in der URL...),
Also lesen UND verstehen läuft bei Dir nicht so, oder ?!?
Die Benches im Anhang sind aktuell, habe ich geschrieben !
Dass die Uralt Benches alt sind, solltest eigentlich wissen, da ich sie Dir schon des Öfteren angepriesen habe :wall:
Aber neulich habe ich Dir auch noch Benches anderer Websites gezeigt, in denen das Ergebnis NICHT nach Deinem Wunsch war. Aber Sicher hast nicht mal drauf geklickt. Hätte eh nix gebracht bzgl. lesen UND verstehen ...

MfG Föhn.
 

raPid-81

Freizeitschrauber(in)
Also lesen UND verstehen läuft bei Dir nicht so, oder ?!?
Die Benches im Anhang sind aktuell, habe ich geschrieben !
Dass die Uralt Benches alt sind, solltest eigentlich wissen, da ich sie Dir schon des Öfteren angepriesen habe :wall:
Aber neulich habe ich Dir auch noch Benches anderer Websites gezeigt, in denen das Ergebnis NICHT nach Deinem Wunsch war. Aber Sicher hast nicht mal drauf geklickt. Hätte eh nix gebracht bzgl. lesen UND verstehen ...

MfG Föhn.
Mir reichen die Benches von CB und PCGH. Man sieht eindeutig dass die Karten in Rasterization auf Augenhöhe sind, dass die RTX 3000er in RT deutlich vorne liegen, und dass aktuell die VRAM Größen völlig ausreichend sind für die Target Auflösungen der Karten. :daumen:
 

derneuemann

BIOS-Overclocker(in)
WOW ! Ganze 4,4 % vorne (auf DEINEM Cherry), bei ca. 100 % MEHR €uronen.
Chapeau, was soll meiner einer da dagegen noch argumentieren ?

MfG Föhn.
100% mehr Euronen? Hast du etwas geraucht? (nicht böse gemeint! ;) )

Die 6900XT geht doch genau so überteuert weg, das maximal 500 Euro dazwischen liegen, außer es soll ein Matchbox Modell sein.

Darüber hinaus ist dir bekannt, das sobald RT (bedeutet für mich heute auch max Details) dazu kommt, der Abstand im Schnitt drastisch steigt und im Einzelfall die 3090, wenn ich mich nicht täusche sogar annähernd doppelt so schnell ist. Selbst eine 3080 fliegt in diesen Szenarien an der 6900XT oft einfach so vorbei.

Dazu die 8GB mehr Speicher, die ja hier im Forum hoch im Kurs stehen müssten.

Wenn jemand in 2021 max Details spielen möchte, dann ist die 3090 kein schlechterer Kauf, als eine 6900XT, da der Aufpreis die Mehrleistung widerspiegelt.
Naja, er versucht jetzt aber doch auch Belege zu liefern ;)
Oder ist man heute ein Troll, wenn man die Meinung anderer nicht teilt?
16GB sind nie unnütz, denn mehr bleibt immer mehr und auch wenn das so kommt, wie du hier schreibst, was durchaus toll ist, dann bleiben vorhandene 16GB VRam immer noch besser, als vorhandene 11GB. Die Texturen werden dann ganz schnell wieder besser, wenn mehr möglich wird.

Schwupps, ist der Spiecher wieder voll.
 
Zuletzt bearbeitet:

onkel-foehn

Software-Overclocker(in)
100% mehr Euronen? Hast du etwas geraucht? (nicht böse gemeint! ;) )

Die 6900XT geht doch genau so überteuert weg, das maximal 500 Euro dazwischen liegen, außer es soll ein Matchbox Modell sein.
Rechnen scheint ebenso nicht Deine Stärke zu sein.
Also bei mir liegen zwischen ca. 1700 € und 3200 € eine Differenz von 1500 €.
Hast ja Recht, es sind KEINE "ca. 100%" sondern lediglich ca. 88 %. SCHNÄPPCHEN !
Siehe Anhänge (kleiner Tipp : einfach auch mal drauf klicken und zu Gemüte führen).
Dass die NV´s in den (Dutzend) RT Games vorne liegt hat laut meinem Wissensstand bis Dato KEINER bezweifelt.

Aber immer schön weiter träumen ... :schnarch:

MfG Föhn.
 

Anhänge

  • Preis 3090 lagernd.jpg
    Preis 3090 lagernd.jpg
    564,4 KB · Aufrufe: 19
  • Preis 6900XT lagernd.jpg
    Preis 6900XT lagernd.jpg
    551,6 KB · Aufrufe: 21

derneuemann

BIOS-Overclocker(in)
Rechnen scheint ebenso nicht Deine Stärke zu sein.
Also bei mir liegen zwischen ca. 1700 € und 3200 € eine Differenz von 1500 €.
Hast ja Recht, es sind KEINE "ca. 100%" sondern lediglich ca. 88 %. SCHNÄPPCHEN !
Siehe Anhänge (kleiner Tipp : einfach auch mal drauf klicken und zu Gemüte führen).
Dass die NV´s in den (Dutzend) RT Games vorne liegt hat laut meinem Wissensstand bis Dato KEINER bezweifelt.

Aber immer schön weiter träumen ... :schnarch:

MfG Föhn.
Also bei Alternate sind es jetzt gerade 1899 zu 2699. Sind auch etwas mehr geworden. Das sind 42% mehr Geld, für im Schnitt mit RT(wird bald keine neuen AAA Titel mehr ohne geben)(warum AAA, weil das meistens die Titel sind, die viel Leistung brauchen) 44% mehr Fps und noch 8GB mehr Speicher. Passt doch deiner Rechnung nach.

Sobald mehr RT genutzt wird, umso größer wird der Vorteil.

Beispiel CP läuft in 4k mit RT auf einer 3090 80% schneller. Klar gibt auch Beispiele wie Dirt wo es nur minimal ist. Im Schnitt sind es gerade 44%, tendenz steigend ;)

Also kann man gut sehen das ich rechnen kann.

Kann man gerne bei CB zum Beispiel nachlesen!

Deine Formulierung ist arg fragwürdig. Aber träum du ruhig weiter...
 

onkel-foehn

Software-Overclocker(in)
Mir reichen die Benches von CB und PCGH. Man sieht eindeutig dass die Karten in Rasterization auf Augenhöhe sind, dass die RTX 3000er in RT deutlich vorne liegen
Heißt doch somit, wenn diese in Rasterization gleichauf sind (FPS), die AMD Karten aber weniger Strom verbraten und dabei auch noch günstiger sind, diese das besser PL Verhältnis (FPS/€/Watt) haben ? Sind wir da einer Meinung ?
Dass ein jeder, der auf RT/DLSS verzichten kann/möchte, bedenkenlos zu einer "roten" Karte greifen kann.
Und wer zwingend RT/DLSS will/benötigt, Preis und Verbrauch eine untergeordnete Rolle spielt, eine Karte von "Team Green" käuflich erwerben soll.
Das ist auf jeden Fall MEINE Meinung.
DLSS/FFSR jetzt mal hin oder her. Das Feature hat Potential und wird spätestens mit der nächsten Gen "Salonfähig".

MfG Föhn.
Also bei Alternate sind es jetzt gerade 1899 zu 2699.

Sobald mehr RT genutzt wird, umso größer wird der Vorteil.

Also kann man gut sehen das ich rechnen kann.
Yep, Schönrechnen kannst Du gar nicht mal so schlecht ...
Nur gibst Du bei Deiner Rechenaufgabe "Alternate" und Raytracing vor.
Wer dies als Fakt ansieht, der kann so rechnen wenn er will.
Nur wenn ein Game KEIN RT nutzt oder jemand darauf verzichten will/kann und "Scalpernate" meidet.
Wie sieht dann das Ergebnis aus ?

Aber alles gut, jedem das seine ... :cool:

MfG Föhn.
 
Zuletzt bearbeitet:

Painkiller

Moderator
Teammitglied
Die Konsolen haben keine 10GB Vram, sie nutzen einen gemeinsam angebundenen Speicher auf den GPU und CPU zugreifen können, daher dynamisch adressierbar.
Effektiv und praktisch ist da wie man anhand aktueller Beispiele deutlich weniger als "Vram" nutzbar, wenn man sich Beispiele wie Watch Dogs Legion ansieht wo GPU's mit 8GB Vram höhere Textursettings nutzen können als Konsolen.
Ja stimmt! Es ist kein reiner VRAM im eigentlichen Sinne. Das kommt halt davon wenn man sich beim lesen von GDDR automatisch an eine reguläre GPU erinnert fühlt. :D

Unter dem Strich ändern das nichts. Der PS5 und Xbox Series X hätten mehr als 16GB shared GDDR einfach gut getan. Ich weiß jetzt nicht was 16GB GDDR kosten, aber mit 32GB wäre die Konsole wirklich ordentlich für die Zukunft aufgestellt gewesen. Alternativ hätten es auch 24GB getan.

Ich hab Watch_Dogs Legion auf der PS5 gespielt. Und ich kann dir sagen, das Spiel ist wirklich ein negatives Beispiel für PS5 Spiele. Aufploppende Texturen, Fahrzeuge, NPC ; Textturmatsch wenn du zu schnell in der Stadt unterwegs bist ; gefühlt kaum bis keine Kanntenglättung vorhanden ; die Charaktermodelle sehen teils echt furchbar aus. etc etc.
Das sind einfach Dinge die ich so nicht nachvollziehen kann. Das hat Ubisoft bei Assassins Creed Valhalla um Welten besser hin bekommen. Das Spiel läuft wirklich einwandfrei.
 

derneuemann

BIOS-Overclocker(in)
Heißt doch somit, wenn diese in Rasterization gleichauf sind (FPS), die AMD Karten aber weniger Strom verbraten und dabei auch noch günstiger sind, diese das besser PL Verhältnis (FPS/€/Watt) haben ? Sind wir da einer Meinung ?
Dass ein jeder, der auf RT/DLSS verzichten kann/möchte, bedenkenlos zu einer "roten" Karte greifen kann.
Und wer zwingend RT/DLSS will/benötigt, Preis und Verbrauch eine untergeordnete Rolle spielt, eine Karte von "Team Green" käuflich erwerben soll.
Das ist auf jeden Fall MEINE Meinung.
DLSS/FFSR jetzt mal hin oder her. Das Feature hat Potential und wird spätestens mit der nächsten Gen "Salonfähig".

MfG Föhn.

Yep, Schönrechnen kannst Du gar nicht mal so schlecht ...
Nur gibst Du bei Deiner Rechenaufgabe "Alternate" und Raytracing vor.
Wer dies als Fakt ansieht, der kann so rechnen wenn er will.
Nur wenn ein Game KEIN RT nutzt oder jemand darauf verzichten will/kann und "Scalpernate" meidet.
Wie sieht dann das Ergebnis aus ?

Aber alles gut, jedem das seine ... :cool:

MfG Föhn.
Ne, ich gebe max Details vor und alternate zeigt nur auf, das deine Quelle Bullshit war.
Deine Preise waren höher, als Scalpernate.

Wer gerne ohne max Details spielt kommt super mit einer andere Karte aus. Das bezweifelt keiner.
DLSS ist bereits Salonfähig
 

raPid-81

Freizeitschrauber(in)
Heißt doch somit, wenn diese in Rasterization gleichauf sind (FPS), die AMD Karten aber weniger Strom verbraten und dabei auch noch günstiger sind, diese das besser PL Verhältnis (FPS/€/Watt) haben ? Sind wir da einer Meinung ?
Hab ich was anderes behauptet? Wo?

Wenn man allerdings "alle Regler nach rechts" als Maßstab nimmt (was hier oft in der VRAM Argumentation gefordert wird), dann geht das jetzt schon nicht mit den AMD Karten. RT ist auch ein Grafik-Details Regler.

Die AMD Karten verbrauchen jetzt nicht sooo viel weniger wie Du immer versuchst darzustellen. Die TDP's liegen ziemlich nah beieinander.

Dass ein jeder, der auf RT/DLSS verzichten kann/möchte, bedenkenlos zu einer "roten" Karte greifen kann.
Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen.
 

Krabonq

Software-Overclocker(in)
Dann nenn mir mal eine HW die Zukunftssicher oder tauglich ist. :devil:
Amiga Forever oder so ähnlich.

Gibts doch schon lange! :D
Recommented content - Reddit An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

onkel-foehn

Software-Overclocker(in)
Hab ich was anderes behauptet? Wo?

Wenn man allerdings "alle Regler nach rechts" als Maßstab nimmt (was hier oft in der VRAM Argumentation gefordert wird), dann geht das jetzt schon nicht mit den AMD Karten. RT ist auch ein Grafik-Details Regler.

Die AMD Karten verbrauchen jetzt nicht sooo viel weniger wie Du immer versuchst darzustellen. Die TDP's liegen ziemlich nah beieinander.


Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen.
Dann gibt es ja ausschließlich die 3090 mit ihren 24 GB zum zocken laut Dir mit "alle Regler rechts" ?
Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Das sind ca. 25 %. Nah beieinander sieht für mich anders aus. Wurde auch schon von Igor und div. anderen "Profis" so kommuniziert ...
Ja, undervolten kann man Beide. Und wenn man "alles" rausholen will nimmt die 3090 bis zu 550 Watt und die 6900XT dann 400 Watt (mit 2700 MHz).

"Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen."

Oder eben eine 3080 (nach Deiner Interpretation) :-P

MfG Föhn.
Ne, ich gebe max Details vor und alternate zeigt nur auf, das deine Quelle Bullshit war.
Deine Preise waren höher, als Scalpernate.
Also "mein" Preis der 6900XT mit ab 1649 € war günstiger. Nur mal so zur INFO ... :schief:

MfG Föhn.
 

Anhänge

  • 3090 ü 400 Watt.jpg
    3090 ü 400 Watt.jpg
    262,9 KB · Aufrufe: 18
  • 6900XT 330 Watt.jpg
    6900XT 330 Watt.jpg
    185,3 KB · Aufrufe: 17

derneuemann

BIOS-Overclocker(in)
Dann gibt es ja ausschließlich die 3090 mit ihren 24 GB zum zocken laut Dir mit "alle Regler rechts" ?
Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Das sind ca. 25 %. Nah beieinander sieht für mich anders aus. Wurde auch schon von Igor und div. anderen "Profis" so kommuniziert ...
Ja, undervolten kann man Beide. Und wenn man "alles" rausholen will nimmt die 3090 bis zu 550 Watt und die 6900XT dann 400 Watt (mit 2700 MHz).

"Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen."

Oder eben eine 3080 (nach Deiner Interpretation) :-P

MfG Föhn.

Also "mein" Preis der 6900XT mit ab 1649 € war günstiger. Nur mal so zur INFO ... :schief:

MfG Föhn.
Und dein Preis der 3090 war deutlich höher und alternate war nur ein Schnellschuss.

Eine FE 3090 und eine Stock 6900XT verbrauchen egal welches Spiel recht ähnlich.
 

raPid-81

Freizeitschrauber(in)
Dann gibt es ja ausschließlich die 3090 mit ihren 24 GB zum zocken laut Dir mit "alle Regler rechts" ?
Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Das sind ca. 25 %. Nah beieinander sieht für mich anders aus. Wurde auch schon von Igor und div. anderen "Profis" so kommuniziert ...
Ja, undervolten kann man Beide. Und wenn man "alles" rausholen will nimmt die 3090 bis zu 550 Watt und die 6900XT dann 400 Watt (mit 2700 MHz).

"Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen."

Oder eben eine 3080 (nach Deiner Interpretation) :-P

MfG Föhn.
Die 3090 liefert in dem Beispiel aber auch 10% mehr FPS...

Aber ja, die RTX 3000er ziehen mehr Strom als die RX6000er, habe auch nie etwas anderes behauptet.

Wer also auf Verbrauch und P/L in Rasterization achtet, der kauft eine RX.
Wer RT hoch setzen will, und mit DLSS übrigens auch etwas Strom sparen kann, der kauft eine RTX.

Ich kann mit meiner 3080 alle Regler nach rechts setzen in CP2077, das geht mit der 6900XT nicht. Und nu?
 

onkel-foehn

Software-Overclocker(in)
Die 3090 liefert in dem Beispiel aber auch 10% mehr FPS...

Aber ja, die RTX 3000er ziehen mehr Strom als die RX6000er, habe auch nie etwas anderes behauptet.

Wer also auf Verbrauch und P/L in Rasterization achtet, der kauft eine RX.
Wer RT hoch setzen will, und mit DLSS übrigens auch etwas Strom sparen kann, der kauft eine RTX.

Ich kann mit meiner 3080 alle Regler nach rechts setzen in CP2077, das geht mit der 6900XT nicht. Und nu?
Yep, 10 % mehr FPS bei 20 % höherem Verbrauch und (durchschnittlich) 75 % Aufpreis. Mein Reden.
Und mit Letztgenannter geht das auch (alle Regler nach rechts), dann hast halt ggf der 3080 gegenüber ein paar FPS weniger. Und nu ?

MfG Föhn.
 

deady1000

Volt-Modder(in)
und (durchschnittlich) 75 % Aufpreis
Haste ein konkretes Beispiel? Was meinst du damit?

Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Aha, was ist das denn für ne lustige pauschale Aussage?

Zum einen sind die Karten ab Werk viel niedriger limitiert und werden häufig mit UV/OC optimiert und zum zweiten können viele RTX3090er gar nicht rauf auf 400W bzw werden nur von wenigen da oben betrieben. Ich habe bei meinem Profil nur in Ausnahmefällen die 350W gesehen. Meist sind es so 280W-300W unter Volllast, in der Regel noch weit weniger. Das Powerlimit habe ich übrigens auf 400W, aber da kommt meine Karte niemals hin ohne OC mit 2GHz aufwärts.

Aber ganz davon ab, was bringt einem diese Diskussion überhaupt? Bin es echt leid darüber zu streiten. Welche Karte jetzt hier oder dort ein paar Prozente schneller oder langsamer ist und ob man jetzt den Jungs von PCGH oder CB glauben soll. Juckt doch bei den aktuellen Karten überhaupt nicht mehr. Im Rastering sind die gegenüber ihren Konkurrenzmodellen alle ungefähr gleichauf und man muss schon hartes Cherrypicking betreiben und daran etwas zu ändern.

Die Unterschiede findet man lediglich bei den Features und beim VRAM.
Also 12/16GB vs 10/12/24GB und "komplett auf Raster ausgelegt" vs "DLSS + RT-ready".
Da lässt sich vielleicht noch sinnvoll diskutieren und hier gibt es sicher Meinungsverschiedenheiten.

FPS interessieren doch, bei realistischen Leistungsunterschieden in der Rasterization von unter 5% keine Sau mehr. :D Wenn Karten so nah aneinander sind, muss man auf die Beilagen achten, statt sich auf wenige FPS zu fixieren, die in der Realität niemandem auffallen.

Und die Sache mit der Effizienz ist auch völlig relativ.
Ampere ist von Haus aus halt "säuferisch" und lässt sich dafür umso besser undervolten.

Also "mein" Preis der 6900XT mit ab 1649 € war günstiger. Nur mal so zur INFO ... :schief:
Ich würde mir für 1649€ keine Karte kaufen, die DLSS nicht beherrscht. :ugly:
Andere würden sagen, für den Preis kommt keine Karte mit 10-12GB ins System.
Fair enough. Beide Argumentationen machen Sinn, oder eben auch nicht, je nachdem wen man fragt.
 
Zuletzt bearbeitet:

pietcux

Software-Overclocker(in)
Falls bei den neuen Karten (RTX3080TI) die Mining Bremse wirkungsvoll und nachhaltig ist, würde ich meine RTX3080 verkaufen und davon dann die TI erwerben. Um solche Themen könnte es hier doch gehen, oder? AMD hat für mich hier überhaupt kein Thema zu sein, gähn....
 

deady1000

Volt-Modder(in)
@pietcux Die RTX3080 wird nachträglich nicht im Mining gebremst? Könnte ja dann echt sein, dass ihr Wert nochmal zunimmt auf dem Gebrauchtmarkt. ^^ Aber ich zweifle daran, dass die RTX3080Ti durch eine Miningbremse wirklich relevant günstiger wird. Das Ding wird, mit oder ohne Bremse, realistisch nicht kaufbar sein und ebenfalls für Mondpreise weggescalpt werden.

Die Preise sind meines Erachtens nicht nur wegen der Miner so hoch, sondern liegen auch an der Nachfrage der Gamer, die nach all den Jahren und dem GraKa-Hype der letzten Monate, endlich wieder aufrüsten wollen, sowie der Gier der Händler, denen die Situation aktuell sicher sehr gut gefällt und von deren Seite aus das ganze noch ne Weile weitergehen kann. ^^
 

deady1000

Volt-Modder(in)
Ok, die Preise sind aktuell schon irrsinnig. ^^

Naja, wird dafür auch Gründe geben. Die 6900XT ist mMn aber auch einfach nicht so viel wert. Was ist ihre UVP? 999€? Da sind 1649€ aufwärts schon sportlich genug. Und die RTX3090, ok, die ist natürlich auch völlig über ihrem Wert bei >3000€.

Allerdings sind das alles so Scalper-Shops und die seriöseren Händler haben die gar nicht auf Lager, was diese hohen Preise auf Geizhals erklärt. Nur weil da 3090er für diesen Preis gelistet und kaufbar sind, bedeutet das nicht, dass es reale Personen gibt, die wirklich so dumm wären, das auszugeben, während die RX6900XT auf bei Mindfactory und Konsorten regulär zu kaufen ist.

Daraus lässt sich also eher ableiten:
Die RX6900XT ist kaufbar, die RTX3090 eigentlich nicht wirklich.
3000-3500€ lassen sich nur damit erklären, dass es keine Ware gibt und die Karten de facto ausverkauf sind.
Ich bin nicht der einzige, der 1499€ bezahlt hat. ^^
 

denrusl

Freizeitschrauber(in)
Ok, die Preise sind aktuell schon irrsinnig. ^^

Naja, wird dafür auch Gründe geben. Die 6900XT ist mMn aber auch einfach nicht so viel wert. Was ist ihre UVP? 999€? Da sind 1649€ aufwärts schon sportlich genug. Und die RTX3090, ok, die ist natürlich auch völlig über ihrem Wert bei >3000€.

Allerdings sind das alles so Scalper-Shops und die seriöseren Händler haben die gar nicht auf Lager, was diese hohen Preise auf Geizhals erklärt. Nur weil da 3090er für diesen Preis gelistet und kaufbar sind, bedeutet das nicht, dass es reale Personen gibt, die wirklich so dumm wären, das auszugeben, während die RX6900XT auf bei Mindfactory und Konsorten regulär zu kaufen ist.

Daraus lässt sich also eher ableiten:
Die RX6900XT ist kaufbar, die RTX3090 eigentlich nicht wirklich.
3000-3500€ lassen sich nur damit erklären, dass es keine Ware gibt und die Karten de facto ausverkauf sind.
Ich bin nicht der einzige, der 1499€ bezahlt hat. ^^
hab gestern die 3060 für 900€ neu gesehen :ugly:
 

derneuemann

BIOS-Overclocker(in)
Meine 6900xt@2500 MHz mit 1100 mV zieht im FurMark im Schnitt 250W.
Tolle Info ;)
Weder interessiert Furmark, noch @1100mV

Da interessiert nur ein Test, der in realen Bedingungen einen Vergleich anstellt, beides @Stock.

Versteh mich bitte nicht falsch. Natürlich ist es schön, das du deine Erfahrungen teilst und auch für viele nützlich, nur interessiert das in Bezug auf meine Aussage, das eine Stock 6900XT und Stock 3090 beim Verbrauch nicht so weit auseinander liegen, einfach nicht.

Aber zurück zu deinen Erfahrungen, weil mich die natürlich auch interessieren!
Was liegt denn in Spielen an? Wie hast du gemessen, oder ist das nur der ausgelesene Wert(Weil da käme dann ja noch ne ganze Menge drauf, das man da bei 250W ausgelesen, real schon wieder über 300W liegt.)?
Hast du 1100mV fixiert, oder ist das einfach der Wert im Stock zustand, der bei dieser Last anliegt?
 

raPid-81

Freizeitschrauber(in)
Yep, 10 % mehr FPS bei 20 % höherem Verbrauch und (durchschnittlich) 75 % Aufpreis. Mein Reden.
Und mit Letztgenannter geht das auch (alle Regler nach rechts), dann hast halt ggf der 3080 gegenüber ein paar FPS weniger. Und nu ?

MfG Föhn.
Du stellst den RT Regler auf einer 6900XT ganz nach rechts in CP2077? Will ich sehen. :lol:

Falls bei den neuen Karten (RTX3080TI) die Mining Bremse wirkungsvoll und nachhaltig ist, würde ich meine RTX3080 verkaufen und davon dann die TI erwerben. Um solche Themen könnte es hier doch gehen, oder? AMD hat für mich hier überhaupt kein Thema zu sein, gähn....
Alter, voll die Idee! Meine 3080 hat ja auch den "Mining Chip" drauf, wenn ich eine TI ergattere dann mach ich vielleicht sogar plus! Ich check das! :D

Meine 6900xt@2500 MHz mit 1100 mV zieht im FurMark im Schnitt 250W.
Meine 3080 zieht in Biomutant, WQHD, alles maxed out, bei capped 100 FPS ca. 230 Watt. Und nu?
 
Oben Unten