Nvidia Geforce RTX 3090 alias "BFGPU" im Test: Titanischer Alleskönner für 1.500 Euro

Ja, Average.


Nö:

Voll in der 66W Spec :daumen:
Weiterlesen hätte dir da echt geholfen...
Folgendes steht auch im Fazit:

PCGH schrieb:
Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben.

Und das allein beim Erhöhen des PT.
Da Nvidia Käufer - und besonders die der High End GPUs zum OC per Afterburner neigen, sind die 89W schon ein Problem.
Sonst wäre Raffs Netzteil auch nicht in den Notfall Shutdown gegangen.
Das hat die RX 480 übrigens nicht geschafft.


Zur RX480:
Hardwareluxx zeigt in der eigenen Messung Peaks bis 82W auf der 12V Schiene.
Von 3,3V kommen nochmal 6W dazu.
Macht 88W.
 
Dafür basht er mal locker im Chat Eure Stromspitzenmessungen mit dem Kommentar "dass bei Euch halt keine Ingenieure arbeiten" ;)
Plausibilitätstests sollten bei sowas schon drin sein. Das, was da stellenweise an Spikes reported wurde, ist in manchen Fällen schon rein technisch gar nicht möglich. Auch PCAT produziert ab und an gravierende Auslesefehler. Das kann und muss man aber erkennen.

Ich bashe auch nicht, sondern stelle lediglich richtig. Dass meine UHD Settings nicht aus Langeweile entstanden sind, sondern viele Faktoren für eine bessere Vergleichbarkeit eingeflossen sind, sollte man auch mal mit in Rechnung stellen. Ich stelle jetzt eine Karte, die das abkann, mit voller Beschnullerung in den Ring und lasse dafür alle anderen ins Nichts laufen? Lustigerweise deckt sich mein normierter Gesamtdurchschnitt mit fast allen Werten Dritter. Nur hier schneidet die 3090 überdurchschnittlich gut ab. Manche sehr überdurchnittlich hohen Zuwächse hätte man durchaus mal hinterfragen oder zumindest mal erklären können. ;)
 
Da steht Peaks, du hast aber von der RX480 nicht die Peak-Werte genannt, sondern Average.


Das PowerTarget der RX480 wurde auch nicht angehoben für die fast 90W.

Also: Alles kein Vergleich.

Laut Hardwareluxx sind die 86W schon die Peak Werte der RX480.
Wenn ich mich recht erinnere, wurde da bei OC nicht mehr über den PCIe Slot gezogen, sondern nur aus dem 6 Pin Stecker.
Ab dem nächsten Treiber war das übrigens auch vorbei.. keine Peaks mehr über den PCIe Spec Werten.

Das sollte Nvidia dann auch gleich so implementieren.. alles andere wäre defect by design.
Immerhin erlaubt Nvidia das OC in fest gesteckten Grenzen.
Die wissen also genau, wie sich die Karte da verhält.
Wenn die Karte den PCIe Slot, oder gar das Netzteil und dadurch andere Komponenten himmelt, werden die Hersteller auf Nvidia zeigen.
Der Kunde ist der gearschte, weil er beweisen muss, dass die Nvidia Karte den PC geschrottet hat.

Und nochmal:
The RX 480 hat nie ein Netzteil in die Notabschaltung geschickt. Die 3080 und 3090 schaffen das schon.
Das fänd ich schon bedenklicher... vor allem, wenn es sogar bei den empfohlenen 750W Netzteilen passieren kann.
Soll man dann bei Nvidia Karten einen besonders großen Puffer einplanen und gleich zum 1kW Netzteil greifen?
Ist ja nicht so, dass jeder ein Benchmark Setup hat, auf dem nur eine SSD, 2 RAM Riegel, 1 CPU und eine Grafikkarte montiert sind.
Bei mir sind noch ein BluRay Laufwerk, 2 weitere RAM Riegel, 6 Gehäuselüfter und 4 weitere Festplatten verbaut.
Mit einem 750W Netzteil hätte ich da echte Probleme... und wohl bald durch Peaks beim Abschalten gegrillte Hardware.
Allerdings hab ich selbst bei meinem 860W Netzteil arge Bedenken, eine der beiden Karten einzubauen. (Mal abgesehen vom absolut überzogenen Preis, der nur in Relation zur noch mehr überteuerten 2000er Generation günstig erscheint)
 
Wenn die 3080 nicht wäre, würde sich hier vermutlich niemand über die 1,5k für die 3090 wundern. Die meisten hätten vorher ganz einfach die 3080 etwa gleichauf mit der 2080 Ti vermutet. Ich denke hier wurden einfach nur etwas die Grenzen verschoben. Dieses mal aber zu Gunsten der Gamer. Man bekommt mit der RTX 3080 ja eine ordentliche Karte für "nur" 800 EUR. Die RTX 2080 war ja eher enttäuschend und wurde von vielen gemieden, die RTX 2080 Ti war dann viel zu teuer.

Die Preissituation ist zwar alles andere als zufriedenstellend, aber sie hat sich gebessert. Sollen sie den Enthusiasten halt 1,5k für die RTX 3090 mit nicht einmal 15% Mehrleistung aus der Tasche nehmen. Ich finde das jetzt nicht verwerflich. Die letzten Prozente hatten schon immer ihren Preis.

Bis die neuen AMD-Karten nicht getestet wurden, kaufe ich gar nichts. Da muss die olle 2080 Ti noch durchhalten. ;D
 
Wenn die 3080 nicht wäre, würde sich hier vermutlich niemand über die 1,5k für die 3090 wundern. Die meisten hätten vorher ganz einfach die 3080 etwa gleichauf mit der 2080 Ti vermutet.
Wohl kaum; die 2080Ti lag ja gerade mal um die 20% vor der 2080(S), und vom Nachfolger der Letzteren hat man sich dann schon eine Mehrleistung von mindestens 30 bis 40 Prozent erwartet, d.h. 10 bis 20 Prozent über der 2080Ti. Dass es nun sogar noch ein paar Prozent mehr geworden sind, ist natürlich erfreulich, aber dafür bleibt der Speicherausbau der Basis-3070/3080 halt auf das absolut nötige Minimum beschränkt und Strombedarf und Hitzeentwicklung hauen ganz schön rein.

Die 3090 hat halt auch eine andere Ausrichtung als die 2080Ti. Während Letztere sich auch stark an reine (4K-)Gamer gerichtet hat, profitieren von der 3090 in erster Linie (semi-)professionelle Anwender, Modding-Fetischisten oder 8k-Spieler (auch wenn dafür in vielen Fällen dann die Leistung wieder nicht reichen wird). Und genau so speziell wie das Klientel ist dann halt auch der Preis. Spätestens wenn tatsächlich eine 20-GB-Version der 3080 rauskommen sollte und auch halbwegs "attraktiv" bepreist wird (gemessen an den Preisen von 3080 und 3090), bin ich gespannt, wie sich die Verkaufszahlen der 3090 entwickeln werden ...
 
Ich weiß ja nicht, obs hier jemanden interessiert?


TITAN RTX Deep Learning Benchmarks: FP32 (XLA off)
Code:
TITAN RTX Deep Learning Benchmarks: FP32 (XLA off)
              RTX TITAN    RTX 3090      RTX 8000
ResNet152     139.13        208.62       137.12
InceptionV4   108.25        165.38       105.2
VGG16         191.85        331.43       197.69
InceptionV3   221.72        334.61       216.27
ResNet50      337.05        521.19       322.66

TITAN RTX Deep Learning Benchmarks: FP16 (XLA off)
Code:
TITAN RTX Deep Learning Benchmarks: FP16 (XLA off)
            RTX TITAN    RTX 3090    RTX 8000
ResNet152    284.87      459.93      291.94
InceptionV4  207.98      378.88      203.67
VGG16        287.1       409.71      276.16
InceptionV3  397.09      715.44      391.08
ResNet50     646.13      1032.01     604.76
 
Wohl kaum; die 2080Ti lag ja gerade mal um die 20% vor der 2080(S), und vom Nachfolger der Letzteren hat man sich dann schon eine Mehrleistung von mindestens 30 bis 40 Prozent erwartet, d.h. 10 bis 20 Prozent über der 2080Ti. Dass es nun sogar noch ein paar Prozent mehr geworden sind, ist natürlich erfreulich, aber dafür bleibt der Speicherausbau der Basis-3070/3080 halt auf das absolut nötige Minimum beschränkt und Strombedarf und Hitzeentwicklung hauen ganz schön rein.

Die Erwartungshaltung auf die ich gestoßen bin (allerdings fast nur aus AMD-Fanboys, bzw. NV-Hassern bestehend), war die dass NV ja einpacken kann. Jeder kleine Leak wurde dermaßen zerissen und und der Untergang von NV prophezeit. Naja und jetzt finden die Leute immer noch genug, um die neuen Karten schlecht zu reden.

Mal schauen, ob AMD überhaupt was in diesem Jahr liefern kann, was an die 3080 kommt. Ich würde es mir wünschen.
 
Die Erwartungshaltung auf die ich gestoßen bin (allerdings fast nur aus AMD-Fanboys, bzw. NV-Hassern bestehend), war die dass NV ja einpacken kann. Jeder kleine Leak wurde dermaßen zerissen und und der Untergang von NV prophezeit. Naja und jetzt finden die Leute immer noch genug, um die neuen Karten schlecht zu reden.

Mal schauen, ob AMD überhaupt was in diesem Jahr liefern kann, was an die 3080 kommt. Ich würde es mir wünschen.

Und auf der anderen Seite ist es anders? Da nehmen sich doch beide Seiten nichts.

Ja, man findet noch immer Dinge, die man kritisieren kann
3080 mit 10 GB (die wahrscheinlich günstigere Samsung Fertigung lässt das überhaupt erst zu, sonst hätte NV die bei 850 bis 1000 Euro platziert)
Die 3080 mit 20 GB wird noch kommen mit genügend Preis Spielraum nach oben 999+? Dann ist man wieder bei Turing Preisen angekommen
Die 3090 eingeführt als neue "Leistungsklasse" mit saftigen Preisen, um die abzuholen, denen 10 GB zu wenig sind mit ca. 10-20 % mehr Leistung aber 100 % Aufpreis
Paperlaunch
Karten laufen an der Kotzgrenze

Nvidia hat es ziemlich verkackt... man stelle sich mal vor, AMD würde sowas abliefern, was da dann los wäre ;)

Aber warten wir mal ab, was AMD präsentiert, von Fail bis gutes Gesamtpaket kann da alles dabei sein
 
Laut Hardwareluxx sind die 86W schon die Peak Werte der RX480.
Hardwareluxx hatte gar keine Werte, sondern hat das Gesamtsystem vermessen bei der RX480.

Man bezog sich dann auf die TomsHW Werte von Igor und die zeigen 150W (!) aus dem PCIe nach deiner Peak-Metrik:

Hör bitte auf solche Unwahrheiten zu verbreiten. Danke.
 
Ich bashe auch nicht, sondern stelle lediglich richtig. Dass meine UHD Settings nicht aus Langeweile entstanden sind, sondern viele Faktoren für eine bessere Vergleichbarkeit eingeflossen sind, sollte man auch mal mit in Rechnung stellen. Ich stelle jetzt eine Karte, die das abkann, mit voller Beschnullerung in den Ring und lasse dafür alle anderen ins Nichts laufen? Lustigerweise deckt sich mein normierter Gesamtdurchschnitt mit fast allen Werten Dritter. Nur hier schneidet die 3090 überdurchschnittlich gut ab. Manche sehr überdurchnittlich hohen Zuwächse hätte man durchaus mal hinterfragen oder zumindest mal erklären können. ;)

Wie bereits an diversen Stellen gesagt: Unsere GPU-Tests sind traditionell darauf ausgelegt, GPUs auszulasten. Oft mit wenig Rücksicht auf Verluste, also die Performance älterer/langsamer Grafikkarten. Hinzu kommt die gezielte Optimierung des Systems und der Testszenen auf Grafiklast. Das in Kombination mit dem ordentlichen Aufheizen reicht als Erklärung - am besten garniert mit den Extremtests, welche aufzeigen, dass Ampere viele Pixel braucht, um zu glänzen. Das war im Grunde seit der Enthüllung der verdoppelten FP32-ALUs zu erwarten, nur geht komischerweise fast niemand darauf ein und konzentriert sich stattdessen auf "normale" Auflösungen, für die ein Biest wie die RTX 3090 gar nicht gemacht wurde.


Ja habt ihr.
Aber für 1440p trotzdem ein schönes Bottleneck.
Da wäre der 10900k auf jeden Fall besser gewesen ;-)

Immer wieder nope. Wird auch nicht richtiger, wenn man das ganz oft sagt. ;) "Auf jeden Fall" wäre nur ein Rocket Lake oder Zen 3 besser gewesen.

Jetzt mal zum Mitschreiben: Unsere Benchmarks zeigen anscheinend die beste Skalierung zwischen 3080 und 3090 (kann ich nicht sagen, da ich mal wieder schlafen musste) ... und trotzdem wird auf dem Unterbau herumgeritten. Does not compute. Hier läuft alles, wie es soll. :-)

MfG
Raff
 
Erstaunlicherweise sind in den letzten Tagen ziemlich viele User zu den Experten geworden. Sie lesen sich diverse News zu den neuen Grafikkarten und sind dann der Meinung, dass sie überall mitreden können und sogar den Redakteuren von PCGH, die schon seit Jahren im Geschäft sind, was vormachen können... traurig
 
FormatC darf sich gerne Experte nennen, das ist immerhin Igor aus dem namensgebenden Lab. :-) Er macht die präzisesten Leistungsaufnahmemessungen dank sündteuren Equipments, das muss man neidlos anerkennen, und auch seine Platinen-Analysen sind super. PCGH ist dazu die perfekte Ergänzung: Präzise Benchmarks mit jahrzehntelanger Erfahrung, aufwendigste Evaluierung und Transparenz, nix von der Stange plus ein Hang zum Extremen. Im Grunde braucht ihr nix anderes als diese beiden Quellen zu lesen. Aber das ist nur meine Meinung. :D

MfG
Raff
 
Immer wieder nope. Wird auch nicht richtiger, wenn man das ganz oft sagt. ;) "Auf jeden Fall" wäre nur ein Rocket Lake oder Zen 3 besser gewesen.

Klar wären die besser.
Gibt es halt noch nicht.

Aber dass ich in 1440p mit einem 10900K und ner 2080Ti die FPS eurer 3080 in Metro Exodus erreiche und die einer 3090 in Star Wars, zeigt es doch schon auf.

Werde es aber natürlich mit der 3090 dann nochmal mit Daten belegen.

Vg
 
Die Produktbezeichnung ist in dem Fall einfach irreführend. Hätte man das Teil "Titan" genannt, wäre wohl keiner auf den Trichter gekommen, den Preis zu kritisieren. Immerhin war die Titan auch nie ein reines Gaming-Werkzeug.

Durch die Produktbezeichnung "RTX 3090" wird hier aber suggeriert, dass es sich dabei um ein saumäßig leistungsstarkes Stück Gaming Hardware handelt, quasi die große Schwester der 3080. Obwohl sie das eben nicht ist.
 
Zurück