• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 3090 alias "BFGPU" im Test: Titanischer Alleskönner für 1.500 Euro

Khabarak

BIOS-Overclocker(in)
Ja, Average.


Nö:

Voll in der 66W Spec :daumen:
Weiterlesen hätte dir da echt geholfen...
Folgendes steht auch im Fazit:

PCGH schrieb:
Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben.

Und das allein beim Erhöhen des PT.
Da Nvidia Käufer - und besonders die der High End GPUs zum OC per Afterburner neigen, sind die 89W schon ein Problem.
Sonst wäre Raffs Netzteil auch nicht in den Notfall Shutdown gegangen.
Das hat die RX 480 übrigens nicht geschafft.


Zur RX480:
Hardwareluxx zeigt in der eigenen Messung Peaks bis 82W auf der 12V Schiene.
Von 3,3V kommen nochmal 6W dazu.
Macht 88W.
 

FormatC

igor'sLAB
Dafür basht er mal locker im Chat Eure Stromspitzenmessungen mit dem Kommentar "dass bei Euch halt keine Ingenieure arbeiten" ;)
Plausibilitätstests sollten bei sowas schon drin sein. Das, was da stellenweise an Spikes reported wurde, ist in manchen Fällen schon rein technisch gar nicht möglich. Auch PCAT produziert ab und an gravierende Auslesefehler. Das kann und muss man aber erkennen.

Ich bashe auch nicht, sondern stelle lediglich richtig. Dass meine UHD Settings nicht aus Langeweile entstanden sind, sondern viele Faktoren für eine bessere Vergleichbarkeit eingeflossen sind, sollte man auch mal mit in Rechnung stellen. Ich stelle jetzt eine Karte, die das abkann, mit voller Beschnullerung in den Ring und lasse dafür alle anderen ins Nichts laufen? Lustigerweise deckt sich mein normierter Gesamtdurchschnitt mit fast allen Werten Dritter. Nur hier schneidet die 3090 überdurchschnittlich gut ab. Manche sehr überdurchnittlich hohen Zuwächse hätte man durchaus mal hinterfragen oder zumindest mal erklären können. ;)
 

Khabarak

BIOS-Overclocker(in)
Da steht Peaks, du hast aber von der RX480 nicht die Peak-Werte genannt, sondern Average.


Das PowerTarget der RX480 wurde auch nicht angehoben für die fast 90W.

Also: Alles kein Vergleich.

Laut Hardwareluxx sind die 86W schon die Peak Werte der RX480.
Wenn ich mich recht erinnere, wurde da bei OC nicht mehr über den PCIe Slot gezogen, sondern nur aus dem 6 Pin Stecker.
Ab dem nächsten Treiber war das übrigens auch vorbei.. keine Peaks mehr über den PCIe Spec Werten.

Das sollte Nvidia dann auch gleich so implementieren.. alles andere wäre defect by design.
Immerhin erlaubt Nvidia das OC in fest gesteckten Grenzen.
Die wissen also genau, wie sich die Karte da verhält.
Wenn die Karte den PCIe Slot, oder gar das Netzteil und dadurch andere Komponenten himmelt, werden die Hersteller auf Nvidia zeigen.
Der Kunde ist der gearschte, weil er beweisen muss, dass die Nvidia Karte den PC geschrottet hat.

Und nochmal:
The RX 480 hat nie ein Netzteil in die Notabschaltung geschickt. Die 3080 und 3090 schaffen das schon.
Das fänd ich schon bedenklicher... vor allem, wenn es sogar bei den empfohlenen 750W Netzteilen passieren kann.
Soll man dann bei Nvidia Karten einen besonders großen Puffer einplanen und gleich zum 1kW Netzteil greifen?
Ist ja nicht so, dass jeder ein Benchmark Setup hat, auf dem nur eine SSD, 2 RAM Riegel, 1 CPU und eine Grafikkarte montiert sind.
Bei mir sind noch ein BluRay Laufwerk, 2 weitere RAM Riegel, 6 Gehäuselüfter und 4 weitere Festplatten verbaut.
Mit einem 750W Netzteil hätte ich da echte Probleme... und wohl bald durch Peaks beim Abschalten gegrillte Hardware.
Allerdings hab ich selbst bei meinem 860W Netzteil arge Bedenken, eine der beiden Karten einzubauen. (Mal abgesehen vom absolut überzogenen Preis, der nur in Relation zur noch mehr überteuerten 2000er Generation günstig erscheint)
 

Mega-Zord

Komplett-PC-Aufrüster(in)
Wenn die 3080 nicht wäre, würde sich hier vermutlich niemand über die 1,5k für die 3090 wundern. Die meisten hätten vorher ganz einfach die 3080 etwa gleichauf mit der 2080 Ti vermutet. Ich denke hier wurden einfach nur etwas die Grenzen verschoben. Dieses mal aber zu Gunsten der Gamer. Man bekommt mit der RTX 3080 ja eine ordentliche Karte für "nur" 800 EUR. Die RTX 2080 war ja eher enttäuschend und wurde von vielen gemieden, die RTX 2080 Ti war dann viel zu teuer.

Die Preissituation ist zwar alles andere als zufriedenstellend, aber sie hat sich gebessert. Sollen sie den Enthusiasten halt 1,5k für die RTX 3090 mit nicht einmal 15% Mehrleistung aus der Tasche nehmen. Ich finde das jetzt nicht verwerflich. Die letzten Prozente hatten schon immer ihren Preis.

Bis die neuen AMD-Karten nicht getestet wurden, kaufe ich gar nichts. Da muss die olle 2080 Ti noch durchhalten. ;D
 

Threshold

Großmeister(in) des Flüssigheliums
Mal sehen, ob es noch Netzteil Tests gibt. Ob Multi Rail besser ist als Single Rail und wie es sonst so aussieht.
 

shaboo

Software-Overclocker(in)
Wenn die 3080 nicht wäre, würde sich hier vermutlich niemand über die 1,5k für die 3090 wundern. Die meisten hätten vorher ganz einfach die 3080 etwa gleichauf mit der 2080 Ti vermutet.
Wohl kaum; die 2080Ti lag ja gerade mal um die 20% vor der 2080(S), und vom Nachfolger der Letzteren hat man sich dann schon eine Mehrleistung von mindestens 30 bis 40 Prozent erwartet, d.h. 10 bis 20 Prozent über der 2080Ti. Dass es nun sogar noch ein paar Prozent mehr geworden sind, ist natürlich erfreulich, aber dafür bleibt der Speicherausbau der Basis-3070/3080 halt auf das absolut nötige Minimum beschränkt und Strombedarf und Hitzeentwicklung hauen ganz schön rein.

Die 3090 hat halt auch eine andere Ausrichtung als die 2080Ti. Während Letztere sich auch stark an reine (4K-)Gamer gerichtet hat, profitieren von der 3090 in erster Linie (semi-)professionelle Anwender, Modding-Fetischisten oder 8k-Spieler (auch wenn dafür in vielen Fällen dann die Leistung wieder nicht reichen wird). Und genau so speziell wie das Klientel ist dann halt auch der Preis. Spätestens wenn tatsächlich eine 20-GB-Version der 3080 rauskommen sollte und auch halbwegs "attraktiv" bepreist wird (gemessen an den Preisen von 3080 und 3090), bin ich gespannt, wie sich die Verkaufszahlen der 3090 entwickeln werden ...
 

PHuV

Komplett-PC-Aufrüster(in)
Ich weiß ja nicht, obs hier jemanden interessiert?


TITAN RTX Deep Learning Benchmarks: FP32 (XLA off)
Code:
TITAN RTX Deep Learning Benchmarks: FP32 (XLA off)
              RTX TITAN    RTX 3090      RTX 8000
ResNet152     139.13        208.62       137.12
InceptionV4   108.25        165.38       105.2
VGG16         191.85        331.43       197.69
InceptionV3   221.72        334.61       216.27
ResNet50      337.05        521.19       322.66

TITAN RTX Deep Learning Benchmarks: FP16 (XLA off)
Code:
TITAN RTX Deep Learning Benchmarks: FP16 (XLA off)
            RTX TITAN    RTX 3090    RTX 8000
ResNet152    284.87      459.93      291.94
InceptionV4  207.98      378.88      203.67
VGG16        287.1       409.71      276.16
InceptionV3  397.09      715.44      391.08
ResNet50     646.13      1032.01     604.76
 

Mega-Zord

Komplett-PC-Aufrüster(in)
Wohl kaum; die 2080Ti lag ja gerade mal um die 20% vor der 2080(S), und vom Nachfolger der Letzteren hat man sich dann schon eine Mehrleistung von mindestens 30 bis 40 Prozent erwartet, d.h. 10 bis 20 Prozent über der 2080Ti. Dass es nun sogar noch ein paar Prozent mehr geworden sind, ist natürlich erfreulich, aber dafür bleibt der Speicherausbau der Basis-3070/3080 halt auf das absolut nötige Minimum beschränkt und Strombedarf und Hitzeentwicklung hauen ganz schön rein.

Die Erwartungshaltung auf die ich gestoßen bin (allerdings fast nur aus AMD-Fanboys, bzw. NV-Hassern bestehend), war die dass NV ja einpacken kann. Jeder kleine Leak wurde dermaßen zerissen und und der Untergang von NV prophezeit. Naja und jetzt finden die Leute immer noch genug, um die neuen Karten schlecht zu reden.

Mal schauen, ob AMD überhaupt was in diesem Jahr liefern kann, was an die 3080 kommt. Ich würde es mir wünschen.
 

gruenerknilch

Komplett-PC-Käufer(in)
Die Erwartungshaltung auf die ich gestoßen bin (allerdings fast nur aus AMD-Fanboys, bzw. NV-Hassern bestehend), war die dass NV ja einpacken kann. Jeder kleine Leak wurde dermaßen zerissen und und der Untergang von NV prophezeit. Naja und jetzt finden die Leute immer noch genug, um die neuen Karten schlecht zu reden.

Mal schauen, ob AMD überhaupt was in diesem Jahr liefern kann, was an die 3080 kommt. Ich würde es mir wünschen.

Und auf der anderen Seite ist es anders? Da nehmen sich doch beide Seiten nichts.

Ja, man findet noch immer Dinge, die man kritisieren kann
3080 mit 10 GB (die wahrscheinlich günstigere Samsung Fertigung lässt das überhaupt erst zu, sonst hätte NV die bei 850 bis 1000 Euro platziert)
Die 3080 mit 20 GB wird noch kommen mit genügend Preis Spielraum nach oben 999+? Dann ist man wieder bei Turing Preisen angekommen
Die 3090 eingeführt als neue "Leistungsklasse" mit saftigen Preisen, um die abzuholen, denen 10 GB zu wenig sind mit ca. 10-20 % mehr Leistung aber 100 % Aufpreis
Paperlaunch
Karten laufen an der Kotzgrenze

Nvidia hat es ziemlich verkackt... man stelle sich mal vor, AMD würde sowas abliefern, was da dann los wäre ;)

Aber warten wir mal ab, was AMD präsentiert, von Fail bis gutes Gesamtpaket kann da alles dabei sein
 

TheEndOfTheWorld

PC-Selbstbauer(in)
Laut Hardwareluxx sind die 86W schon die Peak Werte der RX480.
Hardwareluxx hatte gar keine Werte, sondern hat das Gesamtsystem vermessen bei der RX480.

Man bezog sich dann auf die TomsHW Werte von Igor und die zeigen 150W (!) aus dem PCIe nach deiner Peak-Metrik:

Hör bitte auf solche Unwahrheiten zu verbreiten. Danke.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ich bashe auch nicht, sondern stelle lediglich richtig. Dass meine UHD Settings nicht aus Langeweile entstanden sind, sondern viele Faktoren für eine bessere Vergleichbarkeit eingeflossen sind, sollte man auch mal mit in Rechnung stellen. Ich stelle jetzt eine Karte, die das abkann, mit voller Beschnullerung in den Ring und lasse dafür alle anderen ins Nichts laufen? Lustigerweise deckt sich mein normierter Gesamtdurchschnitt mit fast allen Werten Dritter. Nur hier schneidet die 3090 überdurchschnittlich gut ab. Manche sehr überdurchnittlich hohen Zuwächse hätte man durchaus mal hinterfragen oder zumindest mal erklären können. ;)

Wie bereits an diversen Stellen gesagt: Unsere GPU-Tests sind traditionell darauf ausgelegt, GPUs auszulasten. Oft mit wenig Rücksicht auf Verluste, also die Performance älterer/langsamer Grafikkarten. Hinzu kommt die gezielte Optimierung des Systems und der Testszenen auf Grafiklast. Das in Kombination mit dem ordentlichen Aufheizen reicht als Erklärung - am besten garniert mit den Extremtests, welche aufzeigen, dass Ampere viele Pixel braucht, um zu glänzen. Das war im Grunde seit der Enthüllung der verdoppelten FP32-ALUs zu erwarten, nur geht komischerweise fast niemand darauf ein und konzentriert sich stattdessen auf "normale" Auflösungen, für die ein Biest wie die RTX 3090 gar nicht gemacht wurde.


Ja habt ihr.
Aber für 1440p trotzdem ein schönes Bottleneck.
Da wäre der 10900k auf jeden Fall besser gewesen ;-)

Immer wieder nope. Wird auch nicht richtiger, wenn man das ganz oft sagt. ;) "Auf jeden Fall" wäre nur ein Rocket Lake oder Zen 3 besser gewesen.

Jetzt mal zum Mitschreiben: Unsere Benchmarks zeigen anscheinend die beste Skalierung zwischen 3080 und 3090 (kann ich nicht sagen, da ich mal wieder schlafen musste) ... und trotzdem wird auf dem Unterbau herumgeritten. Does not compute. Hier läuft alles, wie es soll. :-)

MfG
Raff
 

SHOKK

Freizeitschrauber(in)
Erstaunlicherweise sind in den letzten Tagen ziemlich viele User zu den Experten geworden. Sie lesen sich diverse News zu den neuen Grafikkarten und sind dann der Meinung, dass sie überall mitreden können und sogar den Redakteuren von PCGH, die schon seit Jahren im Geschäft sind, was vormachen können... traurig
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
FormatC darf sich gerne Experte nennen, das ist immerhin Igor aus dem namensgebenden Lab. :-) Er macht die präzisesten Leistungsaufnahmemessungen dank sündteuren Equipments, das muss man neidlos anerkennen, und auch seine Platinen-Analysen sind super. PCGH ist dazu die perfekte Ergänzung: Präzise Benchmarks mit jahrzehntelanger Erfahrung, aufwendigste Evaluierung und Transparenz, nix von der Stange plus ein Hang zum Extremen. Im Grunde braucht ihr nix anderes als diese beiden Quellen zu lesen. Aber das ist nur meine Meinung. :D

MfG
Raff
 

Esenel

PC-Selbstbauer(in)
Immer wieder nope. Wird auch nicht richtiger, wenn man das ganz oft sagt. ;) "Auf jeden Fall" wäre nur ein Rocket Lake oder Zen 3 besser gewesen.

Klar wären die besser.
Gibt es halt noch nicht.

Aber dass ich in 1440p mit einem 10900K und ner 2080Ti die FPS eurer 3080 in Metro Exodus erreiche und die einer 3090 in Star Wars, zeigt es doch schon auf.

Werde es aber natürlich mit der 3090 dann nochmal mit Daten belegen.

Vg
 

RedDragon20

BIOS-Overclocker(in)
Die Produktbezeichnung ist in dem Fall einfach irreführend. Hätte man das Teil "Titan" genannt, wäre wohl keiner auf den Trichter gekommen, den Preis zu kritisieren. Immerhin war die Titan auch nie ein reines Gaming-Werkzeug.

Durch die Produktbezeichnung "RTX 3090" wird hier aber suggeriert, dass es sich dabei um ein saumäßig leistungsstarkes Stück Gaming Hardware handelt, quasi die große Schwester der 3080. Obwohl sie das eben nicht ist.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Spricht nix dagegen, hau raus. :D Metro skaliert hier jedenfalls bestens, keine Spur von Limitierung. Aber mal sehen, eventuell wagen wir zur Version 1.1 des Index 2020 noch den Schritt zu "Extreme"-Qualität, bevor das dann über zwei Jahre alte Spiel im Index 2021 in Rente geht. Bisher war das keine gute Idee, da ältere GPUs Metro Exodus in den hohen Auflösungen nicht wirklich gut schultern.

MfG
Raff
 

Gurdi

Kokü-Junkie (m/w)
Die Sache mit dem PEG würde mich dann aber schon interessieren.Meine Karte ballert nämlich grade fleißig im Loop mit 380-390Watt rum....
 

Sk3ptizist

PC-Selbstbauer(in)
also in FAH schafft die 3090 irgendwie weniger als erwartet, nur ca. 30% mehr PPD als ne 2080Ti @ 170W für WU 13426 und ca. 36% average, bei den derzeitig verfügbaren Werten
1601078027733.png

wahrscheinlich müssen aber noch Treiber und der FAH-Client optimiert werden, jedoch trotzdem irgendwie wenig für die theoretische Rechenpower bzw. den titanischen Alleskönner
naja, mal abwarten...


Dann bleibe ich lieber bei GamerNexus hängen.
mir wird das hier auch überall zu bunt, ich schaue und traue jetzt nur noch Monty ;D
 
Zuletzt bearbeitet:

Olstyle

Moderator
Teammitglied
Hat F@H etwa vermehrt Integer Berechnungen durchgeführt? Würde mich bei der Anwendung eher wundern, wäre aber eine Erklärung da mit einer Float/Int Kombi ja Turing quasi genau so viele ALUs befeuern kann wie Ampere.
 

mylka

PC-Selbstbauer(in)
also ich hoffe, dass sich diese riesen kühler auch bei den kleineren modellen durchsetzen
eine 3070 unter volllast fast geräuschlos kühlen wäre mir das auf jeden fall wert, wenn sie dann 3 slots, die ich sowieso nicht benötige belegt
 

DasUnding

Komplett-PC-Aufrüster(in)
genau das frage ich mich auch, denn bei angeblich 13.45 TFLOPS=100% (2080Ti) vs 35.58 TFLOPS=264% (3090) FP32, könnte man ja etwas mehr erwarten ^^

Die TFLOPs würden nur linear skalieren, wenn alle Berechnungen tatsächlich FP32 wären, was in der Regel nicht der Fall ist, weil ja scheinbar im Mittel über viele Spiele 30% Integer-Berechnungen sind. Turing hat 13TFlops (FP32) und X-TIops. Ampere hat wieder die "Pascal-Shader" die beides können, und dann reine FP32 Einheiten und kommt somit auf diese 35TFLops. Wenn nur 30% Integer-Berechnungen sind, werden aus den 35TFlops noch 24,5 TFlops. Dazu kommen noch Schwächen, wie die nur leicht erhöhte Bandbreite. Wenn man Glück hat, kommen vielleicht noch 20TFlops an. Was dann ungefähr 20/13=1.53 also +53% wären, was dann gut mit den 4k-Ergebnissen passen würde - also alles in Butter, da wäre dann noch Potential für die nächste Generation um die "IPC" zu erhöhen, also sich den tatsächlichen TFlops zu nähern. Bei bestimmten Arbeiten, wird vermutlich aber die totale Leistung auch jetzt schon anliegen, was wirklich ziemlich geil ist für wissenschaftliche Geschichten. Lieber mehr TFlops haben (Vega) und selten nutzen, als alle nutzen und zu wenig haben.
 
Zuletzt bearbeitet:

Olstyle

Moderator
Teammitglied

deady1000

Volt-Modder(in)
Ich weiß nicht ob wir das schon hatten, aber made my Day :

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Esenel

PC-Selbstbauer(in)
Spricht nix dagegen, hau raus. :D Metro skaliert hier jedenfalls bestens, keine Spur von Limitierung. Aber mal sehen, eventuell wagen wir zur Version 1.1 des Index 2020 noch den Schritt zu "Extreme"-Qualität, bevor das dann über zwei Jahre alte Spiel im Index 2021 in Rente geht. Bisher war das keine gute Idee, da ältere GPUs Metro Exodus in den hohen Auflösungen nicht wirklich gut schultern.

MfG
Raff

Du hattest Recht bzgl Metro Exodus.
Gleiches Ergebnis hier.
Control auch.

Aber Star Wars. Da wird gut was liegen gelassen :-O
CX_2020-10-28_21-20-38_Star Wars  Jedi Fallen Order_1440p - PCGH.png


avg 24 FPS mehr.
P1 21 FPS mehr.

Nun wirds Zeit für Community Benchmarks :-D

VG und einen schönen Abend.
 
Oben Unten