Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

Wccftech wundert sich in einem längeren Test, dass die neuen Grafikkarten Geforce RTX 3080 und RTX 3090 zwar sehr schnell, aber nicht so schnell sind, wie es die technischen Daten und die Verdopplung der TFLOPS eigentlich erwarten lassen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?
 
Oder es kommen Integer-Berechnungen zum Einsatz bei denen Turing quasi genau so viele ALUs einsetzen kann wie Ampere ;) .
Irgendwie beleidigt ihr mit diesem Spekulatius eure eigenen Experten.
Edit: In der erweiterten Form geht der Artikel nun natürlich vollkommen in Ordnung. :daumen:
 
Zuletzt bearbeitet:
Wenn es wirklich so sein sollte, dass nV per Treiber oder BIOS-Update noch eine ganze Menge an Leistung so zu sagen "Freischalten" kann, dann würde das auch erklären, warum AMD sich bisher absolut bedeckt hält und von Hype keine Spur ist, obwohl die zu erwartende Leistung zumindest nicht weit weg von der 3080 (aktuell) sein sollte.
 
Ist das nicht offensichtlich. Die Karten können in Spielen nicht nur 128* Int Berechnungen fahren, sondern 64 Int + 64 float wie es die Turing macht, dadurch reduziert sich die ShaderTflops die Nvidia angibt. Das heißt nur im ideal Fall haben wir tatsächlich eine Verdoppelung der Leistung.

Ich warte auf die erste Klage wegen Täuschung. AMD hatte mit den FX doch ähnliches gemacht, ein Kern musste sich doch die int Einheit teilen , somit lag viel Leistung bach und die 8 Kerne waren am Ende 8 Threads.

Jetzt ist AMD gefragt, den AMD geht den klassischen Weg, brezelt aber die Shader auf bis zu 5120 Shader auf. Mit hohen Takt könnte es interessant werden.
 
Ich kenne mich in der Spiele-Entwicklung nun nicht sonderlich gut aus, aber ich meine mittlerweile schon des Öfteren gelesen zu haben, dass Spiele einfach nicht nur ausschließlich auf diese FP32-Berechnungen setzen. Deswegen ging ich bisher davon aus, dass das der Grund dafür ist, dass die 3080 beispielsweise in dem Szenario Games "nur" 25-30% schneller als die 2080 Ti ist (was ich im Übrigen aber trotzdem ganz ordentlich finde, wenn man den Preis der beiden betrachtet).
Dass Nvidia die Karte per Treiber hart zurück hält und dann bei Launch der Big Navi auf einmal die Pforte für noch mehr Leistung aufreißt, kann ich mir nicht so ganz vorstellen.
 
Es ist wohl eher so, dass doch eben auch einiges an Int32 zum Einsatz kommt und nicht wie am Anfang von euch und vielen anderen verkündet FP32, dann sähen die Worst Case Spiele wie Doom aus und die beste Case Spiele hätten bereits bei 2080 Ti zu 3080 die doppelten FPS.
 
Oder es kommen Integer-Berechnungen zum Einsatz bei denen Turing quasi genau so viele ALUs einsetzen kann wie Ampere ;) .
Irgendwie beleidigt ihr mit diesem Spekulatius eure eigenen Experten.

This.

Irgendwie wirkt der ganze Artikel sehr... unbeholfen. Aber das ist ja nur eine News über eine News.

@PCGH zu so einem Artikel währe schon mal ein Kommentar von euch ganz hilfreich, damit die Leser den Inhalt richtig einordnen.
 
Ich muss mich zitieren:

Die TFLOPs würden nur linear skalieren, wenn alle Berechnungen tatsächlich FP32 wären, was in der Regel nicht der Fall ist, weil ja scheinbar im Mittel über viele Spiele 30% Integer-Berechnungen sind. Turing (2080 Ti) hat 13TFlops (FP32) und X-TIops. Ampere hat wieder die "Pascal-Shader" die beides können, und dann reine FP32 Einheiten und kommt somit auf diese 35TFLops. Wenn nur 30% Integer-Berechnungen sind, werden aus den 35TFlops (3090) noch 24,5 TFlops. Dazu kommen noch Schwächen, wie die nur leicht erhöhte Bandbreite. Wenn man Glück hat, kommen vielleicht noch 20TFlops an. Was dann ungefähr 20/13=1.53 also +53% wären, was dann gut mit den 4k-Ergebnissen passen würde. Da es tatsächlich rund 50% sind, kann man auch sagen, dass die Integer-Berechnungen kein limitierender Faktor sind, sondern die FP32-Einheiten, sowohl bei Turing als auch bei Ampere. Also alles in Butter, da wäre dann noch Potential für die nächste Generation um die "IPC" zu erhöhen, also sich den tatsächlichen TFlops zu nähern. Bei bestimmten Arbeiten, wird vermutlich aber die totale Leistung auch jetzt schon anliegen, was wirklich ziemlich geil für wissenschaftliche Geschichten ist. Lieber mehr TFlops haben (Vega) und selten nutzen, als alle nutzen und zu wenig haben.

Ein Wundertreiber wird es sicher nicht geben, da warten Vega Nutzer seit Jahren drauf...
 
Zuletzt bearbeitet:
Also es gibt wirklich viele Gründe sich "keine" GPU für 1500 €+ zu kaufen. Die hier genannten Punkte sind nur drei davon.^^
Die Entwicklung ist enorm unvernünftig und letztendlich wird hier seid Jahren an der Preisschraube gedreht. Midrange für 500 €+? Alles klar, da muss man sich nicht wundern, dass immer mehr auf Konsolen umsteigen. Besondere Weitsicht von Nvidia kann ich an der Stelle nicht erkennen.^^

MfG
 
Eigentlich hat man den Ursprung der ‚fehlenden Leistung‘ schnell erkannt, wenn man sich mal den Aufbau eines CUDA cores von Ampere anschaut und ihn mit Turing vergleicht. wccftech zeigt damit nur, dass sie das nicht gemacht haben um stattdessen nur schnell eine Headline raushauen, was ich jetzt doch etwas billig finde tbh. Dass PCGH das Ganze unkommentiert übernimmt, nur um eine Headline rauszuhauen, finde ich kein Stück besser.
 
Jensen hat es doch beim Release von Turing schon gesagt. Rasterization skaliert nicht mehr wirklich mit noch mehr Shader, deswegen setzen sie auch auf RayTracing. Das wird vermutlich auch der Grund sein, weshalb die Karten trotz vorhandener Komponenten nicht so performt wie erwartet.
 
bei Games gibts numal noch genug andere Faktoren als FP32 Leistung

dort wo es nur auf FP32 ankommt sind die Kisten auch locker doppelt so schnell
 
"Fehlt den Karten Leistung?"
Denke ich nicht. Aber sie laufen - für NVIDIA eher untypisch - weit oberhalb des Sweet-Spots.

Computerbase hat die 3080 bei ihrem Test auf 270 Watt festgesetzt, so wie die 2080-Ti.
Resultat: Die 3080 hat 5% Leistung verloren, aber dabei 50 Watt eingespart und war trotzdem
noch 20% schneller als eine Standard 2080-Ti.


Das wäre die primäre Kritik von mir an der Karte. Abgesehen vom etwas zu kleinen VRAM.
 
Denke ich nicht. Aber sie laufen - für NVIDIA eher untypisch - weit oberhalb des Sweet-Spots.

Computerbase hat die 3080 bei ihrem Test auf 270 Watt festgesetzt, so wie die 2080-Ti.
Resultat: Die 3080 hat 5% Leistung verloren, aber dabei 50 Watt eingespart und war trotzdem
noch 20% schneller als eine Standard 2080-Ti.


Das wäre die primäre Kritik von mir an der Karte. Abgesehen vom etwas zu kleinen VRAM.
Letztenendes fehlt den Karten aber doch an Leistung. Nvidia stand bei Turing in der Kritik nur wenig (30%) Mehrleistung im Gegensatz zu Pascal zu liefern. Mit Ampere stehen sie wieder vor dem gleichen Problem, da der GA104 wohl nicht mal den "alten" GT102 eindeutig schlagen kann. Von dem Aspekt hätte Nvidia die 3080 eher auf dem Sweetspot laufen lassen können und eher 10-20% auf die 2080Ti drauflegen, was im erwartbaren Rahmen für eine xx80 non-Ti wäre. Das konnten sie sich aber vermutlich aufgrund von BigNavi nicht erlauben. Denn eine verdoppelte 5700XT (450W) bei 50% verbesserter Effizienz (300W) kommt rein rechnerisch schon über 3090 bei der (Spiele)-Rechenleistung raus. Das ist vermutlich der Grund warum Nvidia dieses Mal bis ans Limit und sogar darüber hinaus geht, wie man anhand der Kondensator Problematik sieht.
 
Denke ich nicht. Aber sie laufen - für NVIDIA eher untypisch - weit oberhalb des Sweet-Spots.

Computerbase hat die 3080 bei ihrem Test auf 270 Watt festgesetzt, so wie die 2080-Ti.
Resultat: Die 3080 hat 5% Leistung verloren, aber dabei 50 Watt eingespart und war trotzdem
noch 20% schneller als eine Standard 2080-Ti.


Das wäre die primäre Kritik von mir an der Karte. Abgesehen vom etwas zu kleinen VRAM.

Auch, wenn es viele immer noch leugnen, aber in der Realität ist die 3080 der Nachfolger der 2080 Ti, beides beschnittene 102er Chips.
Nimmt man die absurde Leistungsaufnahme Erhöhung von Ampere raus, dann sieht es noch schlechter wie vor 2 Jahren aus, denn hier sind es nur noch 20-25%.

Beschnittener 102er zu beschnittener 102er --> 30%, wurde bei Turing durch Treiber und neue Spiele zu 40% im Laufe der Zeit, vielleicht ja auch bei Ampere

102er Vollausbau zu quasi Vollausbau (2,4% mehr Shader lohnen keine weitere GPU, war wohl eher ein Mangel an funktionsfähigen 102er Chips) --> 30%, wurde im Laufe der Zeit bei Turing zu 40%, vielleicht auch bei Ampere

Nur in Ausnahme Spielen profitieren die Karten wirklich von ihrer FP32 Rohleistung.
Ansonsten ist diese Gen genauso traurig wie Turing, nur, dass NVIDIA bei der Präsentation noch mehr gelogen hat.
Hört sich nur für einige toll an, weil man aus 80 Ti wieder die 80 gemacht hat und aus Titan die 90.
Dass NVIDIA diese Preise für eine Ti offensichtlich nicht verlangen kann hat man wohl bei Turing gesehen, so toll waren die Verkaufszahlen nicht und AMD schläft auch nicht völlig.

Jensen hat es doch beim Release von Turing schon gesagt. Rasterization skaliert nicht mehr wirklich mit noch mehr Shader, deswegen setzen sie auch auf RayTracing. Das wird vermutlich auch der Grund sein, weshalb die Karten trotz vorhandener Komponenten nicht so performt wie erwartet.

Was hat sich denn bei RT wirklich getan https://www.computerbase.de/2020-09...m-performancerating-fuer-raytracing-3840-2160 , man ist fast genau das schneller in RT wie in reiner Rasterisierung, sprich, die angebliche RT Kern Mehrleistung existiert in der Realität auch nicht.
 
Zuletzt bearbeitet:
Also es gibt wirklich viele Gründe sich "keine" GPU für 1500 €+ zu kaufen. Die hier genannten Punkte sind nur drei davon.^^
Die Entwicklung ist enorm unvernünftig und letztendlich wird hier seid Jahren an der Preisschraube gedreht. Midrange für 500 €+? Alles klar, da muss man sich nicht wundern, dass immer mehr auf Konsolen umsteigen. Besondere Weitsicht von Nvidia kann ich an der Stelle nicht erkennen.^^

MfG

Der Witz ist doch das es viele Nutzer gibt / gab die 550€ pro Jahr ausgaben um wieder ne neue Karte zu haben.
Jezt bringt NV nur noch alle 2 Jahre was neues und das kostet dann ca. 800€ (und mehr).

Das mit den Konsolen ist was dran.
Ne RTX 3080 und schneller kommt mir nicht ins Haus.
FPS sind zwar gut aber von dem Rest bin ich nicht begeistert.
Ich warte ab was AMD bringt.
Könnte sonst passieren das ich neben der PS5 noch die neue XBox kaufe.
 
Ich bin echt mal auf den Hochsommer gespannt.Mein System kann 300Watt Karten ab, das ist quasi darauf aufgebaut.Das sind aber bei leibe nicht alle Rechner in die so eine Karte jetzt gesteckt wird.

Zu dem Artikel,ich halte dass für sehr spekulativ.Die Karten nutzen das Powerlimit aus,entsprechend ist auch die Auslastung ganz ordentlich.BeimUV sieht man aber auch gut dasdie GPU in vielen Szenarien nicht voll gefordert wird und mehr Potential hätte. DerChip allgemein hat viel Ähnlichkeit zu Vega.
 
Tja, für Nvidia läuft es nicht so gut. Erstmal die uneffizienten Karten, welche sich nur deutlich absetzen, wenn die Brechstange rausgeholt wird. Dann noch das Kondensator Problem.
Ich hoffe mal das AMD einen besseren Start hinlegt.
 
Zurück