• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?

Wccftech wundert sich in einem längeren Test, dass die neuen Grafikkarten Geforce RTX 3080 und RTX 3090 zwar sehr schnell, aber nicht so schnell sind, wie es die technischen Daten und die Verdopplung der TFLOPS eigentlich erwarten lassen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 3080/3090: Fehlt den Grafikkarten Leistung?
 

Olstyle

Moderator
Teammitglied
Oder es kommen Integer-Berechnungen zum Einsatz bei denen Turing quasi genau so viele ALUs einsetzen kann wie Ampere ;) .
Irgendwie beleidigt ihr mit diesem Spekulatius eure eigenen Experten.
Edit: In der erweiterten Form geht der Artikel nun natürlich vollkommen in Ordnung. :daumen:
 
Zuletzt bearbeitet:

Zwock7420

Komplett-PC-Aufrüster(in)
Wenn es wirklich so sein sollte, dass nV per Treiber oder BIOS-Update noch eine ganze Menge an Leistung so zu sagen "Freischalten" kann, dann würde das auch erklären, warum AMD sich bisher absolut bedeckt hält und von Hype keine Spur ist, obwohl die zu erwartende Leistung zumindest nicht weit weg von der 3080 (aktuell) sein sollte.
 

Quake2008

BIOS-Overclocker(in)
Ist das nicht offensichtlich. Die Karten können in Spielen nicht nur 128* Int Berechnungen fahren, sondern 64 Int + 64 float wie es die Turing macht, dadurch reduziert sich die ShaderTflops die Nvidia angibt. Das heißt nur im ideal Fall haben wir tatsächlich eine Verdoppelung der Leistung.

Ich warte auf die erste Klage wegen Täuschung. AMD hatte mit den FX doch ähnliches gemacht, ein Kern musste sich doch die int Einheit teilen , somit lag viel Leistung bach und die 8 Kerne waren am Ende 8 Threads.

Jetzt ist AMD gefragt, den AMD geht den klassischen Weg, brezelt aber die Shader auf bis zu 5120 Shader auf. Mit hohen Takt könnte es interessant werden.
 

Takuyaki

Komplett-PC-Käufer(in)
Ich kenne mich in der Spiele-Entwicklung nun nicht sonderlich gut aus, aber ich meine mittlerweile schon des Öfteren gelesen zu haben, dass Spiele einfach nicht nur ausschließlich auf diese FP32-Berechnungen setzen. Deswegen ging ich bisher davon aus, dass das der Grund dafür ist, dass die 3080 beispielsweise in dem Szenario Games "nur" 25-30% schneller als die 2080 Ti ist (was ich im Übrigen aber trotzdem ganz ordentlich finde, wenn man den Preis der beiden betrachtet).
Dass Nvidia die Karte per Treiber hart zurück hält und dann bei Launch der Big Navi auf einmal die Pforte für noch mehr Leistung aufreißt, kann ich mir nicht so ganz vorstellen.
 

RtZk

Lötkolbengott/-göttin
Es ist wohl eher so, dass doch eben auch einiges an Int32 zum Einsatz kommt und nicht wie am Anfang von euch und vielen anderen verkündet FP32, dann sähen die Worst Case Spiele wie Doom aus und die beste Case Spiele hätten bereits bei 2080 Ti zu 3080 die doppelten FPS.
 

KaneTM

Software-Overclocker(in)
Oder es kommen Integer-Berechnungen zum Einsatz bei denen Turing quasi genau so viele ALUs einsetzen kann wie Ampere ;) .
Irgendwie beleidigt ihr mit diesem Spekulatius eure eigenen Experten.

This.

Irgendwie wirkt der ganze Artikel sehr... unbeholfen. Aber das ist ja nur eine News über eine News.

@PCGH zu so einem Artikel währe schon mal ein Kommentar von euch ganz hilfreich, damit die Leser den Inhalt richtig einordnen.
 

DasUnding

Komplett-PC-Aufrüster(in)
Ich muss mich zitieren:

Die TFLOPs würden nur linear skalieren, wenn alle Berechnungen tatsächlich FP32 wären, was in der Regel nicht der Fall ist, weil ja scheinbar im Mittel über viele Spiele 30% Integer-Berechnungen sind. Turing (2080 Ti) hat 13TFlops (FP32) und X-TIops. Ampere hat wieder die "Pascal-Shader" die beides können, und dann reine FP32 Einheiten und kommt somit auf diese 35TFLops. Wenn nur 30% Integer-Berechnungen sind, werden aus den 35TFlops (3090) noch 24,5 TFlops. Dazu kommen noch Schwächen, wie die nur leicht erhöhte Bandbreite. Wenn man Glück hat, kommen vielleicht noch 20TFlops an. Was dann ungefähr 20/13=1.53 also +53% wären, was dann gut mit den 4k-Ergebnissen passen würde. Da es tatsächlich rund 50% sind, kann man auch sagen, dass die Integer-Berechnungen kein limitierender Faktor sind, sondern die FP32-Einheiten, sowohl bei Turing als auch bei Ampere. Also alles in Butter, da wäre dann noch Potential für die nächste Generation um die "IPC" zu erhöhen, also sich den tatsächlichen TFlops zu nähern. Bei bestimmten Arbeiten, wird vermutlich aber die totale Leistung auch jetzt schon anliegen, was wirklich ziemlich geil für wissenschaftliche Geschichten ist. Lieber mehr TFlops haben (Vega) und selten nutzen, als alle nutzen und zu wenig haben.

Ein Wundertreiber wird es sicher nicht geben, da warten Vega Nutzer seit Jahren drauf...
 
Zuletzt bearbeitet:

DaStash

PCGH-Community-Veteran(in)
Also es gibt wirklich viele Gründe sich "keine" GPU für 1500 €+ zu kaufen. Die hier genannten Punkte sind nur drei davon.^^
Die Entwicklung ist enorm unvernünftig und letztendlich wird hier seid Jahren an der Preisschraube gedreht. Midrange für 500 €+? Alles klar, da muss man sich nicht wundern, dass immer mehr auf Konsolen umsteigen. Besondere Weitsicht von Nvidia kann ich an der Stelle nicht erkennen.^^

MfG
 

cPT_cAPSLOCK

BIOS-Overclocker(in)
Eigentlich hat man den Ursprung der ‚fehlenden Leistung‘ schnell erkannt, wenn man sich mal den Aufbau eines CUDA cores von Ampere anschaut und ihn mit Turing vergleicht. wccftech zeigt damit nur, dass sie das nicht gemacht haben um stattdessen nur schnell eine Headline raushauen, was ich jetzt doch etwas billig finde tbh. Dass PCGH das Ganze unkommentiert übernimmt, nur um eine Headline rauszuhauen, finde ich kein Stück besser.
 

owned139

Software-Overclocker(in)
Jensen hat es doch beim Release von Turing schon gesagt. Rasterization skaliert nicht mehr wirklich mit noch mehr Shader, deswegen setzen sie auch auf RayTracing. Das wird vermutlich auch der Grund sein, weshalb die Karten trotz vorhandener Komponenten nicht so performt wie erwartet.
 

RawMangoJuli

Volt-Modder(in)
bei Games gibts numal noch genug andere Faktoren als FP32 Leistung

dort wo es nur auf FP32 ankommt sind die Kisten auch locker doppelt so schnell
 

SlaveToTheRave

Freizeitschrauber(in)
"Fehlt den Karten Leistung?"
Denke ich nicht. Aber sie laufen - für NVIDIA eher untypisch - weit oberhalb des Sweet-Spots.

Computerbase hat die 3080 bei ihrem Test auf 270 Watt festgesetzt, so wie die 2080-Ti.
Resultat: Die 3080 hat 5% Leistung verloren, aber dabei 50 Watt eingespart und war trotzdem
noch 20% schneller als eine Standard 2080-Ti.


Das wäre die primäre Kritik von mir an der Karte. Abgesehen vom etwas zu kleinen VRAM.
 

Birdy84

Volt-Modder(in)
Denke ich nicht. Aber sie laufen - für NVIDIA eher untypisch - weit oberhalb des Sweet-Spots.

Computerbase hat die 3080 bei ihrem Test auf 270 Watt festgesetzt, so wie die 2080-Ti.
Resultat: Die 3080 hat 5% Leistung verloren, aber dabei 50 Watt eingespart und war trotzdem
noch 20% schneller als eine Standard 2080-Ti.


Das wäre die primäre Kritik von mir an der Karte. Abgesehen vom etwas zu kleinen VRAM.
Letztenendes fehlt den Karten aber doch an Leistung. Nvidia stand bei Turing in der Kritik nur wenig (30%) Mehrleistung im Gegensatz zu Pascal zu liefern. Mit Ampere stehen sie wieder vor dem gleichen Problem, da der GA104 wohl nicht mal den "alten" GT102 eindeutig schlagen kann. Von dem Aspekt hätte Nvidia die 3080 eher auf dem Sweetspot laufen lassen können und eher 10-20% auf die 2080Ti drauflegen, was im erwartbaren Rahmen für eine xx80 non-Ti wäre. Das konnten sie sich aber vermutlich aufgrund von BigNavi nicht erlauben. Denn eine verdoppelte 5700XT (450W) bei 50% verbesserter Effizienz (300W) kommt rein rechnerisch schon über 3090 bei der (Spiele)-Rechenleistung raus. Das ist vermutlich der Grund warum Nvidia dieses Mal bis ans Limit und sogar darüber hinaus geht, wie man anhand der Kondensator Problematik sieht.
 

robbe

BIOS-Overclocker(in)
Was den Karten am meisten fehlt, ist eine Lieferbarkeit. Direkt beim (angeblichen) Launch ne TUF bei Cyberport bestellt, nach 4 Tagen ne Mail mit Lieferdatum 09.10. bekommen, heute wieder ne Mail bekommen mit Lieferdatum unbestimmt. Glaub ich werd das Ding stornieren und erstmal warten was AMD zu bieten hat.
 

RtZk

Lötkolbengott/-göttin
Denke ich nicht. Aber sie laufen - für NVIDIA eher untypisch - weit oberhalb des Sweet-Spots.

Computerbase hat die 3080 bei ihrem Test auf 270 Watt festgesetzt, so wie die 2080-Ti.
Resultat: Die 3080 hat 5% Leistung verloren, aber dabei 50 Watt eingespart und war trotzdem
noch 20% schneller als eine Standard 2080-Ti.


Das wäre die primäre Kritik von mir an der Karte. Abgesehen vom etwas zu kleinen VRAM.

Auch, wenn es viele immer noch leugnen, aber in der Realität ist die 3080 der Nachfolger der 2080 Ti, beides beschnittene 102er Chips.
Nimmt man die absurde Leistungsaufnahme Erhöhung von Ampere raus, dann sieht es noch schlechter wie vor 2 Jahren aus, denn hier sind es nur noch 20-25%.

Beschnittener 102er zu beschnittener 102er --> 30%, wurde bei Turing durch Treiber und neue Spiele zu 40% im Laufe der Zeit, vielleicht ja auch bei Ampere

102er Vollausbau zu quasi Vollausbau (2,4% mehr Shader lohnen keine weitere GPU, war wohl eher ein Mangel an funktionsfähigen 102er Chips) --> 30%, wurde im Laufe der Zeit bei Turing zu 40%, vielleicht auch bei Ampere

Nur in Ausnahme Spielen profitieren die Karten wirklich von ihrer FP32 Rohleistung.
Ansonsten ist diese Gen genauso traurig wie Turing, nur, dass NVIDIA bei der Präsentation noch mehr gelogen hat.
Hört sich nur für einige toll an, weil man aus 80 Ti wieder die 80 gemacht hat und aus Titan die 90.
Dass NVIDIA diese Preise für eine Ti offensichtlich nicht verlangen kann hat man wohl bei Turing gesehen, so toll waren die Verkaufszahlen nicht und AMD schläft auch nicht völlig.

Jensen hat es doch beim Release von Turing schon gesagt. Rasterization skaliert nicht mehr wirklich mit noch mehr Shader, deswegen setzen sie auch auf RayTracing. Das wird vermutlich auch der Grund sein, weshalb die Karten trotz vorhandener Komponenten nicht so performt wie erwartet.

Was hat sich denn bei RT wirklich getan https://www.computerbase.de/2020-09...m-performancerating-fuer-raytracing-3840-2160 , man ist fast genau das schneller in RT wie in reiner Rasterisierung, sprich, die angebliche RT Kern Mehrleistung existiert in der Realität auch nicht.
 
Zuletzt bearbeitet:

Kondar

BIOS-Overclocker(in)
Also es gibt wirklich viele Gründe sich "keine" GPU für 1500 €+ zu kaufen. Die hier genannten Punkte sind nur drei davon.^^
Die Entwicklung ist enorm unvernünftig und letztendlich wird hier seid Jahren an der Preisschraube gedreht. Midrange für 500 €+? Alles klar, da muss man sich nicht wundern, dass immer mehr auf Konsolen umsteigen. Besondere Weitsicht von Nvidia kann ich an der Stelle nicht erkennen.^^

MfG

Der Witz ist doch das es viele Nutzer gibt / gab die 550€ pro Jahr ausgaben um wieder ne neue Karte zu haben.
Jezt bringt NV nur noch alle 2 Jahre was neues und das kostet dann ca. 800€ (und mehr).

Das mit den Konsolen ist was dran.
Ne RTX 3080 und schneller kommt mir nicht ins Haus.
FPS sind zwar gut aber von dem Rest bin ich nicht begeistert.
Ich warte ab was AMD bringt.
Könnte sonst passieren das ich neben der PS5 noch die neue XBox kaufe.
 

Gurdi

Kokü-Junkie (m/w)
Ich bin echt mal auf den Hochsommer gespannt.Mein System kann 300Watt Karten ab, das ist quasi darauf aufgebaut.Das sind aber bei leibe nicht alle Rechner in die so eine Karte jetzt gesteckt wird.

Zu dem Artikel,ich halte dass für sehr spekulativ.Die Karten nutzen das Powerlimit aus,entsprechend ist auch die Auslastung ganz ordentlich.BeimUV sieht man aber auch gut dasdie GPU in vielen Szenarien nicht voll gefordert wird und mehr Potential hätte. DerChip allgemein hat viel Ähnlichkeit zu Vega.
 

RyzA

PCGH-Community-Veteran(in)
Tja, für Nvidia läuft es nicht so gut. Erstmal die uneffizienten Karten, welche sich nur deutlich absetzen, wenn die Brechstange rausgeholt wird. Dann noch das Kondensator Problem.
Ich hoffe mal das AMD einen besseren Start hinlegt.
 

JohnDonSinclair

Kabelverknoter(in)
Unabhängig davon, ob man jetzt den Artikel als "gut" oder "schlecht" bewertet, finde ich den grundsätzlichen Gedanken interessant. Irgendeinen Grund muss es ja haben, dass die "Rohleistung" der Hardware durch die vorhandene Software nicht ausgeschöpft wird. Ich kann mir gut vorstellen, dass wir in Zukunft noch einiges an zusätzlicher Leistung von Ampere erwarten dürfen, durch Treiber- und Spieleengineoptimierungen.
 

Bevier

Volt-Modder(in)
Das Problem ist und bleibt halt, dass nV hier die Leistung anders berechnet. Effektiv wird die Zahl der Shader "verdoppelt", wenn INT-Berechnungen anstehen, sonst leider nicht und in 95% aller Spiele werden nicht nur INT-, sondern auch Standardberechnungen durchgeführt. Daher ist die Angabe schon fast als Lüge anzusehen. Ampere hat eben nur halb so viele Shader, wie sie offiziell angeben...
Und trotzdem sind die GPUs verdammt stark und deutlich leistungsfähiger, als es die eher enttäuschenden Turings waren.
 

owned139

Software-Overclocker(in)

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Das einzige was der RTX 3080 fehlt, ist eine zur Leistung passende Speicherbestückung, was auch für die 3070 gilt.

Och, das geht schon. Wir brauchen nur eine neue Spiele-Generation, die statt Texturen alles über die ALUs macht. Struktur und Farben? Wird alles zur Laufzeit generiert, die Rechenleistung ist ja da.

MfG
Raff
 

paladin60

Freizeitschrauber(in)
Jetzt dürfen auch die NV Besitzer auf einen Wundertreiber oder richtig programmierte Spiele hoffen, dann mal fröhliches Warten.
Das läuft wohl auch auf 2-3 Spiele pro Jahr hinaus in denen die Karten mal zeigen können was möglich ist wenn sie die Leistung auch auf die Straße bringen.
 

RavionHD

PCGH-Community-Veteran(in)
Alles klar, da muss man sich nicht wundern, dass immer mehr auf Konsolen umsteigen. Besondere Weitsicht von Nvidia kann ich an der Stelle nicht erkennen.^^
Wo soll so eine Entwicklung stattfinden? Die Nachfrage an PC Gaming Hardware, egal welchen Preispunkt, ist so hoch wie noch nie, und PC Spieler gibt es aktuell so viele wie noch nie.
 

Crackpipeboy

Freizeitschrauber(in)
Das einzige was der RTX 3080 fehlt, ist eine zur Leistung passende Speicherbestückung, was auch für die 3070 gilt.

Sie hat doch aber 2GB mehr als die 2080 bzw. Super.

Die Karte ist gut, aber ich muss auch sagen das die FPS-Dropps schon teilweise sehr stark auffallen und ich mir von z.B. Red Dead Redemption mehr erwartet hätte. Auch bei BFV ist das so. Aber Spiele die auch echt gut optimiert sind und mit den Ressourcen gut umgehen (Metro Exodus) da ist die Leistung schlicht beeindruckend.
 

DaCrazyP

Komplett-PC-Käufer(in)
Also es gibt wirklich viele Gründe sich "keine" GPU für 1500 €+ zu kaufen. Die hier genannten Punkte sind nur drei davon.^^
Die Entwicklung ist enorm unvernünftig und letztendlich wird hier seid Jahren an der Preisschraube gedreht. Midrange für 500 €+? Alles klar, da muss man sich nicht wundern, dass immer mehr auf Konsolen umsteigen. Besondere Weitsicht von Nvidia kann ich an der Stelle nicht erkennen.^^

MfG
Da gebe ich dir vollkommen Recht! Midrange ist für mich 200-400€, das ist nicht günstig, aber auch noch vertretbar. Welche, die nicht so in dem Thema PC sind, greifen sich bei den Preisen eh nur an den Kopf, aber das ist glaube ich bei vielen Hobbies so. Man muss allerdings auch alle Zielgruppen im Auge haben. Kinder und Jugendliche sind sicher nicht in der Lage sich ständig neue Hardware zuzulegen, welche ja nun mal leider doch schnell wieder veraltet oder zumindest nicht mehr hip ist. Bei z.B. einer PS4, welche Ende 2013 auf den Markt kam, hat man potenziell länger Ruhe und das zu einem Preis, zu dem man keinen ordentlichen Gaming-PC bekommen kann.
 

User-22949

PC-Selbstbauer(in)
Ist im Treiber vielleicht auch noch etwas Luft, um eventuell gegen die kommenden Navi`s besser zu kontern ?
Vielleicht waren die Karten zum Release einfach nur so schnell wie sie zu sein brauchten.
 

Birdy84

Volt-Modder(in)
Wir haben die News mal etwas umformuliert - danke für euer Feedback, keiner ist hier unfehlbar.
Wenn du schon dabei bist, kannst du gleich mit dem Satz weitermachen.
Ein 1:1-Vergleich mit Turing ist ohnehin nicht möglich, da dieser zwar nicht über doppelt vorhandene FP32-ALUs pro Shader-Multiprozessor verfügt, jedoch über INT32-Einheiten, welche die Leistung in Spielen erhöhen und somit die Rechnung verwässern.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Sagt der, für den außer eine RTX 3090 aktuell keine Grafikkarte in Frage kommt ;-)

Ich mag Theorie und Software-Innovationen. Worte und Gedanken sind jedoch viel schneller als die Umsetzung -> in der Praxis wird es immer Spiele geben, die einfach Hardware-Kapazität anstatt "Aber, aber ..." brauchen.

Wenn du schon dabei bist, kannst du gleich mit dem Satz weitermachen.

Was stimmt denn nicht mit dem Satz?

MfG
Raff
 

Ghostshield

PC-Selbstbauer(in)
Im Prinzip hat Nvidia mit der Ampere Architektur ein auf Bulldozer gemacht.

Einfach die FP32 Einheit verdoppeln/FP64 gesplittet und behaupten dass es aufeinmal 10496 Shader sind.
Aber in Wirklichkeit sind es nur 5248.

Ich glaube nicht das nVidia zwei verschiedene Ampere architekturen entwickelt hat, weil im Vollausbau hat die 8192 Shader.
 

Niknukem

Kabelverknoter(in)
Was soll man dazu sagen. Es ist einer Chip mit neuer Architektur, da wird es etwas Dauer bis das Potential in Treiber und Software ankommt und ausgenutzt wird. Allerdings hoffe ich, dass es auch so passiert und nicht auf Basis der AMD Konsolen Architektur programmiert wird und beim PC die Optimierung ausbleibt.
 
Oben Unten