News Geforce RTX 5000 ("Blackwell"): Gerüchte zu Nvidias Next-Gen-Grafikkarten entsprechend eingeordnet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 5000 ("Blackwell"): Gerüchte zu Nvidias Next-Gen-Grafikkarten entsprechend eingeordnet

Seit Wochen halten sich die Gerüchte über Nvidias Next-Gen-Grafikkarten der Serie Geforce RTX 5000 ("Blackwell") in den Schlagzeilen. PCGH versucht diese anhand der aktuellen Faktenlage entsprechend seriös einzuordnen. Dank einer Fertigung in 3 Nanometern und GDDR7 soll eine Geforce RTX 4090 angeblich um bis zu 250 Prozent übertroffen werden. Als Grafikprozessoren sollen der GB202, GB203, GB205, GB206 und GB207, voraussichtlich jedoch keine GB204-GPU, zum Einsatz kommen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 5000 ("Blackwell"): Gerüchte zu Nvidias Next-Gen-Grafikkarten entsprechend eingeordnet
 
Naja, es wird halt das übliche "hochlabeln" weiter durchgezogen. Wer braucht ne xx4er GPU als xx80 (was früher die xx60 war...) wenn man das billiger mit ner kleineren xx5er GFPU machen kann?

Ich habs schonmal runtergebrochen - man vergleiche mit vor 10 Jahren:
GTX590 --> zwei Vollaktive High-End Chips (!!!), das wäre heute eine imaginäre "RTX Titan Ada Dual" oder so
GTX580 --> vollaktiver Highend-Chip, heute wenn überhaupt vollaktiv geplant eine 4090Ti. DIe kostete übrigens 480€.
GTX570 --> teildeaktiver Highend-Chip, also das, was heute die 4090 ist. Damals 350€.
GTX560Ti --> vollaktiver Oberklasse-Chip, wäre heute eine 4080Ti. Damals 220€.
GTX560 --> teildeaktiver Oberklasse-Chip, wäre heute eine 4080. Damals 165€.

Wir sind heute schon soweit, dass man das, was technisch eine 70er Karte ist als 90er verkauft.

Also eine Runde weiter auf Blackwell/RTX5000:
5090: Teildeaktiver GB202. Früher die xx70er Klasse wenn nicht xx60Ti für 350€, 2025 Flaggschiff für ~2000€.
5080: Irgendein 205er Chip der niedriger als die xx4er läuft also das, was früher die x50er Karte im 150€-Bereich war, als Oberklassemodell für ~1200€.
5070: Wie 5080 nur mehr deaktivierte Einheiten für 800?
5060 und darunter: GB107er Chips was früher Low-end im 100€-Segment war für 300-600€ je Modell.

Und das eigentlich schlimme daran ist: Es wird nicht nur so kommen sondern es wird funktionieren und die Leute werden es kaufen. Denn die allermeisten Leute haben von der zugrundeliegenden technik Null ahnung und kaufen nach Namen. Und AMD? Keine Gegenwehr zu erwarten. Die 7000er können schon nicht wirklich mithalten und Navi4x ist gerüchteweise ja grade gestrichen worden weil sies nicht hinbekommen haben (ich vermute also einen neuen Navi3x-Aufguss der prinzipbedingt gegen Blackwell keine Chance haben wird, er hat sie gegen Lovelace schon nur mit viel gutem Willen).
 
Und das eigentlich schlimme daran ist: Es wird nicht nur so kommen sondern es wird funktionieren und die Leute werden es kaufen.
Ryzen9 5950X, 32 GiB DDR4-3200 Cl14, RTX4080 UV, 4K/144Hz

Aber 250% mehr Leistung ist schon eine Ansage. Vielleicht kommen die ja auch schon 2024. Vermutlich mit DLSS 4.0 und RTX4000 sind """nicht kompatibel""" mit DLSS 4.0. Denke schon dass eine RTX5090 250% schneller sein könnte mit DLSS 4 verglichen zu einer RTX4080 (ohne DLSS?) oder so. Wenn Nvidia das so weiter macht, dass die RTX5000 wieder exklusiv DLSS 4 bekommt, hat man da ein Flickenteppich. Einige Spiele werden dann nur DLSS 4 können und kein 3 mehr?
 
Zuletzt bearbeitet:
Die Steigerungswerte werden sich letztendlich nicht nur auf reine Rasterisierung beziehen. Frame Generation, DLSS & Co. mit entsprechend hohem FPS-Zuwachs liegen im Trend und werden der klassischen Pixelberechnung alsbald den Rang ablaufen. Daher werden diese Werte in kommenden Leistungsangaben bis zum Release sicherlich mit einberechnet. Wenn aber die "bereinigten" Performancesprünge bei Release in etwa der Steigerung 3090 -> 4090 gleichkommen, prima. Wir werden sehen, was von der jetzigen Angabe später noch übrig bleibt.
 
Zuletzt bearbeitet:
Ryzen9 5950X, 32 GiB DDR4-3200 Cl14, RTX4080 UV, 4K/144Hz
Tja - ich habe lange gewartet mit meiner 2080er. AMD hats genauso verkackt wie NV mit RX6000er und RTX3000er. Hab ich bedeies nicht genommen weil beide für mich einfach (zu) schlecht waren.
Die 7000er sind wieder essig für mich (100W im Idle... is klar) und die 4000er hätte ich auch nicht gekauft wenn ich die RTX4080 nicht letztes Jahr praktisch neu für 1000€ bekommen hätte.

Man hat leider auch langfristig keine Wahl mehr, denn die Konkurrenz pennt halt. Ich hab jetzt wieder bis gefühlt 2028 Ruhe - aber dann? Was soll ich machen? Es gibt wenn kein Wunder passiert dann noch immer nur den einen Anbieter der alles kann, wenig Probleme hat und nicht die Basics in den Sand setzt. Wenn der dann für ne RTX7080 oder 7090 2000€ haben will... [sofern mein Leben weiterläuft wie geplant] kriegt er sie mangels Alternativen von mir. :ka:
 
bis gefühlt 2028 Ruhe
Nicht wenn Inception zuschlägt, wir wissen noch nicht wie stark Inception die Performance drosseln wird bei Gaming. Ich ahne schlimmes.

Ich würde es begrüßen, wenn AMD ihre GPU Sparte verkaufen würde an zB MS. Dann könnte MS da ordentlich Knoff Hoff rein stecken, haben ja auch ein interesse drann, um die Xbox Performance deutlich zu puschen.

Die Hochnäsigkeit von Nvidia wird leider so weiter gehn. mal sehn, ob eine RTX5080 auch nur 16GB VRAM haben wird. Vermutlich dann für 1600 Euro Startpreis.
 
Das ist wie immer alles Glaskugelvorherseherrei....! Sicher ist das die Karten noch mehr Strom verbrauchen werden, ob im IDE oder Gaming überall wirds hoch gehen und das weil auf billigste Bauteile zurückgegriffen wird um maximale Gewinne einzufahren das is traurig aber wahr. Nachhaltigkeit und effizients, haltbarkeit lassen Gewinne schrumpfen und Bauteile werden teuerer auch wenn es bei Massenproduktionen nur cent beträge sind.
 
Nicht wenn Inception zuschlägt, wir wissen noch nicht wie stark Inception die Performance drosseln wird bei Gaming. Ich ahne schlimmes.
Verstehe ich auf zwei Ebenen nicht:

Wie würde Inception bzw. dessen Behebung die GPU Leistung tangieren?

Und warum sollte man sich für seine Gaming Kiste überhaupt ein leistungssenkendes BIOS holen? Ist mir doch absolut scheissegal welchen Schadcode meine Gaming-Möhre ausführt.
 
Nicht wenn Inception zuschlägt, wir wissen noch nicht wie stark Inception die Performance drosseln wird bei Gaming. Ich ahne schlimmes.

Ich würde es begrüßen, wenn AMD ihre GPU Sparte verkaufen würde an zB MS. Dann könnte MS da ordentlich Knoff Hoff rein stecken, haben ja auch ein interesse drann, um die Xbox Performance deutlich zu puschen.

Die Hochnäsigkeit von Nvidia wird leider so weiter gehn. mal sehn, ob eine RTX5080 auch nur 16GB VRAM haben wird. Vermutlich dann für 1600 Euro Startpreis.
???

Welches Know How? MS hat von Hardware nicht wirklich viel Ahnung. Die Hardware ist neben der Software halt auch ein Grund, warum die Xbox so unbeliebt ist. In der stecken übrigens AMD-Chips.
 
250% auf was? Mit DLSS4 im vergleich? Klingt wirklich gut aber meiner Meinung nach zu krass um wirklich wahr zu sein.
 
Nicht wenn Inception zuschlägt, wir wissen noch nicht wie stark Inception die Performance drosseln wird bei Gaming. Ich ahne schlimmes.
Vergiss es. Das wird genauso laufen wie bei allen anderen großen Lücken davor: Der Endkunde würde wenns nicht in den medien breitgetreten wird nichtmal was davon bemerken. Du glaubst nicht ernsthaft, dass Leute auf der Straße etwas von Spectre, Meltdown, irgendwelchen TLB-Buffern, Inception oder sonstwas irgendwas wüssten oder gar bemerken ob ihre PCs nach irgendwelchen Auto-Updates jetzt 1 oder 3 oder 10% langsamer sind oder nicht. Die ganze Thematik ist wichtiog für Admins und Cloudservices, für Endnutzer ist das wenn du ein halbwegs vernünftiges Backup hast für den (unwahrscheinlichen) Fall der Fälle völlig belanglos.

ich erwarte aufjedenfall noch höhere Preise :-|
Davon kannste unabhängig der Branche ausgehen - nachdem wir jetzt 10-15 Jahre Preissstabilität dafür "genutzt" haben, allerorten die Verschuldung aufzublasen ohne Ende, uns in allen wesentlichen Punkten abhängig zu machen vom Ausland und diverse Gruppen etabliert haben die glauben wir paar Nasen hier müssten (könnten) klimatisch die Welt retten oder Gelder und Leistungen einfach frei verteilen und uns gegenseitig bedienstleisten ohne zu bemerken wo die tatsächliche Wertschöpfung stattfindet (oder die überhaupt zu kennen - da wir unsere Bildung seit Jahrzehnten runterwirtschaften scheint das ja unbekannt zu sein warum Deutschland so weit oben war wie es war) weil huiuiui die Welt ist schön gibt es mittelfristig wenn der Weg weiter gegangen wird nur eine mögliche Zukunft: Stark steigende Preise und stark sinkender Wohlstand. Sorry fürs OT aber da krieg ich icmmer leicht Puls^^ ;-)

Und warum sollte man sich für seine Gaming Kiste überhaupt ein leistungssenkendes BIOS holen?
Über Windows Updates ohne es zu bemerken oder zu wollen.
Na, wer hat sein Win11 mit TPM-Zwang installiert und die volle Kontrolle per AGB an MS übertragen ohne es zu merken...? ;-)
Irgendwann fährste hoch und es dauert ne Minmute länger als gewohnt, du haste ein "bitte warten firmware wird aktualisiert" auf dem Bildschirm (oder man zeigts dir gar nicht und machts in irgendnem KB98723456 heimlich) und schwupps haste das Update.
 
OMG 250% schneller als eine RTX 4090? :devil:

Bin mal gespannt wie die Leistung pro Watt so ausfällt.
 
250%!!!
Dann brauche ich die GPU ja in 8 Jahren nicht zu wechseln, wow.
Die 4080 ist doch heute noch nichtmal an ihre Grenzen, es sei denn in Zukunft wird Pathtracing pflicht. Kann lederjacke alles zutrauen. Nvidia hat ja soviel Macht, dass sie die Entwickler dafür bezahlen könnte zwandmässig Pathtracing zu aktivieren.
 
250% auf was? Mit DLSS4 im vergleich? Klingt wirklich gut aber meiner Meinung nach zu krass um wirklich wahr zu sein.
Sehe ich ähnlich. In Sachen purer Rechenleistung ist die kommende 5090 sicher keine 250% vor der 4090. Und selbst mit Nvidias Schummel... ähem DLSS/FG sehe ich diese Prozentwerte eher kritisch.

Gruß
 
Zuletzt bearbeitet:
Zurück