News Geforce RTX 5000 ("Blackwell"): Gerüchte zu Nvidias Next-Gen-Grafikkarten entsprechend eingeordnet

Die 4080 kann man ganz schnell an ihre Grenzen bringen. Wenn man einen 240hz Monitor bei entsprechender Auflösung füttern will zum Beispiel.
Ist nicht mal nötig.
4K/144Hz ist je nach Spiel schon zu hart selbst für ne 4090. Dafür sind nichtmal Extremszenarios wie Cyberpunk mit Pathtracing nötig. Da reicht schon Quake mit RTX. :haha:
Mit vollem Pathtracing kann man selbst Spiele die auf einer mittelgroßen Kartoffel flüssig sind (Quake halt oder auch Portal) in UHD nicht ansazuweise flüssig auf ner 4080/4090 spielen ohne "Tricks" wie DLSS. Da fässtste teilweise nativ auf unter 25 fps runter.

Also bis "man brauchts eh nicht" eintrifft wird noch viel, VIEL Zeit vergehen - zumindest wenn die Ansprüche höher sind als Standardspiele in 1440p mit 60 fps auf Hoch zu spielen. Klar, dafür sind solche Grafikkarten schon heute viel zu schnell.

Sehe ich ähnlich. In Sachen purer Rechenleistung ist die kommende 5090 sicher keine 250% vor der 4090.
Es ist wie immer. Vor Release in den Gerüchten sind die Karten drölfzighundert Prozent schneller. NVidia bringt 3x so schnelle Nachfolger und AMD den "NVidia Killer" der halt 5x so schnell oder sonstwas ist (wie war das mit den 2 GCDs mit je 144 SMs für ne 7900XTX...).
Je näher man dann ans Releasedatum kommt desto kleiner werden die Performancezahlen bis am Ende dann noch 70% erwartete Mehrleistung übrig sind von denen in den unabhängigen Tests dann noch 30-50% wenns gut läuft über bleiben und der große NVidia-Killer mal wieder nur versucht mit Stromgewalt die zweitschnellste Karte zu schlagen.

Es wäre nicht so traurig wenns nicht wirklich immer so verhersagbar wäre. Es wpürde mich wirklich ehrlich freuen wenn an irgendeiner Front mal wieder was wirklich krasses passieren würde. Irgendeine Hardwareseitige Innovation (kein Software-/KI-Zeug) die wirklich massiv Performance bringt oder wenn AMD wirklich mal nach Ewigkeiten wioeder was auflegen könnte was schneller ist als NV. Aber leider ist beides absolut nicht zu erwarten.
 
Zuletzt bearbeitet:
Vergiss es. Das wird genauso laufen wie bei allen anderen großen Lücken davor: Der Endkunde würde wenns nicht in den medien breitgetreten wird nichtmal was davon bemerken. Du glaubst nicht ernsthaft, dass Leute auf der Straße etwas von Spectre, Meltdown, irgendwelchen TLB-Buffern, Inception oder sonstwas irgendwas wüssten oder gar bemerken ob ihre PCs nach irgendwelchen Auto-Updates jetzt 1 oder 3 oder 10% langsamer sind oder nicht. Die ganze Thematik ist wichtiog für Admins und Cloudservices, für Endnutzer ist das wenn du ein halbwegs vernünftiges Backup hast für den (unwahrscheinlichen) Fall der Fälle völlig belanglos.


Davon kannste unabhängig der Branche ausgehen - nachdem wir jetzt 10-15 Jahre Preissstabilität dafür "genutzt" haben, allerorten die Verschuldung aufzublasen ohne Ende, uns in allen wesentlichen Punkten abhängig zu machen vom Ausland und diverse Gruppen etabliert haben die glauben wir paar Nasen hier müssten (könnten) klimatisch die Welt retten oder Gelder und Leistungen einfach frei verteilen und uns gegenseitig bedienstleisten ohne zu bemerken wo die tatsächliche Wertschöpfung stattfindet (oder die überhaupt zu kennen - da wir unsere Bildung seit Jahrzehnten runterwirtschaften scheint das ja unbekannt zu sein warum Deutschland so weit oben war wie es war) weil huiuiui die Welt ist schön gibt es mittelfristig wenn der Weg weiter gegangen wird nur eine mögliche Zukunft: Stark steigende Preise und stark sinkender Wohlstand. Sorry fürs OT aber da krieg ich icmmer leicht Puls^^ ;-)


Über Windows Updates ohne es zu bemerken oder zu wollen.
Na, wer hat sein Win11 mit TPM-Zwang installiert und die volle Kontrolle per AGB an MS übertragen ohne es zu merken...? ;-)
Irgendwann fährste hoch und es dauert ne Minmute länger als gewohnt, du haste ein "bitte warten firmware wird aktualisiert" auf dem Bildschirm (oder man zeigts dir gar nicht und machts in irgendnem KB98723456 heimlich) und schwupps haste das Update.
Touché, haste Recht.

Dann also einen 14900K sofort als Ersatz für meinen 12900K holen, das sollte die mangelnde Kontrolle über meine Möhre mit Kohle draufschmeissen ja kompensieren ?
 
Oh Oh, da wird dann auch der Preis 250% sein. :ka::ugly:

Die Gerüchteküche ist der strategische Arm der Marketingabteilung. Schon alleine wegen so einer Info verschiebt so manch einer seine Kaufentscheidung. Der RTX2080 oder GTX1080TI Besitzer wird sich sagen meine Karte leistet noch, ich kann warten.
 
Man hat leider auch langfristig keine Wahl mehr, denn die Konkurrenz pennt halt. Ich hab jetzt wieder bis gefühlt 2028 Ruhe - aber dann? Was soll ich machen?
Kein Problem, mach's wie ich: Fünf Jahre lang spielst du auf High End/Oberklasse-Niveau. In den folgenden drei Jahren drehst du die Regler sukzessive nach links und spielst auf Mittelklasse/Einstiegsklasse-Niveau. In den dann folgenden zwei Jahren kümmerst du dich endlich mal exklusiv um deinen gigantischen PoS, lässt Neuerscheinungen links liegen und drehst die Regler dabei sogar wieder nach rechts. Während dieser zehn Jahre legst du gelegentlich mal ein paar Euro zurück und gönnst dir schließlich eine nagelneue 80er/90er-Karte. RInse and repeat.
 
Bin auf die UVPs gespannt
5090 ab 2500€ und 5080 ab 2000€ ?
Ich könnte mir jedenfalls vorstellen, dass NVidia die Preise abermals anziehen wird.
 
In den dann folgenden zwei Jahren kümmerst du dich endlich mal exklusiv um deinen gigantischen PoS,
Das versuche ich seit 2 Jahrzehnten... :lol:

Nein im Ernst, wenn ich noch 20 wäre würde mich all das vielleicht stressen aber jetzt mit fast 40?
Homer Simpson würde sagen:
Früher hatte ich 0 Geld und 3 Zeit, heute habe ich 3 Geld und 0 Zeit.

Mir ist es (ohne wie ein Snob wirken zu wollen) heute echt furzegal ob eine Grafiklkarte 500 oder 800 oder 1200€ kostet. Ich habe kein Geldproblem (mehr), ich habe ein Zeitproblem.
Es hilft nicht wirklich weil ich im Jahr noch vielleicht 50 Stunden Spielzeit zusammenbekomme weil der rest eben Familie, Job, Haus, etc. ist.
Damals als ich jeden Tag 6h hätte zocken können weil nix zu tun außer Schule und so hatte ich halt keinen Schotter für schnelle PCs. Aber einen Unterschied gabs: Die 250 Mark die man brauchte, um siuch ne ultraschnelle GeForce256 zu kaufen konnte ich irgendwie in 2-3 Monaten zusammenkratzen mit ehrlicher Arbeit und Sparsamkeit - jemand der heute keine Ahnung 15 ist und ne 4080 für 1250€ kaufen will sieht da alt aus... so viel Rasen kannste in einem Sommer gar nicht mähen. ^^
 
Kein Problem, mach's wie ich:

Wenn auch nicht im Detail für alle gleichermaßen so gültig, so hast Du das Prinzip begriffen.

Die Software dazu, gib es dann meist ebenfalls günstiger, sollte der PoS nicht reichen oder Du etwas übersehen haben.

Mit jedem Jahr das vergeht, kommt immer mehr Software, und alles ab ca. 2012/2013, ist auch heute noch gut genießbar.

Wir leben in einem Spieleschlaraffenland das ständig wächst und gedeiht.

Zu den Performanceprognosen oder Gerüchten sag ich besser nix. Alles viel zu früh.
 
Bin gespannt wenn es denn irgendwann zur Vorstellung/Tests kommt (tippe auf Release in 2025).
Die Leistung der 4090 war und ist meiner Meinung nach beeindruckend, leider auch der Preis.
Mal sehen wie es in der nächsten Generation wird und ob es Nvidia wieder schafft meine Vernunft zu vergessen.
 
Die Leistung der 4090 war und ist meiner Meinung nach beeindruckend, leider auch der Preis.
Die 4090 war nach langer Zeit mal wieder einer echte Highend-Karte - und dabei nicht mal vollaktiviert (wenn NV gewollt hätte wäre die technische Basis noch für weitere 20% mehr gut gewesen). Aber das war nicht nötig, denn die Konkurrenz war/ist so weit abgeschlagen, dass man auch den teildeaktivierten Chip für 1500-2000 wegbekommt - und es auch keine 4090Ti oder Titan geben wird.

Blackwell wird da vermiute ich nicht allzuviel gewinnen können - die 4090 hat stark davon profitiert, dass man vom schlechteren Samsung 10nm Node auf TSMC gewechselt ist... den Vorteil hat Blackwell nicht. Und von 5 auf 3nm wirds wohl auch nicht reichen um da jetzt nochmal die Shader hart zu verdoppeln. Ein 512er SI macht ein Hersteller ja nicht freiwillig da sehr teuer - das machste dann, wenn du mit "billigen" Mitteln wie "mehr SMs" das performanceziel nicht erreichen kannst. Ich sehe da eher echte 30-40% Mehrperformance auf ne 4090 (nach Zielvorgabe "+50%") als realistisch an.
 
Bis 2028 die PS6 kommt, werden sich erstmal viele Games an der PS5 orientieren.
Da bleibt noch viiiiel Zeit, um über die nächste Hardware nachzudenken.

Obs in der Zwischenzeit Games geben wird, wo 12...16GB@4k net mehr reichen, ... may be.
 
Hauptsache es wird günstiger...
  • GB202: GDDR6X ("PAM-4") mit 512-Bit
  • GB203: GDDR6X ("PAM-4") mit 384-Bit
  • GB205: GDDR7 ("PAM-3") mit 256-Bit
  • GB206: GDDR7 ("PAM-3") mit 192-Bit
  • GB207: GDDR7 ("PAM-3") mit 128-Bit
Und das würde nur in EINER Konstellation Sinn machen, wenn GB202 und GB203 veröffentlicht werden, bevor GDDR7 reif/verfügbar ist.
 
Das ich in yt davion nix gehört habe?

zuerst gb105 ist völlig neu
Die si Anbindungen an den chips dürften halbiert sein Si skaliert nicht beim shrink
144sm also das spricht klar fürn redesign aber das wird teuer.
gb102 10gpc je 18sm (180) je 160 alu effektiv 120fp32 per sm 384bit
gb103 8gpc (144sm) 256bit
gb104 6 gpc (108sm( 192bit
gb105 4gpc (72sm) 128bit
gb106 2gpc (36sm) 96bt
gb107 1 gpc (18sm 64bit

Wenn das so kommt dürfte die idee mt 96fp32 +64 int32 gesetzt sein mit reduzierten pcie lanes
das spsart etwa 5% chipfläche dazu reduziertes si das spart je viertel weniger von aktuell 20% nur noch 15%

Annahme Letzte Gerücht
gb103 630mm²85tf 142sm bsp rtx5090
gb104 448mm² 57tf 96sm bsp rtx5080
gb105 299mm² 36tf 60sm bso rtx5070
gb106 149mm² 20,4tf 34sm bsp rtx5060
gb107 74mm² 10,8tf 18sm bsp rtx5050

Alles auf 2,5ghz mehr Takt erwarte ich nicht bei einen so densen design.
Ableitung von hopper arch und Fertigungsvorteile von n3 node.

Ob das sich noch lohnt bei amd apu mt 40cu ist fraglich womit ich nicht mit einen gb107 rechne
Die amd apu schafft mit nur 45w 17tf Sofern das mit den 3,0ghz stimmt. Und ob diese apu üebrhaupt am desktop kommt oder ein soc für sony ist unklar.
 
Ryzen9 5950X, 32 GiB DDR4-3200 Cl14, RTX4080 UV, 4K/144Hz

Aber 250% mehr Leistung ist schon eine Ansage. Vielleicht kommen die ja auch schon 2024. Vermutlich mit DLSS 4.0 und RTX4000 sind """nicht kompatibel""" mit DLSS 4.0. Denke schon dass eine RTX5090 250% schneller sein könnte mit DLSS 4 verglichen zu einer RTX4080 (ohne DLSS?) oder so. Wenn Nvidia das so weiter macht, dass die RTX5000 wieder exklusiv DLSS 4 bekommt, hat man da ein Flickenteppich. Einige Spiele werden dann nur DLSS 4 können und kein 3 mehr?
2 Dinge.
Erstens "bis zu" Angaben meinen immer: wir haben 100x was gemessen und 1x hatten wir sogar 250% erreicht. Das kann genauso heißen im Normalfall 50%.
Früher gabs Spezialfälle tatsächlich, etwa bei aktiviertem AA, da war eine Raden 9700 plötzlich bis zu 250% schneller als die beste Gerforce.

Zweitens: Was bestimmt passieren wird: Reines Rastern ist am Ende, es wird mehr und mehr richtung Raytracing gehen. Die 250% sind also durchaus drinnen: Nvidia muss nur die RT Einheiten deutlich aufbohren. Diese machen ohnehin nur einen kleinen Teil der Chipfläche aus, somit ist ein 250% Performancegewinn in manchen RT Szenarien nicht unrealistisch.
AMD verschläft diesen Trend gerade völlig (zwischen RDNA2 und 3 gab es keine Steigerung bei der RT Leistung, siehe 7900GRE vs 69xx etwa im Computerbase-Test), Nvidia wird hier mehr und mehr aufs Gas steigen. Man hat auch bei der 4090 gesehen, dass mehr Rasterleistung nix bringt (trotz 75% mehr theoretischer Performance kam nur 30-40% mehr raus in der Praxis).

Für mich wirds interessant, wenn brauchbares Raytracing in die leistbaren Klassen kommen. Dann würde ich auch Cyberpunk 2077 endlich anrühren.
250%!!!
Dann brauche ich die GPU ja in 8 Jahren nicht zu wechseln, wow.
Die 4080 ist doch heute noch nichtmal an ihre Grenzen, es sei denn in Zukunft wird Pathtracing pflicht. Kann lederjacke alles zutrauen. Nvidia hat ja soviel Macht, dass sie die Entwickler dafür bezahlen könnte zwandmässig Pathtracing zu aktivieren.
Da es die Zukunft ist - passt.
Wenn es sauber und vollständig laufen würde und die GPUs dafür leistbar sind.
Wenn alle GPUs 250% zulegen könnte ich mirs schon vorstellen.
4090+250% -WOW
...
4060 und Ti +250% bei sinnvollem Verbrauch wäre mal was, das ganze bei 300€, man wird ja noch träumen dürfen.

Würde die 5070 übrigens trotz des großen Sprungs erst auf 4090 Niveau heben... (zumindest in Ratchet and Clank) :/
 
Zuletzt bearbeitet:
jemand der heute keine Ahnung 15 ist und ne 4080 für 1250€ kaufen will sieht da alt aus... so viel Rasen kannste in einem Sommer gar nicht mähen. ^^
Die 15 jährigen von heute spielen sowieso vorwiegend auf Konsole oder Mobile... Und bekommen zu Weihnachten eine Playstation oder XBOX.
Wenn aber die "bereinigten" Performancesprünge bei Release in etwa der Steigerung 3090 -> 4090 gleichkommen, prima. Wir werden sehen, was von der jetzigen Angabe später noch übrig bleibt.
Ach, wie die Gerüchte von der 4090 herumgeisterten - glaubten die nörgelnden Leak-Pessimisten auch an keine Vorsprung der größer als 20 - 30 % wäre. Und dass ein großer Vorsprung der 4090 sowieso niemals eintreffen würde.
 
250% auf was? Mit DLSS4 im vergleich? Klingt wirklich gut aber meiner Meinung nach zu krass um wirklich wahr zu sein.
Wenn man AMDs Ankündigung für FSR3 nimmt das es bis zu 4 extra FPS ausspuckt können auch die 250% Mehrleistung der 5000er Serie locker erreicht werden.
Einfach mit Frame Generation 2.0 ein paar extra FPS und schon hat man die 250%.
Irgendwelche Tricks wird man schon finden das man auf einer Folie X fache Leistung zeigen kann.
 
Naja, es wird halt das übliche "hochlabeln" weiter durchgezogen. Wer braucht ne xx4er GPU als xx80 (was früher die xx60 war...) wenn man das billiger mit ner kleineren xx5er GFPU machen kann?

Naja, aber die Leistungssteigerung ist doch trotzdem enorm von 3090 zu 4090 gewesen und wenn es wieder 50%+ bei der 5090 werden wird, ebenfalls. 150% wäre nicht normal und würde ich auch bezweifeln.

Wie die Karten heißen oder was dahinter steckt ist doch völlig egal? Eine 3nm Karte hat eben deutlich weniger Fläche als eine 10nm Karte. Trotzdem ist die kleinere Fläche mit 3nm teurer für Nvidia. Am Ende zählt der Preis und die Leistung und Nvidia hat da mit der 4090 geliefert und die 4080 ist gegenüber der 3080 auch ein Sprung. Sowohl bei Leistung als auch mit 60% mehr RAM.
 
auch früher hatte man eher ne Konsole bekommen als nen PC
PC gab es erst zur Studienzeit bzw Ausbildung und das waren die ausnahmen und mit früher meine ich die Millennials (schulalter 16-20 von 2000-2010)
Davor zu meiner zeit 90tis gab es nicht mal Konsole das maxed warn gameboy
 
In einem Jahr kann man, vielleicht, darüber nachdenken sich Gerüchte anzuschauen, jetzt ist es noch viel zu früh.
 
Zurück