News Nvidia Blackwell soll angeblich in 3 nm 2024 kommen [Bericht]

Super so wie ich gedacht hatte


Freu mich schon auch bei der RTX 5090 direkt zum Release zu zugreifen, danach hat man eben erstmal 2 -2,5 Jahre Ruhe bei GPU-Kauf.
 
AMD hat die letzten Jahre immer nur verzweifelt versucht ihren rückstand aufzuholen.. wärend Nvidia nebenbei noch so Spielereien wie Deep Learning und raytracing in ihre Architektur gegossen haben.
AMD müsste mit ihrer nächsten Generation also erstmal 40% mehr Leistung generieren um überhaupt die größte theoretische RTX4000 zu schlagen.
Laut TPU Review sind es - je nach Auflösung - zwischen 10 und 22% plus bei der 4090.
 
nice, dann muss ich kurz vorher meine 4090 für 1500eu verkaufen.



RTX 5090 wird meins.
Wart mal denn Sprung ab. Ich denke das es eher auf noch mehr Features im ki bereich hinauslaufen wird. Was ja die Zukunft ist. AMD bringt nur mehr Mittelklasse Chips und NVIDIA hat keinen Druck. Außer bei Apple geht’s so weiter dann ist es auch nur eine Frage der Zeit bis die einsteigen
 
Schön wenn man bei der gleichen "Effizients" bleibt aber warscheinlich höhre kosten für die neue karten für die verbraucher anstrebt. Dass ist so was von bä,
Frage ist halt nur was es uns bringt ich sehe aktuell schwirigkeiten das es sich bessert. eher in gegenteil dass ne xyz80ziger ne aktuellen video speicher behält oder geringere bandbreite und cash wo nvidia drauf setzt das cash ja alles sei. Und nur die xyz80ziger Ti modelle mehr speicher haben besseres interface und mehr cash und somit deutlich atraktiver aber dafür auch deutlich teurer sind.

Wag ich zu bezweifeln das die kommenden zwei generation diese und nächste dann so viel besser werden. Gleiches in anderen aspekten von AMD. Weis noch nicht was ich halten soll aber bis 2026 vermutlich werden wir mit grafikarten so sehen das die minimal besser steht aber eher auf der stelle trampeln. Super.
 
Es ging/geht ihm (dem Vorposter) um die LEISTUNG !
Auf die ICH eingegangen bin.
Siehe Test der PCGH zu Release. Vega 64 unter GTX1080.
Vega 56 im Patt mit der GTX1070

Das zum Ende der Pascal Era.
Verbrauch Außen vor. Hab ich ja erwähnt, dass Vega zu durstig war/ist.
Ist ja ok, dennoch darf man das erwähnen, weil es nicht unerheblich war.
Beim Verbrauch hat Navi 21 (6000´er) ggü. Ampere undiskutabel das bessere FPS/Watt/€ Verhältnis.
Ach ist das so. Wie sieht das aus, wenn jemand RT always on nutzt. Wie ist das bei den AAA Titeln das Fps/Watt Verhältnis und wenn es dazu noch ohne Abverkauf verglichen wird, kann man auch über das P/L Verhältnis diskutieren.
Und beim Bench (Anhang) mit 20 Games in 4 verschiedenen Auflösungen (100 vs. 101 % / VII vs. 1080Ti) da von "nur bei
WEiß nicht was du meinst.
Ich bin auf Vega64 und die 1080 eingegangen. Nicht auf die VII und die 1080ti.
Cherrypicking" zu reden ist auch irgendwie :banane:
Der Schluss ist höchst lächerlich.
Du gehst nicht wirklich auf das ein, was ich geschrieben habe. Fast so, als wenn man sich selbst im Kopf einen Witz erzählt und man nur selber lacht. Alle anderen Fragen sich, was da wohl schief gelaufen ist.


Deinen Screenshot aus 2019/2020 zu bewerten, nicht aber den Releasetest ist Cherrypicking auf absolut höchsten Niveau. Darüber hinaus zeigt der noch nicht mal eine Trendwende, sondern nur eine minimale Änderung. Also selbst der Fine Wine zog nicht bei Vega.

Mich persönlich interessiert kaum, was eine GPU nach Release der Nachfolger Gen noch im Ranking leistet. Vor allem nicht, wenn beim Konkurrent schon bald zwei neue GPU Generationen das Licht erblickten.

Klar einzelne Benchs zu spielen, wenn man auf so einer alten GPU noch fest hängt ok, die schaut man sich an. Aber ob Vega 64, 3-4Jahre nach Pascal Release 8% zugelegt hat, hat mich als GTX1070 Release Käufer wirklich nicht die Bohne interessiert.
 
Zuletzt bearbeitet:
Wohl eher 5 Jahre :D
Warum nicht up to date bleiben und jede Gen mitnehmen, mit dem Erlöß der alten GPU ist das am günstigsten. Zumindest die ersten 4 Jahre.
Laut TPU Review sind es - je nach Auflösung - zwischen 10 und 22% plus bei der 4090.
Also laut TPU sind es in 1080p schon 25% (was übrigens der Worstcase für die 4090 ist).

Sehr merkwürdig, gerade gesehen im Test der 7900XTX bei denen hast du Recht! Ist aber auch Latte. Gibt genug Tests die die Wirklichkeit besser abbilden.

Das sind wir eher bei 40% im Raster und eher 100+% bei RT.
 
Also selbst der Fine Wine zog nicht bei Vega.
Er hätte natürlich auch den letzten Index nehmen können in dem die Karten alle vertreten waren, aber das wäre ja nicht fair genug :haha:
1695806329129.png

Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere eher ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...
Siehe oben :haha:

Edit: Am Ende ist die Diskussion auch ziemlich egal. Insgesamt war Vega irgendwie rein Leistungsmäßig mit Pascal gleich auf. Kam nur viel später und hat viel mehr gesoffen. Also alles in allem keine ernsthafte Konkurrenz.
 
was eine GPU nach Release der Nachfolger Gen noch im Ranking leistet. Vor allem nicht, wenn beim Konkurrent schon bald zwei neue GPU Generationen das Licht erblickten.
Da muss man aber zu oben schon sagen, RTX30 hat ordentlich strom gezogen. Und RX6000 wahr auch kein unschulds lam das hat auch strom gezogen. In so fern, ist hier nur die frage Welche Grafikarte ist schlechter in sinne von Strom ziehen und welche besser. Über RT rede ich net weil mich das 0 tangiert.

Aber faktisch bleibt die RTX 30ziger karten bleiben in gespräch weil es wenig alternativen gibt bei RTX40zig und das wird bei den kastrierten Grafikarten in mittelklasse auch so bleiben daher ist dann die frage wie sich das bei AMD aus wirkt.
Sonderlich gut nicht weil die fahren die gleiche schine. Da ist es aber weniger schlimm weil der Video speicher ne taken mehr rettet. Aber grundsätzlich sind die Generation die RX6000/7000 ab einen gewissen punkt gut darunter ist es nahe zu ne überteuerte office karte.
RTX30/40 das gleiche spiel.

Und die nächsten generation sehen auch nicht rosiger aus daher werden wir jetzt mit den Potfolie leben müßen mehr wird es warscheinlichkeit nicht geben eher weniger. Heist ergo, duch die Ki oder A(e)i mist wird die Gamerschaft weniger Grafikarten haben die viel speicher hat. Ich sag nur GTX10ner reihe wahr ne gute Generation. Danach fing aus meiner sicht das unheil an.
 
Super so wie ich gedacht hatte


Freu mich schon auch bei der RTX 5090 direkt zum Release zu zugreifen, danach hat man eben erstmal 2 -2,5 Jahre Ruhe bei GPU-Kauf.

"Danach hat man 2 Jahre Ruhe bei GPU-Kauf."

Lol. Du hast eine 4090 drin und kaufst dann eine 5090? Wo ist da von "Ruhe" die Rede? o_O
Du steigst dann von der bis dato schnellsten erhältlichen Consumer-GPU auf die dann schnellste erhältliche Consumer-GPU bei Release, weil es bis dann schlicht gar nichts anderes gibt, was auch nur 0,1% mehr Leistung hätte als die 4090 jetzt in deinem System.

First world problems ultra deluxe.
 
Da muss man aber zu oben schon sagen, RTX30 hat ordentlich strom gezogen. Und RX6000 wahr auch kein unschulds lam das hat auch strom gezogen. In so fern, ist hier nur die frage Welche Grafikarte ist schlechter in sinne von Strom ziehen und welche besser. Über RT rede ich net weil mich das 0 tangiert.

Aber faktisch bleibt die RTX 30ziger karten bleiben in gespräch weil es wenig alternativen gibt bei RTX40zig und das wird bei den kastrierten Grafikarten in mittelklasse auch so bleiben daher ist dann die frage wie sich das bei AMD aus wirkt.
Sonderlich gut nicht weil die fahren die gleiche schine. Da ist es aber weniger schlimm weil der Video speicher ne taken mehr rettet. Aber grundsätzlich sind die Generation die RX6000/7000 ab einen gewissen punkt gut darunter ist es nahe zu ne überteuerte office karte.
RTX30/40 das gleiche spiel.

Und die nächsten generation sehen auch nicht rosiger aus daher werden wir jetzt mit den Potfolie leben müßen mehr wird es warscheinlichkeit nicht geben eher weniger. Heist ergo, duch die Ki oder A(e)i mist wird die Gamerschaft weniger Grafikarten haben die viel speicher hat. Ich sag nur GTX10ner reihe wahr ne gute Generation. Danach fing aus meiner sicht das unheil an.
Das Unheil fing für mich eigentlich bei der GTX600 meine ich an. AB da war Nvidia in der Lage, nicht mehr den Vollausbau für die 80iger Karten nutzen zu müssen.


ZU RX oder RTX. Es wird die nächste Zeit zeigen ( nächsten 12-24 Monate) was wichtiger ist.
Hohe RT Leistung, oder mehr VRam.

Für mich persönlich gilt, das ich nicht mehr ohne RT zocken will. Aus dieser Perspektive wird interessant sein, wie viele Spiele bei AMD zu lahm laufen (RT), oder bei Nvidia wegen Speicherknappheit schlecht laufen.

Letztendlich wird man mit beiden Varianten Abstriche machen müssen. Außer vielleicht man hat eine 4090. Alle anderen werden mit mehr Abstrichen leben müssen.
"Danach hat man 2 Jahre Ruhe bei GPU-Kauf."

Lol. Du hast eine 4090 drin und kaufst dann eine 5090? Wo ist da von "Ruhe" die Rede? o_O
Du steigst dann von der bis dato schnellsten erhältlichen Consumer-GPU auf die dann schnellste erhältliche Consumer-GPU bei Release, weil es bis dann schlicht gar nichts anderes gibt, was auch nur 0,1% mehr Leistung hätte als die 4090 jetzt in deinem System.

First world problems ultra deluxe.
Der Gedanke ist ja nachvollziehbar, um Ruhe zu haben.

Wenn man eine Karte unterhalb der 4090 kauft, kommt man eher ins grübeln nochmal zu wechseln. Wer das nicht möchte kann ja die 4090 kaufen und dann erstmal 2-2,5 Jahre Ruhe haben.
 
Für mich persönlich gilt, das ich nicht mehr ohne RT zocken will. Aus dieser Perspektive wird interessant sein, wie viele Spiele bei AMD zu lahm laufen (RT), oder bei Nvidia wegen Speicherknappheit schlecht laufen.

Letztendlich wird man mit beiden Varianten Abstriche machen müssen. Außer vielleicht man hat eine 4090. Alle anderen werden mit mehr Abstrichen leben müssen.
RT Tangiert mich 0 weil ich ehe weniger zocke. von daher.
Wenn ich für 850 euro oder so ne 4090 bekommen würde würde ich die wohl kaufen und für die nächsten 5 jahre ruhe haben.
An sonsten bleibt die so lange die karte drine bis es so weit ist dass der markt ne halb wegs vernüftige alternative hat.
Und der Chip ausbau ja das wird ne eigenes Thema werden/bleiben. Da werden wir mit den Hersteller entscheidungen leben müßen ob uns das gefällt oder nicht. Einzige Konzequenzs ist dass wir die Produkte auf grund der Leistung nicht kaufen so fern die Konkurenz bessere Produkte hat. Wenn beide Produkte von verschiedenen Herstellern schlecht sind garnicht kaufen und somit die Hersteller zwingen für Gaming bessere Produkte auf den markt zu bringen, Abgesehen davon wo die Preise hin gehen. Nein danke das fing mit der RTX2080ti an. Man sieht wo es gendet hat für die generation RTX40. Da muss man nix zu sagen.
 
ZU RX oder RTX. Es wird die nächste Zeit zeigen ( nächsten 12-24 Monate) was wichtiger ist.
Hohe RT Leistung, oder mehr VRam.

RT Leistung ist immer noch relativ.. bei 95% der spiele sieht RT nur anders.. aber nicht zwangsläufig besser aus.. nix was die Performancekosten wert ist..
Klar gibt es einzelne Perlen wie Cyberpunk .. aber die sind leider noch die Ausnahme.

Mehr VRAM ist auch wieder relativ da AMD zwar ab der 7800xt mehr bietet gegenüber Nvidia.. damit aber auch schlechter bzw verschwenderischer umgeht.
Nur weil ein Game bei Nvidia 12gb VRAM belegt heißt das nicht das es das auch bei AMD tut.. durch die unterschiedliche Komprimierung und Ressourcenmanagement ist Ramverbrauch nicht gleich Ramverbrauch


Viel wichtiger als RT Leistung oder Vram sehe ich eher upscaling Qualität und Featurset.. wo AMD im Moment ganz weit hinten liegt
 
Die 100er GPUs waren noch nie für Gamer gedacht.
Da würden dir so manche Generation an Nvidia GPUs widersprechen.
Die 100er waren sehr, sehr lange die Topausstattung in den 80er GPUs, bis sie dann irgendwann in die Titanen wanderten.... und nu sind die nur noch für Profisegmente...
Obwohl es auch schlicht zwei verschiedene Produktlinien mit eigenen 100er Chis sein können - hat Nvidia auch schon gemacht... gar nicht mal so lange her.
 
Er hätte natürlich auch den letzten Index nehmen können in dem die Karten alle vertreten waren, aber das wäre ja nicht fair genug :haha:
Er hat einen Index hergenommen mit 12 von 28 GPU´s, da es ihm um einen Vergleich ging um 1060 vs. 580/90, V56 vs. 1070, V64 vs. 1080 und VII vs. 1080Ti.
Allein um das ginge/geht es ! Aber Dein Interpretationsvermögen gibt mal wieder alles.
Soviel zum Thema Fair (Index von 2020, man nutzt seine Karte nur in dem Jahr vom ersten Benchmark).
Mal Dir ruhig die Welt, dass/bis sie Dir gefällt ... :daumen:
 
Zurück