News Geforce RTX 5090 und RTX 5080: Gerüchte deuten auf eine riesige Leistungslücke hin

Also kegelt nVidia den GB202 quasi ausm Consumer Bereich bzw. nur zu abnormalen Preisen und verscherbelt ihn im professionellen KI Bereich und wirklich als Nachfolger, Konkurrenz und Gamer Karte wird die 5080 auftreten bzw etablieren.
Die Gerüchteküche ist wieder am brodeln und es werden wieder möglichst negative Geschichten zusammengebastelt, ohne dass auch nur irgendetwas bekannt ist. "Auf jeden Fall ein harter Salvage" Da bin ich mal gespannt.
Klug gemacht von nVidia, zwar wieder mal schlecht bzw. negativ für den allgemeinen Gamer, aber dass ist man ja bereits seit Kepler gewohnt.
Genau. Und weil Nvidia ja nur negative Dinge für die armen Gamer da draußen tut, sind sie mit großem Abstand Marktführer.
Daher keine wirkliche Überraschung, wenn die 5080 etwas schneller als die 4090 rauskommt, dazu ggf. 16-24 GB an Speicher (2/3 Gbits Module).
Naja, das wäre für den eher kleinen Step in der Fertigung eigentlich schon eine runde Sache.
4090 Leistung für um die 1000 Dollar MSRP, warum nicht?
Aber leider wird selbst diese Gangart Ihre Käufer finden.
Jaja, die phöse phöse Gangart von Nvidia. Haha, ich lach mich tot.
Da AMD und Intel in diesen Sphären in nächster Zeit eh nichts zu bieten haben, gute Nacht...
Fällt dann unter welche Gangart?
 
Das sieht für mich nach 1500€ Preisdifferenz aus.

2499 vs 999

Nvidia hat vielleicht gesehen: Enthusiasten greifen tief in die Tasche für eine XX90er - wollen dafür aber auch Leistung sehen... und es muss natürlich das Topmodell sein und nichts anderes

Und die nächste bedeutende Käuferschicht kauft nach der Devise die Schmerzgrenze liegt bei 1000€ und es wird kompromissbereit die Leistung genommen die man für 1000€ bekommt.
 
Zuletzt bearbeitet:
2499 vs 999

Nvidia hat vielleicht gesehen: Enthusiasten greifen tief in die Tasche für eine XX90er - wollen dafür aber auch Leistung sehen... und es muss natürlich das Topmodell und nichts anderes

Und die nächste bedeutende Käuferschicht kauft nach der Devise die Schmerzgrenze liegt bei 1000€ und es wird kompromissbereit die Leistung genommen die man für 1000€ bekommt.
Das sieht nach 600W+ aus. Ich glaube nicht einmal das NV die GB202 für 1500 Euro Preisdifferenz zur 5080 auf den Markt wirft. Das wird keine Konsumer GPU. Es wird keine 5090, der Chip wandert in Profikarten die ab 8000 Euro den Besitzer wechseln.
 
2499 vs 999

Nvidia hat vielleicht gesehen: Enthusiasten greifen tief in die Tasche für eine XX90er - wollen dafür aber auch Leistung sehen... und es muss natürlich das Topmodell und nichts anderes

Und die nächste bedeutende Käuferschicht kauft nach der Devise die Schmerzgrenze liegt bei 1000€ und es wird kompromissbereit die Leistung genommen die man für 1000€ bekommt.

Und das wiederum, ist aus meiner Sicht auch aus der Blase heraus analysiert, das wir eben Computerinteressierte Menschen sind und der Otto Normal Verbraucher nur wissen will, ob er sein Spiel nach Feierabend für die durchschnittlichen 40 Minuten spielen kann oder nicht.

Ja, - am besten auf Ultra Super Duper Einstellungen, von welchen er sowieso nur die Hälfte verstanden hat neben der Zockerei. Bei der anderen Hälfte, merkt er ja selber nicht, wenn er die Details herunter stellt und lebt damit, wie sein 1000 -1500 Euro Computer funktioniert oder eben nicht. Raytracing hat er schon Ausprobiert, aber auch gleich wieder ausgemacht, weil das dann zwar Schön aussieht, aber doch nicht wirklich Spielbar ist. Nicht auf seiner "nagelneuen" 4060....

Ich glaube hier, ist dann die Masse anzutreffen und die wiederum, wird wieder die 5060 (Ti) am Besten im Komplettrechner (aber bitte mit VIEL RGB und natürlich einer schicken "Wasserkühlung") kaufen welcher dann der Leistung einer heutigen was???(4070[Ti], 7800XT) entspricht! Diesmal, endlich, auch mit einem nicht nur gefühlt großem Abstand zur Vorgängergeneration.

Alle anderen, sind die Bewussten und Enthusiasten sowie Interessierte und natürlich nicht zuletzt Diejenigen, die mit dem Spielzeug arbeiten, das wir so Vergöttern. Wir machen im Groß absolut keinen Unterschied. Allerdings und das weis die Industrie auch zu Schätzen, hört die Masse auf uns und deswegen, will man uns wiederum nicht allzu Hart vor die Wand fahren lassen. Deswegen werden die Lücken immer Größer, aber bitte in Scheibchen auf die Zeit verteilt, damit sogar wir nicht so richtig mitbekommen, was eigentlich gespielt wird.

So sieht das für mich inzwischen aus alles mit dem schnödem binärem Spiel.

Echte technische Entwicklungen, bleiben brav dort, wo sie am meisten Geld verdienen:

In der Schublade...
 
Ich gehe mal auch davon aus Nvidia macht den 3080/80ti/90/90ti/Professional(Workstation/Server) move und verpasst alles den großen Chip. Macht bei dem Abstand auch zw. den beiden Chips auch mehr Sinn den großen in viele Varianten runter zu beschneiden bis man beim kleineren Chip ankommt ...

Ich gehe in der Generation auch davon aus das die Server / Workstation Chips eine eigene Variante sein werden, da sie so nochmehr aus den "KI Geilen" Rauskitzeln können ohne die Consumer Chips von der Größe ( und den Kosten ) explodieren zu lassen.

Die "echten" Server GPUs sind doch bereits eigene Varianten? Glaube Dir fehlt da etwas Hintergrundwissen.

Hopper ist speziell auf KI getrimmt:
https://www.nvidia.com/de-de/data-center/technologies/hopper-architecture/

Ada Lovelace sind unsere Gaming GPUs:
https://www.nvidia.com/de-de/geforce/ada-lovelace-architecture/

Dann gibt es noch die "Quadros" (heißen jetzt auch RTX 0000 als Namensschema), diese haben auch Ada Lovelace Chips und sind im semi-professionellen Bereich angesiedelt. Quasi Workstation GPUs.

Was ist der Grund dafür, dass eine 5080 als auf dem GB203 und nicht GB202 basierend angenommen wird?

Weil das bei Ada und Turing auch so war, da war die 80er (2080, 4080) jeweils auf dem nächst-kleineren Chip.

Das sieht nach 600W+ aus. Ich glaube nicht einmal das NV die GB202 für 1500 Euro Preisdifferenz zur 5080 auf den Markt wirft. Das wird keine Konsumer GPU. Es wird keine 5090, der Chip wandert in Profikarten die ab 8000 Euro den Besitzer wechseln.

Die 450W werden eher nicht überschritten. Warum auch, ist man doch bereits mit der 4090 meist weit unter der max TDP. Und GDDR7 wird weniger Strom ziehen als der jetzige GDDR6X, ca. 20%.

https://www.techpowerup.com/311457/...ower-voltage-built-on-same-node-as-24-gbps-g6

GDDR7 is 20% more energy efficient

Echte technische Entwicklungen, bleiben brav dort, wo sie am meisten Geld verdienen:

In der Schublade...

DirectStorage
Real-Time Raytracing
Deep Learning Super Sampling
Frame Generation
Ray Reconstruction (neuer, kombinierter, KI trainierter Denoiser)
RTX Video Upscaling
RTX HDR

Jo, die technischen Neuerungen bleiben alle in der Schublade. :schief:
 
2499 vs 999

Nvidia hat vielleicht gesehen: Enthusiasten greifen tief in die Tasche für eine XX90er - wollen dafür aber auch Leistung sehen... und es muss natürlich das Topmodell sein und nichts anderes

Und die nächste bedeutende Käuferschicht kauft nach der Devise die Schmerzgrenze liegt bei 1000€ und es wird kompromissbereit die Leistung genommen die man für 1000€ bekommt.

Ich vermute eher 2999 vs 1499 :-|
Da ja -angeblich- mit der neuen Generation alles "um mehr als 30%" schneller sein soll + AI + mehr Speicher.
Das verkaufen sie sicherlich nicht zum alten 40er Preis.
Nvidia hat bestimmt keine Hemmungen mehr in dem Segment, mit den Börsenkursen wegen AI Hype.
:(
mal abwarten.
 
Denke mal der Abstand wird deswegen so groß sein, weil die 5080 gar nicht stärker sein muss, da AMD nix dagegen zu stellen hat. Also warum stärker machen?

Die 5090 wird dann zwar stark, aber mit saftigem Aufschlag dafür gehandelt.
Würde AMD eine starke Karte rausbringen können, wäre die 5080 sicher stärker designed worden.
 
Denke mal der Abstand wird deswegen so groß sein, weil die 5080 gar nicht stärker sein muss, da AMD nix dagegen zu stellen hat. Also warum stärker machen?

Die 5090 wird dann zwar stark, aber mit saftigem Aufschlag dafür gehandelt.
Würde AMD eine starke Karte rausbringen können, wäre die 5080 sicher stärker designed worden.

Du redest so als wären die Gerüchte irgendwie zu Fakten geworden. Das ist nicht der Fall. Das 5080 Design ist keinem bekannt, also kann es weder "schwächer" noch "stärker" designed worden sein.

Jedes Jahr dasselbe... Es kommen Gerüchte, bei Nvidia wird der vermeintliche Preis (und die TDP) in den Orbit katapultiert und von "Betrug durch Speicher-Beschneidung" gesprochen, bei AMD wird (normalerweise) endlich der Überholvorgang, an Nvidia vorbei, herbei gezaubert. Letzteres ist dieses Jahr, laut Gerüchten, ja vom Tisch.

Es wäre total toll wenn man Gerüchte, nun ja, Gerüchte sein lässt, und daraus keine vermeintlichen Fakten konstruiert.
 
Es würde mich auf jeden Fall nicht überraschen, denn es hat ja diese Gen. funktioniert, das viel lieber gleich das Topmodell genommen haben, wenn der Leistungsunterschied beträchtlich ist, und die Preisdifferenz noch gerade so im Ramen.
 
Der AD102 war für Nvidia ein sehr erfolgreicher KI Chip. Der Blackwell Nachfolger tritt also nicht nur die Nachfolge einer Gaming Karte an, sondern muss auch KI entsprechend pushen.

Wenn es nvidia nur um Gaming gehen würde, dann wäre alles klar. AMD will so schnell nichts bauen was überhaupt an die 4090 herankommt, damit würde es aus Gaming Sicht genügen die 5090 ca. 30% schneller zu machen, es eine Generation zu nennen und fertig.

Aus KI Sicht würde man sich jedoch mehr wünschen. Ein 512Bit Speicherbus wäre von Vorteil, vor allem weil man dann massig GDDR7 auf den Karten unterbringen könnte. Vgl. die RTX 6000 Ada mit 48GB RAM. Mit 512 statt 384 könnte die jetzt schon 64GB VRAM fassen, dank der Verdoppelung die mit GDDR7 einhergeht stünde uns ein mögliches Limit von 128GB ins Haus.

Das macht insofern Sinn, da KI Karten daran gemessen werden wieviel Parameter gleichzeitig sie können und das wieder am Speicher hängt. Die Gaming Karte 5090 wird sich Nvidia nicht nehmen lassen. Die KI Karte mit stark reduziertem Takt (Server TDP zu beachten), so viel Speicher wie geht und Fokus auf KI Kunden die 10k€ für eine Karte zahlen wird der echte Fokus sein. So hart das klingt, die Version dieses Chips mit defekten Speicherkanälen aus dem man eine 32GB Karte für 2500€ macht ist da fast schon die Resteverwertung.
 
Der AD102 war für Nvidia ein sehr erfolgreicher KI Chip. Der Blackwell Nachfolger tritt also nicht nur die Nachfolge einer Gaming Karte an, sondern muss auch KI entsprechend pushen.

Nicht unbedingt. Die aktuelle Gen hat ja den AD102 auf RTX X000 bis 10k, und dazu noch die Hopper GPUs (H20, H100, H200, H800) für 15k+ bzw. 30k+.

Ada wird also nur bis zu einem gewissen Bereich professionell eingesetzt.

Aus KI Sicht würde man sich jedoch mehr wünschen. Ein 512Bit Speicherbus wäre von Vorteil, vor allem weil man dann massig GDDR7 auf den Karten unterbringen könnte. Vgl. die RTX 6000 Ada mit 48GB RAM. Mit 512 statt 384 könnte die jetzt schon 64GB VRAM fassen, dank der Verdoppelung die mit GDDR7 einhergeht stünde uns ein mögliches Limit von 128GB ins Haus.

Das macht insofern Sinn, da KI Karten daran gemessen werden wieviel Parameter gleichzeitig sie können und das wieder am Speicher hängt. Die Gaming Karte 5090 wird sich Nvidia nicht nehmen lassen. Die KI Karte mit stark reduziertem Takt (Server TDP zu beachten), so viel Speicher wie geht und Fokus auf KI Kunden die 10k€ für eine Karte zahlen wird der echte Fokus sein. So hart das klingt, die Version dieses Chips mit defekten Speicherkanälen aus dem man eine 32GB Karte für 2500€ macht ist da fast schon die Resteverwertung.

Ich denke eher dass es wieder eine Trennung gibt. Die Gaming GPUs haben zu wenig Tensor Cores um mit den darauf spezialisierten GPUs mithalten zu können. Und bei denen gibt es dann eh richtig viel Speicher (und auch kein GDDR):

1710284711512.png
 
rechnen wir mal so nen chip wie gb202 mit 512bit aus.
Aktuell 609mm² davon 40% Si sowie 15% pcie Anbindung beides analog und nicht verkleinerungsbar 304,5mm²
tsmc gibt an 0,58 density von n5 zu n3 304,5*0,58=176,6 1176,6/144*192=235,5 304,5/55*40 /384*512=295,3 304,5/50*15=91,3
176,6+295,3+91,3=mm² davon sind mm² analog also 68%
ja das ginge aber die yield sind unterirdisch derzeit defective bei 0,2 also ne yield von 36% 35 gute dies und 62 defektiv dies Samsung n8 hatte ähnliche defektiv rates aber der node war deutlich billiger 6k$ vs tsmc 7nm bei 11k$
Derzeit wird jeder n3 chip eher für ai Beschleuniger gebraucht
Das wird nicht kommen
Kosten fürn desktop Ableger mit 68% analog Anteil. thermisch wird das extrem und reduziert den Takt auf nur noch maximal 3,0ghz von den möglichen 3,5ghz
chip defective die bsp 142sm 3,0ghz (322$ +20 gddr7 16gbit 32gbps a11$) *2,2(+200)*1,2*1,1(+10)*1,1 =2035$=2099$ /2319€
ja sicher kommt so bei nur +19% perf gain.

keine chance

Zu 6gpc beim gb203 ähnliche Formel anhand von ad103 192bit si etwa 50% analog 390mm²
Am ende 353,6mm² chip bei 68% analog Anteil 51% yield 80 gute dies 76 schlechte kurz drei sku's
60sm 128$ sku mit 16gb 70class ab 849$ +-32tf +14'%
80sm 265$ sku 70ti class ab 1299$ /1429€ +29%
90sm 265$ sku 80 class ab 1499$/ 1659€ +22%
keine chance mit 512bit und 256bit Si

Dagegen mit 256bit und 192bit
gb202 = 415mm² yield 46% chip ab 2 sku desktop und quadro
Desktop cut auf 142sm 285$ sku ab 1700$ =1799$ /1899€
Da kleineres Si und weniger wärme Takt bis 3,36ghz = +33%

Und der gb203 bei 273,9mm² yield bei 59% 124 good dies 84 defective dies 2 sku
70class 80sm 12gb 639$ =699$/769€ +45%
80 class 90sm (cut si 160bit) 20gb 1268$ =1299 /1300€ +35%

Daher glaube ich nicht an 6gpc beim gb03 das sind 8gpc =128sm der chip wird vermutlich bei 394mm² sein
48% yield 66 gute 71 Schlechte die 3 sku

96sm 80class 16gb 899$ /990€ +44%
104sm 80ti class chip ab 145$ 20gb =999$/1109€ +89%
120sm 90class chip ab 303$ 24gb =1545$ 1599$/1719€ +12%

gb207 gb206 und gb205 sind sf4x von Samsung maximal 2,7ghz eher 2,6ghz
2gpc bis 6gpc

2gpc laptop only 32sm 12gb 96bit si ~70% si Anteil maxed 2,2ghz.
4gpc 50% si Anteil
rtx5060 44sm 2,6ghz 12gb 96bit si +70% vs 4060
rtx5060ti 60sm 2,6ghz 12gb 96bit si +63% vs4060ti
6 gpc 55% si Anteil
rtx5070 80sm 2,6ghz 16gb 128bit si +42% vs4070 super
rtx5070ti 90sm 2,6ghz 16gb 128bit si +63% vs rtx4070 ti super

Da ich keine preise für samsung habe kann ich hier nur Raten es dürfte aber vergleichbar zu tsmc n4 node sein um die 10k $
Die chips sind größer da Samsung nur 0,79 hat statt 0,58
Wird konfus für viele wenn das so kommt das high end über 3,36ghz gehen und alles darunter nur 2,6ghz hat.
Das wäre untypisch für nvidia die bisher immer alle chips etwa gleich Takteten abseits laptops.

Es kann sein das nvidia ganz auf tsmc n3 verzichtet, wirklich nen 384bit und 256bit bei gb202 und gb203 setzen wird mit samsung sf4x bei gleichem Takt also 90class 180sm 2,6ghz +30% und 80class 120sm 2,6ghz +39% setzen wird.
Das würde mit dem Plan rubin und kompletten umbau der sm passen diese erreichen erst ab a18 node die erforderlichen 3,0ghz
ich sehe nur bei der tbp schwarz ich rechen mit dauerhaft gb202 500w und gb203 400w für die high end chips
bei gb205 etwa 300w und bei gb206 200w für low end sku
N3e wäre das die hälfte

Das sind design Ideen wie man die chip konfiguriert und womit zu rechnen ist wenn man diese kalkuliert
Der Samsung node kam vor paar Tagen ins Gespräch das ändert viel.
Das Entscheidende ist was amd als Konkurrenz bringt das hängt davon ab wie die sku konfiguriert werden
Sicher ist nur das 24gbit vram alsbald nicht geben wird.
Am ende kommt es auf die Kosten von gddr7 an 32gbps sind sicher trotz Meldungen von 28gbps die es derzeit nur von samsung gibt. Da nvidia ne menge an gddr7 32ghps bestellt hat. rechne ich fest das diese bei allen sku kommen werden da samsung auch 32gbps hat aber später kommt.
Dafür verspricht samsung 24gbit ab 2026 micron unklar angeblich q2 2025
ich vermute das man das aufgeben wird gddr6 sollte auch die Kapazität auf 32gbit gehen wurde aber nie umgesetzt.
sk hynix hat dazu nix es bleibt bei 16gbit unklare gbps mein verdacht man beschäftigt sich mit hbm4
hbm3e soll die nächste hpc gen haben (2,6ghz)

Aachja Bandbreite
gb206 96*32/8=384gb/s
gb205 128*32/8=512gb/s
gb203 160*32/8=640gb/s 192*32/8=768b/s
gb202 256*32/8=1024gb/s

20rop per gpc 80tmu per gpc das ergibt sich aus der vergrößertem sm per gpc auf 16 statt 12

ist das final bestimmt nicht aber wahrscheinlich die arch steht seit nen Jahr fest jetzt wird entschieden welchen node man nutzt.
Ähnlich lief das mit turing 2018 bis zuletzt wusste keiner ob es ampere turing oder pascal 2 wird
gleiche gilt für ampere launch da war der fertiger nicht klar tsmc n7 oder samsung 8nm (wie jetzt)
ada war relativ klar bei der Fertigung nur die sku nicht sicher das es am ende so blöd designt worden ist ist Ärgerlich.

Ich würde sofort ne rtx4060ti super kaufen mit 42m 180w tbp 12gb
Oder ne rtx4060 super mit 30sm 160w und gddr6x 23gbps 16gb

Mein Herz sagt mir warte bis rtx5060 mit 44sm und leider mit 12gb
Der sprung wird groß von ner rtx3060 +110-130% genau richtig.
 
Ok ich bin gespannt ob es vielleicht doch noch in der unteren Klasse auch was Kaufbares gibt also ich schreibe von den rtx 5050 und rtx 5040 GPUS.Aber ich vermute mal Nvidia hat zu wenig Kapazität um die untere Liga mit zu Produzieren.Wobei das würden wohl sehr kleine GPUS sein wenn Nvidia die Raus bringen würde.DIe kosten wären gering und wie stark dann die Mehrleistung wäre,die wäre wohl gigantisch kann man so sagen.Ne RTX 5040 wäre wohl auf gtx 1080 oder gtx 1080 Ti Leistung kann man so sagen.Und dabei nur 75 Watt.Also das wäre durchaus realistisch denke ich mal.Aber nur wenn Nvidia da Interesse dran hätte.
 
Ok ich bin gespannt ob es vielleicht doch noch in der unteren Klasse auch was Kaufbares gibt also ich schreibe von den rtx 5050 und rtx 5040 GPUS.Aber ich vermute mal Nvidia hat zu wenig Kapazität um die untere Liga mit zu Produzieren.Wobei das würden wohl sehr kleine GPUS sein wenn Nvidia die Raus bringen würde.DIe kosten wären gering und wie stark dann die Mehrleistung wäre,die wäre wohl gigantisch kann man so sagen.Ne RTX 5040 wäre wohl auf gtx 1080 oder gtx 1080 Ti Leistung kann man so sagen.Und dabei nur 75 Watt.Also das wäre durchaus realistisch denke ich mal.Aber nur wenn Nvidia da Interesse dran hätte.
kapazität is genug da. nur verdienste weniger solange die KI-Blase da ist und die einfach nur für die höheren segmente produzieren.
 
Zurück