News Geforce RTX 5000 ("Blackwell"): Gerüchte zu Nvidias Next-Gen-Grafikkarten entsprechend eingeordnet

hach mein Thema was ich oft spekuliere.

gh102 maxed 180sm 10gpc only datacenter bzw quadro mögliche chipgröße 839mm² 390$
gh103 144sm 8gpc ~660mm² 303$ quadro only
gh104 108sm 6gpc ~280mm² 96$
gh106 72sm 4gpc ~180mm² 77$
gh107 36sm 2gpc ~90mm² 36$
Das bedingt das tsmc schafft mehr als 40% density zu erreichen mit n3 woran ich zweifle.

Mögliche sku
rtx titan b gh104 ~3000€ 24gb vram gddr7 28gbps 192bit +-2,5ghz 120-140tf
rtx5090 gh106 ~2000€ 32gb vram gddr7 28gbps 192bit +-2,6ghz 85-110tf
rtx5080 gh104 ~1000€ 16gb vram gddr7 28gbps 128bit 2,6ghz 46-55tf
rtx5070 gh104 ~600€ 16gb vram gddr7 28gbps 128bit 2,6ghz 35-40tf
rtx5060 gh107 ~450€ 16gb gdddr7 28gbps 128bit +-2,4ghz 23-27tf
rtx5050 gh107 ~300€ 12gb gddr7 28gbps 96bit +- 2,4ghz 11,5-14tf
release beginnend q4 2024 bis q4 2025
Bedingung ist Abverkauf von ampere gpu bis q4 2023

Wenn nicht sehe ichn refresh von ada auf n4
Die Preise werden bestimmt höher sein. Allein PCIe 5.0 und GDDR7 lassen sich sehr gut als Argument nutzen um 2300€ für eine 5090 und 1600€ für die 5080 anzusetzen. Interessant wird aber sein, ob die Leistungsaufnahme sinkt. GDDR7 sollte sich da bemerkbar machen.

Evtl. werden wir aber gar keine 5000'er sehen. Wer weiß, ob China bis dahin die Füße still hält.
 
Zuletzt bearbeitet:
mmh mmh mmh... Ich weiß nicht, ob sich ein Upgrade von der 1080Ti dann überhaupt schon lohnt.... für 1000€ würd Ich ne 5090Ti dann wohl zähneknirschend und mit Bauchschmerzen bestellen.
 
Ebenfalls rein spekulativ sind aktuell die der Geforce RTX 5090 zugesprochenen Spezifikationen. Demnach soll es zukünftig von 128 Streaming Multiprocessors und 16.384 Shadereinheiten auf 144 Streaming Multiprocessors und 18.432 CUDA-Cores hinauf gehen. Zudem soll der L2-Cache von 72 MiByte auf 96 MiByte angehoben werden und der GPU-Takt auf mehr als 3 GHz angehoben werden.

Gut, sind wir mal realistisch:
Der Sprung von 5nm auf 3nm bringt laut TSMC 40% mehr Transistoren.
Würden es linear 40% mehr Einheiten von allem, werden es wohl keine 250% MEHRleistung.
Auch nicht 250% der Leistung der 4090 (also +150%).

Was wäre also um 250% zu steigern?
Momentan belegen die Einheiten die für Raytracing zuständig sind nur einen kleinen Teil des Chips. Wenn wir 40% mehr Transistoren dahingehend investieren, wo es hauptsächlich Raytracing und Co hilft, DANN ist es möglich, dass dort enorme zugewinne kommen - und wohl auch notwendig, wenn wir endlich flächendeckend Raytracing und Pathtracingspiele haben wollen.
 
Mögliche sku
rtx titan b gh104 ~3000€ 24gb vram gddr7 28gbps 192bit +-2,5ghz 120-140tf
rtx5090 gh106 ~2000€ 32gb vram gddr7 28gbps 192bit +-2,6ghz 85-110tf
rtx5080 gh104 ~1000€ 16gb vram gddr7 28gbps 128bit 2,6ghz 46-55tf
rtx5070 gh104 ~600€ 16gb vram gddr7 28gbps 128bit 2,6ghz 35-40tf
rtx5060 gh107 ~450€ 16gb gdddr7 28gbps 128bit +-2,4ghz 23-27tf
rtx5050 gh107 ~300€ 12gb gddr7 28gbps 96bit +- 2,4ghz 11,5-14tf
Erstens machen die Chips keinen Sinn in der Auflistung, dann 32GB an 192bit und allgemein machen die bit keinen Sinn.
 
Man munkelt aber ebenfalls, dass AMD, wenn die Probleme gefixt sind, auch richtig Leistung haben wird. Quelle: aktuelle Folge von mlid auf yt
ich liebe YouTuber die sich Lügen aus dem Nähkästchen ziehen, damit die Follower dran bleiben.
Ich liebe auch die Menschen, die sich immer wieder von den gleichen anderen Menschen veräppeln lassen.
Sei es in der Politik oder im Netz
Das wäre unfassbar. Ich frag mich welchen Sinn das Ganze macht, wenn die Spieleentwicler nicht mehr nachkommen!
Ach das ginge recht einfach. Dank Ray/Pathtracing geht die Reise jetzt erst los.
Was heißt hier außerdem nicht hinterherkommen, der Grund warum Spiele keine bessere Grafik haben ist ja, weil sie auf das kleinste gemeinsame Vielfache (die schwächste aktuelle Konsole) hin optimiert sind.
Viel zu früh. Nicht mal Nvidia wird aktuell genau wissen welche Leistung die 5090 haben wird.
Naja Simulationen laufen wohl schon länger, also doch, die haben eine recht gute Vorstellung davon
Zum Glück hab ich keine 2500€ für eine 4090 ausgegeben, sonst hätte ich wohl schlechte Laune wenn Nvidia 2024 sein "Hyper-Psycho-TrueGamer-Pathtracing" für Cyberunk freischaltet, welches nur auf einer 5090 und deren exklusives DLSS 4 läuft.
Bis 2024 könnte sich aber CDPR anstrengen und das Spiel so fertigstellen wie es ursprünglich gedacht war. Und dann würde ich das Ding sogar kaufen (irgendwann)
Nehmen wir mal an die nächste Generation FG generiert ein Bild mehr. Das wären schon mal 50% mehr Bilder als bei der RTX4090 mit DLSS3. Und jede Leistungssteigerung wird wieder damit multipliziert. Dann braucht es "nur" noch bis zu 67% mehr Rohleistung für bis zu 2,5fachen FPS.
Neben Takt und Shader Vermehrung bräuchte das noch ca. 30% mehr IPC. Immer noch ne Menge aber zumindest als "bis zu" Leistung nicht vollkommen unmöglich.

So, genug gerechnet, nicht dass Prozessorarchitektur noch neidisch wird :ugly:
Wie oben erwähnt, es ist möglich, wenn man einen TEILbereich betrachtet massiv Leistung zu gewinnen.
Steigert man die RT und Tensor-Einheiten (Anzahl oder verbessert die Architektur), lässt vom Rest her aber vieles gleich, ist es schnell möglich im RT-Bereich ordentlich zuzulegen, da RT und Tensor Cores nur einen kleinen Teil des Chips belegen im Vergleich zum Rest
 
Zuletzt bearbeitet:
Doch machen sie weil nvidia immer auf die billigste produktion bei maxed profit geht
Der grudn ist amd kann nicht mithalten wenn mcm auf einen gcd limitiert bleibt und danach sieht es aus
Derzeit hat amd ein mcd problemd a diese bei bestimmten Takt an Fehler produzieren darum der geringe Takt.
dazu kommt das der gcd monolithisch bleiben muss da die Latenz innerhalb des gcd zu groß wird und man nen Problem mit dem sheduler bekommt was die Probleme von crossfire und sli wiederkehren.
Folglich kann amd nur den inf cache auslagern der imc sitz im gcd

Mögliche amd sku ab rdna4 8192 alu als n41 wegen der besseren n3 dichte nehmen wir 40% an 240mm²
Das si lässt sich kaum bis gar nicht schrinken aber gddr7 hat maximal 36gbps angekündigt sind aber 28gbps
8192*2,6*3,2=68tf bei 1,3tb/s vs aktuell 37tf 960gb/s = mindestens +85%
und nach meiner liste wäre das level auf gh104 chips mit möglichen 96sm 73tf
Das wäre möglich.
Amd könnte anders handeln und nur den n31 fixen und mit 3,2-3,6ghz bringen ohne große Änderungen am gcd
dann wäre man bei nur +40%. +-52tf
Das hängt jetzt primär von der mcd Latenz ab diese ist aktuell bei 17% Auslastung von 2 Operationen (=2,34) zu den 2 Operationen der fp32
ich nahm an das denn 2,6 Operationen wie bei n33 es sein wird. Dies ist bestätigt durch die laptops review bzw leaks.
Und nvidia geht nur so weit wie amd liefern kann. intel indes ist gar keine option eher muss amd die fürchten.
 
Wird bestimmt eine absolute Schnapper-Karte.
Technisch höchstwahrscheinlich erneut sehr beeindruckend. Dumm nur, dass es sich kaum noch jemand leisten kann/will am Ende. UVP: 3000€ :D
Bevor jemand schreit: Bin selbst Nvidia-User, aber die Preispolitik finde ich mittlerweile nur noch fragwürdig, egal was momentan alles auf der Erde passieren mag.
Ich halte 2500-3000 € für absolut realistisch. Denke NV dreht so lange an der Schraube bis es nicht mehr geht.
 
Evtl. werden wir aber gar keine 5000'er sehen. Wer weiß, ob China bis dahin die Füße still hält.
Genau meine Gedanken.

Da schwingen mehrere Damokles-Schwerter über das normale "weiter so".
Wer weiß was aus RU/UA wird, wohin das führt.. China/Taiwan ist nur noch eine Frage der zeit, dann ist das "normale" leben wie wir es kennen eh vorbei, nicht unbedingt wg Nukes oder so, sondern weil alles viel zu teuer werden oder nicht mehr verfügbar sein wird, dagegen war das die letzten jahre nur ein vorgeschmack..
Wer weiß was sonst noch alles passiert, Klima, Kriege, freidrehende ungebildete Idioten überall auf der welt die das ruder an sich reißen.

Dabei möcht ich bevor der Himmel uns auf die Köpfe fällt, auch einmal Witcher3 mit Path Tracing gesehen haben... ;)
 
Im Artikel steht; übertrifft die 4090 um bis zu 250%; was aber einer 3,5x Leistung entsprechen würde.
Die 250% wären richtig, wenn man von 250% der Leistung einer 4090 ausgehen würde.

Im Bild steht 2-2.6x prev. Gen; was 100%-160% Leistungsplus zu einer 4090 wären.
 
Neueste Leaks besagen, dass Nvidia CEO Jensen 'Lederjacke' Huang plant die UVP an die Modellbezeichnungen der Produkte zu koppeln.
RTX 5090 = UVP $5090,59
Also die 0,59 mehr finde ich schon dreist! Da könnte man doch glatte Preise machen.... ;-)
Die neue Gen. erscheint natürlich mit DLSS 4.0 und die 4000er Reihe schaut dumm aus der Wäsche! Aber hey, man kann ja neu kaufen, ist ja nicht so teuer! :ugly:
 
Hört sich langsam so an wie diese billigen TV Werbungen wo Pfannen etc verkauft werden. Keine Ahnung ob's das noch gibt aber ihr kennt es sicherlich mit Sprüchen wie, wenn sie jetzt kaufen bekommen sie ein weiteres Teil geschenkt und die Töpfe kochen nicht ein, nicht zwei, sondern sage und schreibe 2.5 Mal so schnell. Da sind die Eier in der Pfanne fertig bevor sie das Ei aus dem Kühlschrank genommen haben. Wenn sie jetzt anrufen, bekommen sie einen Topflappen kostenlos oben drauf!
 
Wie soll das denn gehen? Also schaut sich jemand die Gerüchte auch mal an oder zitiert er nur einfach so wie es am reißerischten klingt. Ganz ehrlich, wären nicht die weitestgehend guten Produkttests hier, wären glaube ich 90% aller User schon lange nicht mehr da.
Wobei ich euch dieses Mal echt zu Gute halte, dass ihr die Aussagen sehr deutlich unter Spekulationen wiedergebt.


Zu den ziemlich unsinnigen Spekulationen, nein 250% wird es nicht geben, so lange 144 MultiProcessors Mut der jeweils gleichen Anzahl CuDAs wie bei der RTX4 verbaut werden. Selbst bei 50% IPC Gewinn (völlig abstrus) reden wir nich immer von 50% mehr Takt, selbst bei 3nm werden dafür nicht unter 900W fällig, wenn überhaupt.

Gerücht = 0%
 
Hört sich langsam so an wie diese billigen TV Werbungen wo Pfannen etc verkauft werden. Keine Ahnung ob's das noch gibt aber ihr kennt es sicherlich mit Sprüchen wie, wenn sie jetzt kaufen bekommen sie ein weiteres Teil geschenkt und die Töpfe kochen nicht ein, nicht zwei, sondern sage und schreibe 2.5 Mal so schnell. Da sind die Eier in der Pfanne fertig bevor sie das Ei aus dem Kühlschrank genommen haben. Wenn sie jetzt anrufen, bekommen sie einen Topflappen kostenlos oben drauf!
UND WENN DU DIR JETZT SCHON EINE VORBESTELLST, FÜR UNGLAUBLICHE 13.337 Euro, DANN BEKOMMST DU EINE HANDSIGNIERTE LEDERJACKE ( natürlich kein echtes Leder ) vom NVIDIA GOTT HIMSELF, Jen-Hsu Huang.
 
Zuletzt bearbeitet:
Die Preise werden bestimmt höher sein. Allein PCIe 5.0 und GDDR7 lassen sich sehr gut als Argument nutzen um 2300€ für eine 5090 und 1600€ für die 5080 anzusetzen. Interessant wird aber sein, ob die Leistungsaufnahme sinkt. GDDR7 sollte sich da bemerkbar machen.

Evtl. werden wir aber gar keine 5000'er sehen. Wer weiß, ob China bis dahin die Füße still hält.
Auch bei einem chinesischen-taiwanesischen Krieg wird es die 5000er Serie geben. Dann halt im 3nm GAA Verfahren von Samsung, welche in Südkorea herstellen, welches unter der Schirmherrschaft der USA steht.

Leistungstechnisch wirds wohl das übliche geben. Gebe bei der RTX5090 von 50% Mehrleistung gegenüber der RTX4090 aus. Außerdem wird die RayTracing Performance um einiges verbessert, um Path Tracing weiter zu pushen.

Von einer neuen DLSS Version gehe ich nicht aus.

Preise werden leider sehr ähnlich zur aktuellen Generation sein. NVIDIA kann zwar die RTX4090 gut verkaufen, aber man siehts an den allgemeinen Grafikkarten Verkaufszahlen..., die brechen ein.. auch wegen den horrenden Preisen.

Noch höhere Preise für 60er, 70er Karten und PC Gaming ist in dieser Form Tod und auch das kann NVIDIA nicht wollen.
 
Gähn, Release ist doch sowieso erst frühestens Ende 2024 ?

Dann kann man sich immer noch aufregen, frohe Ostern ???
 
Zurück