News Geforce RTX 5090 (Ti): Gerüchte nennen 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher mit 512-Bit

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 5090 (Ti): Gerüchte nennen 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher mit 512-Bit

Bis zum Release der kommenden Geforce RTX 5000 ("Blackwell") wird noch einige Zeit vergehen, doch bereits jetzt nehmen die ersten Gerüchte an Fahrt auf. Vom Leaker kopite7kimi kommen aktuell einmal mehr Informationen zu den möglichen Spezifikationen der Geforce RTX 5090, die demnach mit 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher an einem besonders breiten Speicherinterface mit 512-Bit soll aufwarten können.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 5090 (Ti): Gerüchte nennen 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher mit 512-Bit
 
Hier wird ein Chip (GB102) mit einem finalen Produkt (4090) und nicht dem Chip im Vollausbau verglichen. 196 vs 128 passt qlso nocht ganz, 196 vs 144 SM wär hier wohl passender, damit vergleichen wir 2x den Chip im Vollausbau
Die Specs klingen irgendwie nach "Wünsch dir was" :ugly:
bis auf das Speicherinterface ists nicht unrealistisch.
Wünsch dir was wär für mich HBM4 auch für Consumer :-)
Allerdings hätte ich das bei der 4090 vorher auch gedacht. Mal abwarten was da Ende nächsten Jahres wirklich kommt. Ich fürchte ich werde eh schwach :haha:
Kimi hat erstaunlich oft recht bei den vorab- Specs
 
Zuletzt bearbeitet:
Also bei der Effizienz und Leistung der 4080 werde ich die nächste Gen wohl auslassen, außer die wird wieder so extrem gut, dann könnte ich schwach werden. Aber bisher sehe ich nix am Horizont, was eine 4080/4090 in die Knie zwingt. FG läuft so gut, dass ja selber Cyberpunk mit Path Traycing absolut kein Problem ist. Und ohne Pathtraycing und mit RT Ultra hängst du permanent im 120FPS Cap bei etwas über 200 Watt Verbrauch. Ein Träumchen.
 
Wenn's stimmt, wären das coole Daten, aber auch ein klarer Preisindikator. Falls wirklich GDDR7 kommt, hätte ich eher auf nochmals 24Gib getippt und bei GDDR6 eher die Wahrscheinlichkeit für eine Steigerung gesehen.
GDDR7 hat weniger Durchsatz pro Takt als GDDR6X und wird wahrscheinlich wegen des weniger komplexen Interfaces(PAM3 statt PAM4) auch billiger. Es ist eben der Mainstream Nachfolger des normalen GDDR6 mit klassischem DDR Interface, nicht der X Variante.
Deswegen gab es auch schon Gerüchte die das Topmodell weiter bei GDDR6X gesehen haben.
NV wird wahrscheinlich gerade evaluieren ob man die Anbindung breiter macht oder doch beim X-Ram bleibt.
 
Joa, klingt schon vielversprechend und nett. Die nächste Generation kann man aber wohl als RTX 4090-Nutzer gut skippen (was nicht heißt, dass man nicht trotzdem schwach werden könnte - einfach, weil die Technik geil ist ^^).

Das sah bei der RTX 3090 noch anders aus, als man ca. ein Jahr im Lebenszyklus drin war. Da hat man sich dringend mehr Performance gewünscht, die dann ja schlussendlich mit Ada kam.

Klar, mehr geht immer, gerade für CP2077. Momentan passt die Leistung aber ganz gut, denke ich. Ich bin eher gespannt, wie Nvidia den Chipsetansatz technisch löst, sollte er mit Blackwell schon kommen.
 
Das klingt natürlich sehr vielversprechend.

Beim Verbrauch und Preis wird es allerings auch sehr spannend. Wegen mir kann das Leistungsplus mal etwas geringer ausfallen und dafür der Verbrauch wieder runtergehen.
 
Also bei der Effizienz und Leistung der 4080 werde ich die nächste Gen wohl auslassen, außer die wird wieder so extrem gut, dann könnte ich schwach werden. Aber bisher sehe ich nix am Horizont, was eine 4080/4090 in die Knie zwingt. FG läuft so gut, dass ja selber Cyberpunk mit Path Traycing absolut kein Problem ist. Und ohne Pathtraycing und mit RT Ultra hängst du permanent im 120FPS Cap bei etwas über 200 Watt Verbrauch. Ein Träumchen.

#
Die 4080 mit 250 Watt läuft in 4k so problemlos und hat noch überall Reserven (für mich). Bin aber trotzdem gespannt was Nvidia in der Spitze machen wird, gerade wenn AMD da wieder nichts bringt.
 
#
Die 4080 mit 250 Watt läuft in 4k so problemlos und hat noch überall Reserven (für mich). Bin aber trotzdem gespannt was Nvidia in der Spitze machen wird, gerade wenn AMD da wieder nichts bringt.
Jup, ich denke nämlich auch eher, dass die nächsten Generation eher langweilig wird, da man ja gar keinen Handlungsbedarf hat. AMD hat nur eine XTX, die hängt der 4090 halt meilenweit hinterher und sobald RT dabei ist kommt die ja gerade mal an die letzte Gen von Nvidia heran. Für Enthusiasten halt komplett uninteressant. In Sachen FSR 3 kommt ja auch nix mehr außer heiße Luft, naja.
 
Die Specs klingen irgendwie nach "Wünsch dir was" :ugly:

Allerdings hätte ich das bei der 4090 vorher auch gedacht. Mal abwarten was da Ende nächsten Jahres wirklich kommt. Ich fürchte ich werde eh schwach :haha:

Never ever. Dieselben Quatschaussagen gab es auch schon bei Ada Lovelace.
Dann mach mal bitte eine ernsthafte Aussage bzgl. des Preises
 
Solange keine Konkurrenz gegeben ist, wäre NVIDIA ja mit dem Klammersack gepudert, wenn sie die volle Leistung nicht Häppchenweise für teuer Geld an die ausgehungerten Spieler verteilen.

Mal schauen, was die Zukunft bringt. Ich hoffe Intel und AMD schaffen es den Rückstand weiter zu verkleinern.
 
Ich glaube auch entweder es kommt ein nahezu Vollausbau für Horrende summen (Teurer als beim 4090 Release) weil NV die Chips auch für KI Karten nutzen könnte, oder eine stark beschnittene Karte evtl. nur mit dem 2. besten Chip als 5090. Da AMD ja schon gesagt hat sie wollen den Highend Bereich nicht bedienen kann NV machen was sie wollen sie müssen halt nur so viel machen das Sie vor AMD und der eigenen 4090 sind was dann ja nicht schwer ist wenn die Konkurrenz fehlt.
 
Also bei der Effizienz und Leistung der 4080 werde ich die nächste Gen wohl auslassen, außer die wird wieder so extrem gut,
das wär unrealistisch, die Fortschritte in der Fertigung werden immer kleiner.
Sofern Nvidia mit der hypothetischen Geforce 6xxxx nicht auf den ebenso (hyppothetisch guten) Intel High NA 18A wechselt, werden die Sprünge immer kleiner, zumindest beim Rastern
dann könnte ich schwach werden. Aber bisher sehe ich nix am Horizont, was eine 4080/4090 in die Knie zwingt.
das kommt quch erst mit der näcgsten Konsolengeneration. Cyberpunk 2077 ist halt so ein Titel, der im Moment die Ausnahme bildet die dann zur Regel wird
FG läuft so gut, dass ja selber Cyberpunk mit Path Traycing absolut kein Problem ist. Und ohne Pathtraycing und mit RT Ultra hängst du permanent im 120FPS Cap bei etwas über 200 Watt Verbrauch. Ein Träumchen.
muss man halt fair sein und auch die Nachteile ansehen. Pathtracing läuft im Moment noch mit wenig bounces in einem Spiel, das zwar schön ist, aber durchaus mehr Details (Leben, Menschen...) haben könnte und sann mit FG, das ja auch nur zwischen echten Frames interpoliert - mit den einhergehenden Nachteilen (inputlag, smearing...)
Dann mach mal bitte eine ernsthafte Aussage bzgl. des Preises
wie hoch ist denn der Preis der 4090 im Vergleich zum Vorgänger?
 
Da fällt einem das warten irgendwie schwer. Meine 4090 läuft derzeit stark undervolted, mit lediglich 290w Powertarget und leicht reduzierten Takt immer noch bei 93% der ursprünglichen Leistung. Ich hoffe mit der 5090 ist noch mehr Effizienz drin.
 
Zuletzt bearbeitet:
Zurück