News Geforce RTX 5090 ("Blackwell") mit 2 × 16-Pin? Wohl eher nicht!

PCGH_Sven

PCGH-Autor
Die Geforce RTX 5090 könnte möglicherweise gleich zwei 12VHPWR-Stromanschlüsse der 2. Generation ("12V-2×6") besitzen, so munkelt man in der Gerüchteküche. Doch ist das überhaupt realistisch? PCGH ordnet das Thema einmal entsprechend ein.

Was sagt die PCGH-X-Community zu Geforce RTX 5090 ("Blackwell") mit 2 × 16-Pin? Wohl eher nicht!

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
2x 16 Pin, das will ich sehen. Die 600 vom Stecker plus die 75 ausm Slot sollten locker ausreichen. Wohl auch für eine 5090ti, welche eh nicht erscheinen wird.
 
Es macht kein Sinn das nvidia einen 823mm² chip am desktop bringt wenn doch dürfte es sich um cowos produzierte chips sein die einen Si 420mm² DIE mit eine oben darauf n4 und 216 sm DIE.
Dann würde der chip etwa 215$ kosten hat aber den Nachteil das man Kapazitäten von cowos braucht und das der Takt nicht höher gehen kann als 2,2ghz.
Macht am ende +15% vs rtx4090 mit 160sm bei 1499$ mit 28gb gddr7.
Diese Idee zwingt nvidia zu mehreren Masken Si und alu daher dürfte es nur 3 geben 512bit 256bit und alu da machen die geteilten alu Blöcke Sinn wenn man die alu Maske halbierte chips ermöglicht.

Und die kleinen chips sind Monolithen quasi ada refresh mit gb205 192bit und gb206 128bit in samsung sf4 node 2,3ghz ich vermute sogar das nvidia die Kleinen sogar noch später bringt da man auf 24gbit chips abwarten will
Sprich gb205 rtx5060ti 50sm 18gb +48% 450$ q4 2025
gb205 40sm rtx5060 15gb +61% 400$ q4 2025
gb206 laptop only 34sm rtx5060m 8gb q1 2025
gb207 laptop only 16sm rtx5050 8gb q1 2025
 
Hauptsache, die Mehrleistung gegenüber der 4090 liegt wieder im oberen zweistelligen Prozentbereich, sonst können se ihre 5090 behalten.
Ich zahle ja gern für neuen, heissen Shit, aber die halbe Kuh zum Preis einer ganzen mach ich nicht mit.
Jetzt, wo AMD sich aus dem Rennen um die Krone zurückgezogen hat, glaubt die Lederjacke wohl, sich alles erlauben zu können.
Sie kommt dann mit 3× 16-Pin!
1875W.. Shit. Dann brauch ich wohl doch das neue 2.2KW Netzteil von Seasonic..
 
Wer das Geld für die 5090 aufbringt wird sich um die Stromkosten wohl eher weniger sorgen maachen nur der

Preis für die 5090 wird höher sein :-)
 
Hauptsache, die Mehrleistung gegenüber der 4090 liegt wieder im oberen zweistelligen Prozentbereich, sonst können se ihre 5090 behalten.
Ich zahle ja gern für neuen, heissen Shit, aber die halbe Kuh zum Preis einer ganzen mach ich nicht mit.
Wenn sich der Cut Down (und halleluja was für einer...) von sage und schreibe 25%! :ugly::ugly: bewahrheitet, dann würde es mich wundern wenn die 5090 schneller als 25% wäre.
Bekomme gerade 1080Ti -> 2080Ti flashbacks :D

Bei der 4090 zum Vollausbau waren es "nur" 11,1%.
 
Ich vermute dass die Einsteigerdesigns einen Stecker und die (Hardcore) OC Varianten 2 Stecker haben.

Gibt ja schon ne 4090 mit 2x12VHP Stecker.
 
Ist ja immernoch 50% mehr Shader.
Dazu ein wenig mehr Takt und VRAM Takt/Bandbreite und die 50% mehr Performance sind immernoch drin.
 
2x 16 Pin, das will ich sehen. Die 600 vom Stecker plus die 75 ausm Slot sollten locker ausreichen. Wohl auch für eine 5090ti, welche eh nicht erscheinen wird.

Richtig, zumal NVIDIA dafür keine Veranlassung mehr haben wird, wenn nicht heimlich das sehr angeschlagene INTEL mit irgend einer SuperUltra Arc 6000 schlagmichtot um die Ecke kommt, die alles wegballert 😅

AMD hat ja kein Bock mehr.

Auf jeden Fall interessante Aussichten für schmale Geldbeutel. Nicht.
 
2x 16 Pin, das will ich sehen. Die 600 vom Stecker plus die 75 ausm Slot sollten locker ausreichen. Wohl auch für eine 5090ti, welche eh nicht erscheinen wird.

Wenn, dann für extremes OC.

Sie kommt dann mit 3× 16-Pin!

4 Stück und nur einer ist angeschlossen. Genauso wie sich einige ein paar nutzlose Rohre neben den Auspuff schweißen, um ihre Möchtegernprotzkarre aufzumotzen.
 
Richtig, zumal NVIDIA dafür keine Veranlassung mehr haben wird, wenn nicht heimlich das sehr angeschlagene INTEL mit irgend einer SuperUltra Arc 6000 schlagmichtot um die Ecke kommt, die alles wegballert 😅

AMD hat ja kein Bock mehr.

Auf jeden Fall interessante Aussichten für schmale Geldbeutel. Nicht.

Leider haben wir genau die Situation die sich seit Jahren abgezeichnet hat :/ Schade aber was will man halt machen. Als Konsumer kann man keine Konkurrenzkarten aus dem Hut zaubern :D
 
Als Konsumer kann man keine Konkurrenzkarten aus dem Hut zaubern
Als Consumer muss man froh sein, wenn man in Zukunft überhaupt noch bedient wird. Ich meine mich zu erinnern, dass US-Großbanken nVidia schon nahegelgt haben, sich aus dem Grafikkartenmarkt für Endanwender komplett zurückzuziehen, da die Sparte im Vergleich zu KI kaum rentabel ist und man die freiwerdenden Kapazitäten lieber dort nutzen solte, um den Gewinn zu maximieren.

Über kurz oder lang seh ich das wirklich kommen, denn die Shareholder erwarten weiter fette Renditen.
 
Jede neue Generation von Grafikkarten braucht immer mehr Strom. Die Entwickler sollten sich mal Gedanken machen in die entgegengesetzte Richtung zu entwickeln, aber trotzdem die Leistung zu erbringen. Irgendwann kann man das gar nicht mehr im privaten Bereich kühlen, weil die TDP enorm hoch ist. Außerdem ist das Verhältnis von Nutzen und Strompreis Politik derzeitig konträr. Solar Energie außer acht gelassen gesehen.
 
Als Consumer muss man froh sein, wenn man in Zukunft überhaupt noch bedient wird. Ich meine mich zu erinnern, dass US-Großbanken nVidia schon nahegelgt haben, sich aus dem Grafikkartenmarkt für Endanwender komplett zurückzuziehen, da die Sparte im Vergleich zu KI kaum rentabel ist und man die freiwerdenden Kapazitäten lieber dort nutzen solte, um den Gewinn zu maximieren.

Über kurz oder lang seh ich das wirklich kommen, denn die Shareholder erwarten weiter fette Renditen.

Ganz ehrlich ?
Gerne, dann zieh Leine NVIDIA. Wenn es einen Maekt für GPUs gibt, wird es auch Lieferanten geben. Dann begnügen wir uns mit AMD und INTEL. Oder nem ganz anderen?

Die Welt sah in den 90er mit 3dfx auch anders aus als heute und wir bekamen auch geile Grafikmonster.

Was am Ende mein Geld bekommt, ist mir egal - solange das Produkt stimmt. 😉
 
Zurück