News Geforce RTX 5090 ("Blackwell") mit 2 × 16-Pin? Wohl eher nicht!

Dann begnügen wir uns mit AMD und INTEL.

Damit die Entwicklung der Spiele-Grafik dann völlig zum Stillstand kommt? Ne danke... AMD hatte schon verkündet, die wollen kein High End mehr bringen und bis bei Intel überhaupt an vergleichbare High Ende Hardware zu denken ist, vergeht auch noch mindestens ein Jahrzehnt. Im Sinne des Fortschritts bei Spiele-Grafik kann man sich eigentlich nur wünschen, dass die grünen mal bitte schön weiter entwickeln, auch wenn die Preise überhaupt keinen Spaß mehr machen.
 
Jede neue Generation von Grafikkarten braucht immer mehr Strom. Die Entwickler sollten sich mal Gedanken machen in die entgegengesetzte Richtung zu entwickeln, aber trotzdem die Leistung zu erbringen. Irgendwann kann man das gar nicht mehr im privaten Bereich kühlen, weil die TDP enorm hoch ist. Außerdem ist das Verhältnis von Nutzen und Strompreis Politik derzeitig konträr. Solar Energie außer acht gelassen gesehen.
Die karten werden auch immer effizienter. Kauf halt einfach eine Karte die deiner TDP(watt) klasse entspricht.
Bei Ca 250 Watt bleiben die ganzen 70 karten von Nvidia.
Oder halt einfach UV, betreiben. Die Fette 4090 ist sehr effizient, mit UV sogar noch mehr.
 
Custom Designs mit 2x blöden 16Pin (12VHPWR) wird es auf jeden Fall geben.

Das Trauerspiel geht weiter. :/
Na ich hoffe nur das Nvidia ihre Unfähigkeit, was das Problem verursachte und massig Schaden anrichtete, nun endlich beheben konnte ohne das man da Kabel x Zentimeter nicht biegen kann!

Das ist eigentlich das Schlimmste an der ganzen News...

(Will haben JETZT!!!)
Dann bau dir doch einfach eine. :ugly: :devil:
 
Shit, ich hatte gehofft, die würden von der 16 Pin Lösung wieder weggehen und die alten Anschlüsse nutzen.
Roman Hartung hat dazu ein ziemlich gutes Video gemacht und aufgezeigt, dass auch die neuen 16 Pin eigentlich Schrott sind und ziemlich unzuverlässig, zudem mit wenig Reserven - im Gegensatz zur alten 6/8 Pin Lösung....
 
Roman Hartung hat dazu ein ziemlich gutes Video gemacht und aufgezeigt, dass auch die neuen 16 Pin eigentlich Schrott sind
Keine neue Erkenntnis ;)
Nur wurden ja auch Netzteile schon mit dem neuen Stecker versehen. Das hat sich leider schon durchgesetzt.
Verstehe wer will. Warum nicht einfach den gleichen Pitch der PINs behalten und gut.

"Komm wir machen weniger PINs für MEHR Leistung und packen die noch dichter um Platz zu sparen.
Ich mein, what could go wrong?!"


kA wie die das damals beschlossen haben. Oder welche Substanzen dabei konsumiert wurden.
 
Na ich hoffe nur das Nvidia ihre Unfähigkeit, was das Problem verursachte und massig Schaden anrichtete, nun endlich beheben konnte ohne das man da Kabel x Zentimeter nicht biegen kann!
Hab ich irgendwas nicht mitbekommen?
Hat NVidia der PCI-SIG mit vorgehaltener Knarre aufdiktiert, den Stecker in den PCI Standard aufzunehmen?
Oder wie stellst du dir das in deiner Gedankenwelt vor?!
Bislang bin ich nämlich davon ausgegangen, dass die Initiative zur Entwicklung des Steckers von der PCI-SIG ausging und NVidia lediglich entschieden hat, anstatt den alten in die Jahre gekommen PCIe Stecker weiter zu benutzen, stattdessen den neueren, verbesserten Stecker zu verwenden, der genau so Teil des PCIe Standards ist.
Wer mit passiv agressiven Schuldzuweisungen um sich wirft, sollte besser auf den richtigen zielen.
Dann bau dir doch einfach eine. :ugly: :devil:
Danke für diesen wertvollen Beitrag.
 
Hab ich irgendwas nicht mitbekommen?
Hat NVidia der PCI-SIG mit vorgehaltener Knarre aufdiktiert, den Stecker in den PCI Standard aufzunehmen?
Oder wie stellst du dir das in deiner Gedankenwelt vor?!
Bislang bin ich nämlich davon ausgegangen, dass die Initiative zur Entwicklung des Steckers von der PCI-SIG ausging und NVidia lediglich entschieden hat, anstatt den alten in die Jahre gekommen PCIe Stecker weiter zu benutzen, stattdessen den neueren, verbesserten Stecker zu verwenden, der genau so Teil des PCIe Standards ist.
Wer mit passiv agressiven Schuldzuweisungen um sich wirft, sollte besser auf den richtigen zielen.
Es ist doch unerheblich ob nun Nvidia oder PCI-SIG diesen Port gebaut hat. Am Ende ist Nvidia dafür verantwortlich das ihre Karten funktionieren!
 
Zurück