News Nvidia Geforce RTX 5000: Blackwell schon wieder mit neuen Stromsteckern?

Echt jetzt?

Ich meine, ich kann den Wunsch nach einem Stecker für alles ja nachvollziehen! Allerdings ist das NV Marketing echt schlecht, wenn sie jetzt meinen, dass die Umbenennung des Steckers marketingtechnisch noch irgendwen abholt (außer unseren guten Blackvodoo). Generell fühlt sich die Steckernorm gerade so ein bischen an wie die USB-3 Welt, irgendwie heißt alles gleich und man braucht ein Examen um den Unterschied feststellen zu können.

In meinen Augen kann Nvidia da machen was sie wollen (und mittlerweile sehe ich dann auch Nvidia als verantwortlich); der Standard bleibt auf Kante genäht und um Ende russisches Roulette. So lange man auf dem Molex MicroFit Design bleibt, ist alles oberhalb von 450W "eng". Das zeigen die aktuellen Stecker und das wird auch der neue Standard nicht beheben können.

Wenn Sie es wenigstens schaffen würden, den Stecker mit einer "geplanten" Abschaltvorrichtung zu versehen (CableMod Prototyp bei Igor) wäre die Messe wahrscheinlich gelesen und da es nunmal nur in Ausnahmefällen dazu kommt, wäre somit alles sicher und niemand würde mehr irgendwas melden können. Allerdings würde man damit dann eingestehen, dass der Standard gescheitert ist,
Denn ich wette darauf, dass in Kürze Netzteile ohne 8-PIN PCIe Kabel auf dem Markt sein werden.
Kann ich mir nicht vorstellen, auch wenn der Gedanke kommen mag. In dem Bereich (600W GPUs) sind nahezu ausschließlich Freaks unterwegs, die ohnehin gute und brauchbare Netzteile haben, die dazu noch voll modular sind. Da werden die Hersteller einen Teufel tun und die 6/8 PIN GPU Stecker weglassen.
 
Irgendwie verstehe ich manchmal diesen Unterton von PCGH seitens der Leistungsaufnahme nicht. Selbst die 4090 ist im Verhältnis zur gebotenen Leistung eine sparsame Karte zur Vorgängergeneration.
...
Ich halte die PCGH 01/2024 vor mir und die Bilder auf den Seiten 44 und 45 sind da relativ eindeutig ...
 
Hoffentlich wird es mit dem neuen Stecker nicht so ein Desaster wie mit dem 12V-HPWR Anschluss.
Alles was mit diesem Stecker zutun hat, ist einfach abgrundtief schlecht ausgearbeitet, als ob sich drei Praktikanten das ausgedacht hätten...
Bestehen die Probleme nicht nur bei der RTX4090? Zumindest hab ich nur davon gehört. Bei der RTX4080 abwärts gab es mit dem Stecker keine Probleme.
 
Ich bin da eher bei Fertigrechnerherstellern. Und die sparen an jedem Cent. Darum also Netzteile mit mehr als einem 12V-2×6 bauen, wenn man damit alle Grafikkarten anschließen kann? Die Forderung wird kommen.
Mag sein, aber ich denke, dass dies ohnehin schon alles recht "individuell" ist und fraglich ob ein 12V-2-6 djfgsdjhfgdjshf Gedöhns, nicht am Ende deutlich teurer ist, als je nach Rechner zu konfigurieren. Die Hersteller verbauen ja dennoch nicht nur ein Netzteil und bereits heute hast du "Diversifizität" in diesen Fertigteilen. Hab bspw. zwei HP Z2 G9 hier stehen, einer hat eine GPU ab Werk bekommen, mit 6 PIN Stecker, beim anderen fehlt der 6 PIN am Netzteil einfach komplett.

Daher denke ich, dass es egal ist und ein Kabel zuviel bereits teurer ist, als zu wählen welche Kabel man braucht.
Bestehen die Probleme nicht nur bei der RTX4090? Zumindest hab ich nur davon gehört. Bei der RTX4080 abwärts gab es mit dem Stecker keine Probleme.
Ja und auch da häufen sich die Probleme aktuell eher auf den ASUS Derivaten. Allerdings ist auch klar, dass ein Stecker eher bei dem MaxAusbau und maximalen Verbrauch an seine Grenzen kommt. Bei der 4080 hat der Stecker ja quasi die gleichen Reserven wie der alte 8 PIN Salat, einfach weil die GPU kaum über 300W kommt. Nur bei der 4090 kann man je BIOS und je manuellem Nachhelfen in die absurden Bereiche kommen, wo der Stecker ins schwitzen kommt.
 
Ja und auch da häufen sich die Probleme aktuell eher auf den ASUS Derivaten. Allerdings ist auch klar, dass ein Stecker eher bei dem MaxAusbau und maximalen Verbrauch an seine Grenzen kommt. Bei der 4080 hat der Stecker ja quasi die gleichen Reserven wie der alte 8 PIN Salat, einfach weil die GPU kaum über 300W kommt. Nur bei der 4090 kann man je BIOS und je manuellem Nachhelfen in die absurden Bereiche kommen, wo der Stecker ins schwitzen kommt.
Also entstehen die Probleme eher unter einer vollausgelasteten RTX4090, die man zusätzlich noch übertaktet hat?
 
Nur weil ein paar Daus zu blöd waren/sind ist nVidia nun gezwungen den Stecker zu ändern. So wird eher ein Schuh draus.
:ka:
naja man kann sich in den USA ggf. echt die Finger verbrennen wenn es nicht 100% Monkey proof ist.

Aber wie weit soll man alles nur für ~Experten lassen.
Wenn ich an meinem ersten PC zurückdenke (ISA, IRQ am MoBo + Karten, kein Plug & Play, für alles! einen eigenen Treiber...) finde ich den heutigen Stand der Technik auch als ~Semi mehr als gut.
 
NVidia soll einfach mal wieder ordentliche, stromsparende Grafikkarten unter 300 Watt anbieten, so einfach ist die Lösung des Ganzen.
Eine Rückbesinnung auf die legendäre 1000er Ära und die Sache ist geritzt.
Mit etwas UV zieht ne 4080 nie über 300 Watt. Wäre der Preis nicht so vermurkst gewesen beim Launch, wäre die Karte sicherlich nicht son Nischenprodukt geworden.
 
Irgendwie verstehe ich manchmal diesen Unterton von PCGH seitens der Leistungsaufnahme nicht. Selbst die 4090 ist im Verhältnis zur gebotenen Leistung eine sparsame Karte zur Vorgängergeneration. Wenn jetzt also die Leistung steigt und wir etwas mehr verbraten, sehe ich das nicht als kritisch an. So ist nun einmal der Werdegang. Früher hatte mal viel Leistung in Autos mit viel Verbrauch. Heute hat man viel Leistung bei weniger Verbrauch.

Und ansonsten ist das Thema das Steckers halt echt ausgelutscht. Hatte nie Probleme damit wie auch zig andere. Und GN hat gezeigt was das Problem ist und das saß halt in den meisten Fällen vorm Gehäuse. Unglückliches Design hin oder her.
Dann gehörst du also zu der Sorte Käufer, der jedes Mal ohne mit der Wimper zu zucken auch für 50% Mehrleistung, 50% Mehrverbrauch dann auch bereitwillig 50% Aufpreis zahlt?
Dein Logik ist echt stumpfsinnig.
So funktioniert das in der Wirtschaft eben NICHT.
Das ist eine unsachgemäße Spirale einseitig in eine Richtung.
Man muss schon auf ein homogenes Gleichgewicht oder sogar eine Verbesserung hinarbeiten wollen.
Nur weil in einem Land der Sprit so billig ist, muss man ja nicht 30L-Autos als neuen Maßstab nehmen wollen, nur weil man es kann.
2016 haben wir uns über 250W Klopper aufgeregt, dann kam der 350 Watt Klopper, nun der 450 Watt Klopper, nächstes Jahr vielleicht ein 550Watt Klopper.
Merkst du was?
Nur weil jemand dämlicherweise eine viel zu stromdurstige Grafikkarte für den Weltmarkt produziert, mus sja nicht der rest sich daran anpassen udn alles drum herum neu erfinden, damit die rechnung irgendwie wieder aufgeht.
Eigentlich mus ssich der Produkzenz, also NVidia, an die gegebenheiten anpassen, was vorhanden ist.
 
Gebe auch mal meinen Senf dazu :D
1. Ja, ein Konsortium von AMD, NV, Intel u.a. hat so einen Stecker beschlossen. Heißt das jetzt, das man Diesen auch bauen und verwenden muß? Klares "Nein"! Genau das ist immer das Totschlagargument bestimmter User.
2. Ist diese Steckverbindung zwingend nötig oder wird zwingend benötigt? Klares "Nein"!
3. Könnte man den Stromanschluß auf der/dem GPU/PCB so verlegen, das man mit und ohne Raiserkabel keinerlei Anschlußproblematiken in Kauf nehmen muß? Klares "Ja"!

Und nun zur großen Frage? Wer hat Schuld (sehr beliebtes Spiel in DE)?
- Der Dau vorm Rechner (ist nicht vom Fach)?
- Die Mitglieder, welche es beschlossen haben(sind meistens Bürokraten mit null Ahnung)?
- der, der es umsetzt(Ingenieure und Vergleicbares)?
Gruß T.
 
Dann gehörst du also zu der Sorte Käufer, der jedes Mal ohne mit der Wimper zu zucken auch für 50% Mehrleistung, 50% Mehrverbrauch dann auch bereitwillig 50% Aufpreis zahlt?
Dein Logik ist echt stumpfsinnig.
So funktioniert das in der Wirtschaft eben NICHT.
Das ist eine unsachgemäße Spirale einseitig in eine Richtung.
Man muss schon auf ein homogenes Gleichgewicht oder sogar eine Verbesserung hinarbeiten wollen.
Nur weil in einem Land der Sprit so billig ist, muss man ja nicht 30L-Autos als neuen Maßstab nehmen wollen, nur weil man es kann.
2016 haben wir uns über 250W Klopper aufgeregt, dann kam der 350 Watt Klopper, nun der 450 Watt Klopper, nächstes Jahr vielleicht ein 550Watt Klopper.
Merkst du was?
Nur weil jemand dämlicherweise eine viel zu stromdurstige Grafikkarte für den Weltmarkt produziert, mus sja nicht der rest sich daran anpassen udn alles drum herum neu erfinden, damit die rechnung irgendwie wieder aufgeht.
Eigentlich mus ssich der Produkzenz, also NVidia, an die gegebenheiten anpassen, was vorhanden ist.

Sprichst Du da von RDNA3? Denn Ada kannst Du nicht meinen, die sind durchweg sparsamer oder gleichauf (Stromverbrauch) mit ihren Ampere Pendants und liefern DEUTLICH mehr Leistung ab.
 
Ich halte die PCGH 01/2024 vor mir und die Bilder auf den Seiten 44 und 45 sind da relativ eindeutig ...
Du nimmst jetzt Bezug auf die Leistungsaufnahme? Ja da kann ich nur auf Igors Daten dazu verweisen. Ich finde die auch relativ eindeutig. GN hatte glaube ein ähnliches Bild gemalt.
Dann gehörst du also zu der Sorte Käufer, der jedes Mal ohne mit der Wimper zu zucken auch für 50% Mehrleistung, 50% Mehrverbrauch dann auch bereitwillig 50% Aufpreis zahlt?
Dein Logik ist echt stumpfsinnig.
So funktioniert das in der Wirtschaft eben NICHT.
Das ist eine unsachgemäße Spirale einseitig in eine Richtung.
Man muss schon auf ein homogenes Gleichgewicht oder sogar eine Verbesserung hinarbeiten wollen.
Nur weil in einem Land der Sprit so billig ist, muss man ja nicht 30L-Autos als neuen Maßstab nehmen wollen, nur weil man es kann.
2016 haben wir uns über 250W Klopper aufgeregt, dann kam der 350 Watt Klopper, nun der 450 Watt Klopper, nächstes Jahr vielleicht ein 550Watt Klopper.
Merkst du was?
Nur weil jemand dämlicherweise eine viel zu stromdurstige Grafikkarte für den Weltmarkt produziert, mus sja nicht der rest sich daran anpassen udn alles drum herum neu erfinden, damit die rechnung irgendwie wieder aufgeht.
Eigentlich mus ssich der Produkzenz, also NVidia, an die gegebenheiten anpassen, was vorhanden ist.

Ich betreibe die 4090 mit einem 5800X3D und einem 600W Netzteil. Dämlich ist einzig deine Sicht der Dinge. Wenn du dich mit dem Thema Effizienz nicht auseinandersetzen möchtest, ist das nicht mein Problem. Und nimm dir mal in deiner Rage etwas mehr Zeit für Rechtschreibung. Ist echt schwierig das zu lesen. Und wer hat gesagt das ich Sofortkäufer war? Und selbst, was ändert das am Sachverhalt? Rein gar nichts. Genau. Nur weil du nicht bereit bist für Leistung zu zahlen, ist das nicht mein Problem. Dein Vergleich ist auch so dermaßen schlecht mit den Autos, dass es echt jegliche weitere Diskussion mir dir direkt beendet. Schönes Restleben noch.
 
So geht Entwicklung bzw. Forschritt. Wer nicht wagt, der nicht gewinnt. Fehler passieren immer mal. Daraus lernt man dann und macht es beim nächsten Mal besser.
 
NVidia soll einfach mal wieder ordentliche, stromsparende Grafikkarten unter 300 Watt anbieten, so einfach ist die Lösung des Ganzen.
Eine Rückbesinnung auf die legendäre 1000er Ära und die Sache ist geritzt.
Das Problem ist wir stehen bald an einer Wand an, daher dieser Feature push von framegeneration und upscaling. Guck dir die 4090 an in Relation zur 4080, nach den Specs müsste die 4090 um einiges flotter sein als die üblichen 20-35% ist sie aber nicht. Physik hat gesagt, NEIN.

Hubraum kann nur durch mehr Hubraum ersetzt werden. Ohne Treibstoff keine Power.

Bin gespannt, was aus dem reifen MCM Design herauszuholen ist in ein paar Jahren. Aber das monolithische Prinzip hat ausgedient.

Der Nachfolger der 4090 wird nicht viel schneller sein 30% maximal bei ähnlichem oder leicht geringerem verbrauch anders ist das gar nicht möglich vom jetzigem Wissens stand aus.

Rdna 5 und Geforce RTX 6000 Series wird spannend, die nächste Generation wird Sterbens langweilig kann man auslassen außer da passiert noch etwas hinter dem Vorhang aber nein, sehr sehr unwahrscheinlich.

Ja die GTX 1000 Series ist legendär 70%+ bei gleichem verbrauch war heftig, auch die 60er Karte war traumhaft damals nicht der Sondermüll wie heutzutage. Aber damals waren wir auch noch auf 16nm finFET und später Samsungs 14nm finFET.

Sie könnten natürlich auch eine Generation bringen ohne Leistungszuwachs dafür mit weniger verbrauch, aber über das gesamte Stack gesehen unwahrscheinlich. Machen die beiden ja heute schon, siehe 7800XT zur 6800XT. Oder 3060 TI zur 4060 TI.
 
Das Problem ist wir stehen bald an einer Wand an, daher dieser Feature push von framegeneration und upscaling. Guck dir die 4090 an in Relation zur 4080, nach den Specs müsste die 4090 um einiges flotter sein als die üblichen 20-35% ist sie aber nicht. Physik hat gesagt, NEIN.

Hubraum kann nur durch mehr Hubraum ersetzt werden. Ohne Treibstoff keine Power.

Bin gespannt, was aus dem reifen MCM Design herauszuholen ist in ein paar Jahren. Aber das monolithische Prinzip hat ausgedient.

Der Nachfolger der 4090 wird nicht viel schneller sein 30% maximal bei ähnlichem oder leicht geringerem verbrauch anders ist das gar nicht möglich vom jetzigem Wissens stand aus.

Rdna 5 und Geforce RTX 6000 Series wird spannend, die nächste Generation wird Sterbens langweilig kann man auslassen außer da passiert noch etwas hinter dem Vorhang aber nein, sehr sehr unwahrscheinlich.

Ja die GTX 1000 Series ist legendär 70%+ bei gleichem verbrauch war heftig, auch die 60er Karte war traumhaft damals nicht der Sondermüll wie heutzutage. Aber damals waren wir auch noch auf 16nm finFET und später Samsungs 14nm finFET.

Sie könnten natürlich auch eine Generation bringen ohne Leistungszuwachs dafür mit weniger verbrauch, aber über das gesamte Stack gesehen unwahrscheinlich. Machen die beiden ja heute schon, siehe 7800XT zur 6800XT. Oder 3060 TI zur 4060 TI.
Fortschritt bedeutet ja nicht zwingend immer Mehrleistung.
Mir würde eine schöne, überarbeitete Sapphire RX 7900XTXH genügen. Gleiche Leistung aber mit nur 2 Quirlen, kürzerem PCB und einem max. Verbrauch von 250W. Das nenne ich mal ECHTEN Fortschritt.
Gruß T.
 
Zuletzt bearbeitet:
Zurück