News Nvidia B200 ("Blackwell"): Dell bestätigt Start in 2025 und deutet eine 1000-Watt-GPU an

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia B200 ("Blackwell"): Dell bestätigt Start in 2025 und deutet eine 1000-Watt-GPU an

Dell Technologies hat den Start von Nvidia B200 ("Blackwell") für das Jahr 2025 bestätigt und deutet dabei die Möglichkeit einer "1000-Watt-GPU" an, die sich auch ohne eine direkte Flüssigkeitskühlung bändigen lassen soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia B200 ("Blackwell"): Dell bestätigt Start in 2025 und deutet eine 1000-Watt-GPU an
 
Nun 1000W für die Server GPU mag vieleicht nicht viel sein.
Und das Jahr 2025? Nun möglicherweise kommen andere die GPUs viel früher und erst 2025 ist Dell an der Reihe.
Schließlich gibt es eine Warteliste.
 
1kW per GPU, klingt als ob es erstmal nicht weiter geht, beim Verkleinern der Halbleiterstrukturen. Interessant.
 
Nun 1000W für die Server GPU mag vieleicht nicht viel sein.
Und das Jahr 2025? Nun möglicherweise kommen andere die GPUs viel früher und erst 2025 ist Dell an der Reihe.
Schließlich gibt es eine Warteliste.
Im Kontext zu anderen Gerüchten dürfte 2025 schon passen. Ich rechne nur mit einer vorgestellten 5090, vielleicht noch 5080. Aber echten Lunch vielleicht noch November... Gute Verfügbarkeit usw. aber sicher nicht vor Jan. - März.


Wenn man die damals gepeakten 900W Gerüchte zur 4090 heran zieht, könnte man ja stumpf erstmal, plus rund 10% annehmen. Also um 480W.
 
1kW per GPU, klingt als ob es erstmal nicht weiter geht, beim Verkleinern der Halbleiterstrukturen. Interessant.
Nö, eher im Gegenteil, kommt weitaus mehr ClickBait nahe als irgendwas, das man als News bezeichnen könnte.
Ohne zusätzliche Informationen zu dem Design ist die Aussage relativ wertlos. Was hier relevant ist, ist Performance pro Watt. Wenn diese Metrik stimmen würde, könnte nVidia auch ein 5kW-Design anbieten, es würde dann schlicht weniger "GPUs" pro Rack geben und die Racks wären dann dennoch deutlich leistungsfähiger als ihre Vorgeneration.
Irgendwo im Äther kombiniert irgendwer einen mehr oder minder brauchbaren Informationsschnipsel mit dem Begriff "Blackwell" und schon haben alle nur noch die Klicks in den Augenwinkeln und kaum einer sieht sich da imstande sich einfach mal in vornehmer Zurückhaltung zu üben. :-(
 
Im Kontext zu anderen Gerüchten dürfte 2025 schon passen. Ich rechne nur mit einer vorgestellten 5090, vielleicht noch 5080. Aber echten Lunch vielleicht noch November... Gute Verfügbarkeit usw. aber sicher nicht vor Jan. - März.


Wenn man die damals gepeakten 900W Gerüchte zur 4090 heran zieht, könnte man ja stumpf erstmal, plus rund 10% annehmen. Also um 480W.
Hier gehts um den Serverchip GB100.

H200 (welche auf dem Servechip GH100 basiert) frisst auch bis 700W
 
Also, ich weiss nicht woher die Energie zukünftig kommen soll. Unsere Ressourcen werden immer knapper, Alternativen gibt es keine zu Atom, Gas und Öl, da regenerative zu hohe Schwankungen aufweisen. Ich mein 1000 Watt sind jetzt für den einzelnen nicht die Welt, aber solche Serverfarmen brauchen dann eigene AKWs…
 
So sehr 1000W wie es 600W bei der 450W 4090 war die im Average bei 300W bei mir läuft wenn ichs mal übertreiben will ?

Gibt aber sicher "clicks" und "engagement". :rolleyes: :daumen:
 
Wurde nicht mal vor einiger Zeit ,Gesetze (EU weit))verabschiedet, die gegen so einen hohen Stromverbrauch sind? Da ging es sogar nur um 400-500 Watt.

Es gibt eine Verordnung, die den Verbrauch von Komplett PCs regelt, das ist auch sehr sinnvoll gelöst.

Es bezieht sich auf dem Verbrauch im Leerlauf und im Bereitschaftsmodus. Das animiert die Hersteller dazu, dort sparsamer zu werden und da fällt auch der meiste Verbrauch an. Der Verbrauch unter Last wird dort nicht geregelt, wie gesagt, sinnvoll gelöst. Außerdem wird ein Netzteil, mit einem Wirkungsgrad von mindestens 85% benötigt. Das ganze ist gestaffelt, sodass es für zusätzliche HDDs oder auch Grakas einen Bonus gibt, sodass die Systeme mehr verbrauchen können.

Es gibt ferner noch einige Ausnahmen, bei denen die Regulierung nicht mehr greift und mit denen der Rechner soviel verbraten kann, wie er will. Nur noch die Energieeffizienklasse muß ausgewiesen werden.

Dafür muß einer der folgenden Punkte erfüllt werden (stand 2012, heute kann es anders sein):
- CPU mit 5 Kernen oder mehr
- 16GB RAM oder mehr
- 320GB/sec Speicherbandbreite auf allen GPUs (auch SLI/CF Systeme wurden bedacht) oder mehr
- 1000W Netzteil oder stärker

Da werden heute wohl andere Grenzen gelten. Aber wie gesagt: das bezieht sich auf Komplettsysteme. Wenn du deinen PC aus Einzelteilen baust, dann kannst du da Problemlos eine RX 7900XTX, die im Leerlauf ordentlich was verheizt oder ein Chinaböllernetzteil, mit 60% Wirlkungsgrad verbauen. Die EU verbietet einem da nichts und das ist auch gut so.

Wie das Glühbirnenverbot, die Staubsaugerverordnung und einige andere ist das sehr sinnvoll und auch gut umgesetzt, auch wenn man über Details hätte reden können.

Also, ich weiss nicht woher die Energie zukünftig kommen soll. Unsere Ressourcen werden immer knapper, Alternativen gibt es keine zu Atom, Gas und Öl, da regenerative zu hohe Schwankungen aufweisen. Ich mein 1000 Watt sind jetzt für den einzelnen nicht die Welt, aber solche Serverfarmen brauchen dann eigene AKWs…

Nicht überall ist man so dumm, wie in Deutschland. Global gesehen ist das kein großes Problem: Kernkraft oder erneuerbare. In Deutschland wird wohl noch 25 Jahre dauern, dann wird sich eventuell auch hier die Einsicht durchsetzen, dass Kernkraft doch ein guter Kompromiss ist.
 
Alternativen gibt es keine zu Atom, Gas und Öl, da regenerative zu hohe Schwankungen aufweisen.

Google mal nach "Energiespeicher".

In Deutschland wird wohl noch 25 Jahre dauern, dann wird sich eventuell auch hier die Einsicht durchsetzen, dass Kernkraft doch ein guter Kompromiss ist.

Kernkraft ist ein denkbar schlechter Kompromiss, in so ziemlich jeder Hinsicht. Nicht nur, dass diese extrem gefährlich ist, v. a. ist sie auch extrem teuer und würde ohne massive staatliche Subventionen kaum wirtschaftlich betrieben werden können. Mal ganz davon abgesehen, dass diese Form der Energieproduktion auch viel dreckiger ist als man meinen könnte, schließlich muss das Spaltmaterial ja irgendwo aus dem Boden geholt werden, über die halbe Welt transportiert werden und dann auch erst noch angereichert werden, bevor es in den Reaktor kann. Ein gerne übersehenes Problem ist auch, dass so ein AKW riesige Mengen an Kühlwasser benötigt, was angesichts zunehmender Wasserknappheit infolge der immer häufiger auftretenden Dürren ein großes Problem ist. Und wo der über hunderttausende bis Millionen von Jahren hochradioaktive Müll hin soll, ist auch eine ziemlich gute Frage. Bei dir in den Garten?

Atomkraft ist eine stark veraltete Technologie aus dem 20. Jahrhundert und hat im 21. Jahrhundert aufgrund unseres technologischen Fortschritts im Bereich der regenerativen Energien längst ausgedient. Dumm wäre es tatsächlich, weiter auf diese in der heutigen Zeit völlig unsinnige Technologie zu setzen.
 
Zuletzt bearbeitet:
RTX 5090 mit 2x 12VHPWER mit der doppelten Chance zum Fackeln (duck und weg :lol:)
Was tust du denn? Jetzt mach doch das Fass nicht auch noch auf!
Gleich ist hier wieder zu. Oder ist das ein Trick um das Thema von der Energiepolitik weg zu bekommen? Dann, gut gemacht. :nicken:

Es ist wie schon von @gerX7a beschrieben erstmal gar keine Information enthalten, außer dass ein Vertreibender meint wann es los geht. Der Rest ist nach aktuellem Kenntnisstand nicht brauchbar einzuordnen.
 
Na kann sich noch wer an die die letzten Voodoo Karten von 3dfx erinnern, die mit eigenem externen Netzteil kamen? Habe so ein Gefühl der Kreis schließt sich wieder.
 
Wichtig ist doch die Frage im welchem Verhältnis sind diese 1000W, wenn es letztendlich effizienter wird und
die Rechenleistung spezifisch höher ist, ist es doch egal, ob eine GPU die 1000W verbraucht oder 3 GPU´s
Die Leistung pro Watt ist für mich wichtiger
 
Zurück