News Geforce RTX 5000 ("Blackwell"): Nvidia soll Kühllösungen mit bis zu 600 Watt testen [Bericht]

Dann solltest du mehr PV installieren ;)

Sofern eine 5090 wieder mit zum Effizientestem gehört, soll es mir egal sein.
Also wenn die bei 3nm E von TSMC 600 Watt brauchen, dann läuft da entweder was ziemlich falsch oder das Ding ist ein Benchmark - Monster! 3nm = 10 Atome und ergo nicht mehr zu begreifen in Sachen " Größe"! Vielleicht haben die mit Leckströmen zu kämpfen oder sogar mit Quanteneffekten? Bei der Fertigung powered by Zeiss und ASML wäre das ja denkbar, dass da die Grenzen erreicht werden mit der aktuellen Technik! Und PV installieren soll die Lösung sein ? Ohne potenten Speicher sicher nicht! Und der ist dann sehr teuer habe ich mir sagen lassen!
 
3nm ist ein Eigenname der eine Größe suggerieren soll. Google mal nach tatsächlichen Strukturgrößen der "x nm" Fertigung und staune wie weit die allermeisten echten Größen von den 3nm weg sind. ;-)


Vielleicht haben die mit Leckströmen zu kämpfen oder sogar mit Quanteneffekten?
Das ist Standard seit zig Jahren mit den Effekten klarzukommen.

das ja denkbar, dass da die Grenzen erreicht werden mit der aktuellen Technik!
Die nächsten 20-30 Jahre garantiert nicht.
 
den Strom würd ich gern lieber für was anderes (Haushaltsgeräte, Auto...) verwenden
EcoFlow DELTA Pro EU, tragbare Powerstation reicht für alles.^^
Also wenn die bei 3nm E von TSMC 600 Watt brauchen, dann läuft da entweder was ziemlich falsch oder das Ding ist ein Benchmark - Monster! 3nm = 10 Atome und ergo nicht mehr zu begreifen in Sachen " Größe"! Vielleicht haben die mit Leckströmen zu kämpfen oder sogar mit Quanteneffekten? Bei der Fertigung powered by Zeiss und ASML wäre das ja denkbar, dass da die Grenzen erreicht werden mit der aktuellen Technik! Und PV installieren soll die Lösung sein ? Ohne potenten Speicher sicher nicht! Und der ist dann sehr teuer habe ich mir sagen lassen!
Ich denke an dem Gerücht ist schon was dran , das die bis zu 600 Watt zieht, denn 12VHPWR 600W-Kabel gibts ja nicht umsonst. ;)
 
Zuletzt bearbeitet:
;)

Sofern eine 5090 wieder mit zum Effizientestem gehört, soll es mir egal sein.
Immer dieses Geschwurbel mit der Effizienz. Ein Damoklesschwert für jeden Ingenieur.
Denn bedenke:
1. 600W bleiben trotz höchster Effizienz 600W
2. Die erzeugte Abwärme mit 600W wird duch gestiegene Effizienz nicht gemindert.
3. Ob ich mit 600W 60FPS erreiche oder mit 600W 120FPS. Es sind und bleiben 600W mit all deren physikalischen Nachteilen.
Gruß T.
 
Ziemlich unnötig, vor allem weil die Konkurrenz augenscheinlich bestenfalls mit der nächsten Generation einer 4090 ebenbürtig sein dürfte. Vielleicht denkt sich Nvidia auch einfach nur, wenn AMD 600 Watt gönnt, können wir das schon lange.

Ich denke ja immer noch, dass die Gamer den AI-Abfall bekommen werden. Mit den Gamern verdient man kein Geld mehr. Vielleicht das Topmodell noch für den betuchten Kevin, der halt seine 2K auf der Kante hat. Den jucken dann auch 600 Watt nicht mehr. Aber alles darunter ist technologische Resteverwertung
 
ist wahrscheinlich wie bei der aktuellen gen
aber da AMD nicht richtig geliefert hat brauch man es dann am ende schon wieder nicht
RDNA5 dann hoffentlich
 
3nm ist ein Eigenname der eine Größe suggerieren soll. Google mal nach tatsächlichen Strukturgrößen der "x nm" Fertigung und staune wie weit die allermeisten echten Größen von den 3nm weg sind. ;-)



Das ist Standard seit zig Jahren mit den Effekten klarzukommen.


Die nächsten 20-30 Jahre garantiert nicht.
Ich dachte, dass ist die Wellenlänge mit der die Chips belichtet werden und selbst 54 nm als Gate-pitch bzw. metal pitcht von 24 nm und ergo 180 Atome bzw. 80 Atome sind schon eine Hausnummer finde ich! Intel muss den technologischen Vorteil von TSMC eben mit 188 Watt wieder "gutmachen"! Denn bei 253 Watt können die Prozessoren instabil sein! Oder liege ich da falsch?
 
Immer dieses Geschwurbel mit der Effizienz. Ein Damoklesschwert für jeden Ingenieur.
Denn bedenke:
1. 600W bleiben trotz höchster Effizienz 600W
2. Die erzeugte Abwärme mit 600W wird duch gestiegene Effizienz nicht gemindert.
3. Ob ich mit 600W 60FPS erreiche oder mit 600W 120FPS. Es sind und bleiben 600W mit all deren physikalischen Nachteilen.
Gruß T.
RTX4090 hat eindeutig gezeigt, das Karten die auf bis zu 600W ausgelegt sind gut funktionieren können.

Jedem das seine erstmal.

Wenn XY mit den 600W als Abwärme kein Problem hat, dann ist doch gut. Je nach Aufbau kann ich diese 450-600W sogar ohne Probleme in meinem Meshroom D her werden.


Wichtig ist und bleibt, das die Karte Effizient ist und das ist unabhängig von der Leistungsaufnahme. Erst die erreichte Leistung bringt das Verhältnis.

Niemand wird gezwungen die 5090 zu kaufen. Dazu kommt noch das du, dadurch das 4090 halt effizient war, auch einfach jeden beliebigen Poewerlevel Punkt anwählen kannst und weißt, es ist und bleibt effizient.

Wen soll es also stören, diese Aussagen bedeuten alle eindeutig, das es keine spürbar effizienteren Produkte gibt.

Wer also eine aktuelle GPU mit nur 250W will, aber dennoch 24GB haben will, kauft aktuell halt die 4090 und hat die schnellste und effizienteste Karte mit 250W. 350W auch kein Problem, bliebt alles das selbe.

Ich verstehe den Wunsch nach etwas mehr Vernunft bei den Herstellern. Aber der Zahn der Zeit hat gezeigt, die Leistungsaufnahme steigt. ;)

Beste Grüße
 
Oder liege ich da falsch?
Mit so ziemlich allem. Ja.

Die Wellenlänge der Belichtung hat keinen direkten Zusammenhang mit der Strukturgröße des Wafers (das ist ne Kombination aus zig Parametern) und die Leistungsaufnahme alleine ist nicht der Grund für Stabilität oder Instabilität (das ist ne Kombination aus zig Parametern). Du erkennst ein Muster: All das ist sehr viel komplizierter als "1 Ursache --> 1 Wirkung" ;-)
 
Ich habe mir mal Deine Aktivitäten und Kommentar durchgeschaut ...

Das ist ja nicht zum Aushalten, was Du so von Dir gibst!
Damit gratulliere ich Dir zum diesmonatlichen Sieger-Preis: du bekommst einen Ehrenplatz auf meiner Ignore-Liste :daumen:
Dann könnte man viele auf so eine Liste setzen. Was aber doch auch irgendwie dem Sinn eines Forums widerspricht, oder?

Die Meinungen und Aussagen die mir nicht gefallen, radiere ich nicht weg.
 
Mein Wunsch für die RTX 5090 wäre:
1. 25% mehr Performance gg. RTX 4090
2. max. 350 Watt Stromverbrauch
3. 32 GB Speicher
4. ein sicherer Stromanschluß deren Anschlußkabel nahezu beliebig gebogen werden kann
5. eine UVP von unter 1500 EURO

Mein Traum ist hier zu Ende.
 
Zuletzt bearbeitet:
Mit so ziemlich allem. Ja.

Die Wellenlänge der Belichtung hat keineZn direkten Zusammenhang mit der Strukturgröße des Wafers (das ist ne Kombination aus zig Parametern) und die Leistungsaufnahme alleine ist nicht der Grund für Stabilität oder Instabilität (das ist ne Kombination aus zig Parametern). Du erkennst ein Muster: All das ist sehr viel komplizierter als "1 Ursache --> 1 Wirkung" ;-)
Und welche Parameter spielen dann noch eine Rolle? Z. B. die " Silicon Lottery" ? Oder was noch ? Dann aber wohl zwingend auch " Wie gut funktioniert der Reinraum"? Wie gut ist die von ASML gelieferte Ausrüstung ?
 
@HardwareNoob41 Vielleicht solltest du dir erstmal die Grundlagen anlesen.
Gerne auch weiterführende Links, z.B.

Von dem was bzw. wie du fragst und welche Dinge du da durcheinanderwirfst muss ich davon ausgehen dass du ganz vorne anfangen solltest.
 
PCGH schrieb:
Auch das Spitzenmodell der Geforce RTX 4000 sollte ja ein Monster werden.

Ist sie mit 400+ Watt unter Last ja wohl auch geworden.

Dann könnte man viele auf so eine Liste setzen. Was aber doch auch irgendwie dem Sinn eines Forums widerspricht, oder?

Die Meinungen und Aussagen die mir nicht gefallen, radiere ich nicht weg.

Es gibt eindeutig Aussagen, die es nicht wert sind gelesen zu werden.
 
2. Das hängt halt stark am Spiel, ich würde mal vermuten das eine 4090 in Alan Wake 2 mit PT und in Cyberpunk mit PT so ziemlich am meisten frisst, sofern die CPU schnell genug ist. Natürlich in hohen Auflösungen ;).

Im Durchschnitt mit stock-settings (ohne z.B. manuelle Übertaktung/PL Anhebung über den AB) und voller GPU-Auslastung sieht das bei mir in hoher Auflösung (7860x2160) ungefähr so aus. Die fordernden Games vom Kaliber CP2077 oder AW2 kommen aber auch nicht über 450W hinaus.

Alan Wake 2:
1715336075040.png

Gray Zone Warfare:
1715336298597.png

CP2077:
1715336636321.png


Nur wenn ich es manuell im 3DMark testweise darauf anlege, werden die 500W genommen:

1715337362619.png
 
Sehr schöne Diskussionskultur hier: man wird für seine Meinung nicht gleich zerfetzt :daumen:. Bin halt beim Gaming auf der Öko-Schiene, dafür sind meine Kosten bei Lebensmitteln <wirklich> sehr sehr hoch :heul:
 
In einer perfekten rosaroten welt wo physikalische Faktoren keine rolle spielen, dürfte das funktionieren.
Welche rosarote Welt, es ist Wissen. Es ist völlig normal das der verbrauch deutlich sinkt bei gleicher Leistung oder etwas mehr Leistung, die Hersteller machen daraus aber meist das extreme, deutlich mehr Leistung und pfeifen auf den verbrauch, sieht man besonders gut bei Intel Prozessoren, der Mittelweg ist sehr leicht zu bewerkstelligen. Aber wie schon geschrieben ist das nicht so einfach, der Konkurrenzkampf verhindert das meistens, was dieses mal aber nicht gegeben ist, zumindest für nVidia in der Oberklasse. Diejenigen die undervolten haben das schon lange verstanden, den sweetspot anzupeilen hat viele Vorteile, was aber kaum Leistung kostet, der verbrauch sinkt, die Temperaturen sinken, die Lautstärke verringert sich, die Wärmeleitpaste trocknet nicht so schnell aus. Vernunft ist nichts utopisches, es ist was rationales.

Es wird geliefert, was die Leute haben wollen und das ist nunmal Leistung, Leistung und dann nochmal Leistung. Wenn es die nicht gefällt, dann kannst du ja den Verbrauch einfach begrenzen.
Wie bereits gesagt, so viel Leistung ist dieses mal nicht nötig, da die Konkurrenz in der Grafikkarten Oberklasse nicht mitmacht. Ich bezweifle sehr stark das die Intel Prozessor Käufer darum gebeten haben, für ein kleines bisschen mehr Leistung die Leistungsaufnahme explodieren zu lassen. Leistung ist nicht alles, es zeigt Amd mit ihren Ryzen deutlich auf, die gekauft werden wie warme Brötchen. Mein erster Beitrag hat nichts mit gefallen zu tun, es war eine generelle Kritik. Ist dasselbe wie wenn ich schreiben würde, wenn dir mein Beitrag nicht gefällt antworte nicht darauf, aber so ist es einfach nicht, was ich verstehe.
 
Immer dieses Geschwurbel mit der Effizienz. Ein Damoklesschwert für jeden Ingenieur.
Denn bedenke:
1. 600W bleiben trotz höchster Effizienz 600W
2. Die erzeugte Abwärme mit 600W wird duch gestiegene Effizienz nicht gemindert.
3. Ob ich mit 600W 60FPS erreiche oder mit 600W 120FPS. Es sind und bleiben 600W mit all deren physikalischen Nachteilen.
Gruß T.
Nichts davon hat irgendwas mit Effizienz zutun. Eine 600 W Karte die 120 FPS erreicht ist effizienter als eine Karte die 60 FPS mit 450 W erreicht.
Abwärme/Stromverbrauch Effizienz.

Welche Karte aus den vergangenen Generationen ist denn deiner Meinung nach effizient? Die 1080 TI?
 
Zuletzt bearbeitet:
Zurück