Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?

Nvidia soll eine Konfiguration mit AD102 und 900 Watt TGP testen. während die ersten Spezifikationen zu kleineren Modellen spekuliert werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?
 
Nvidia scheint hier klar das Portfolio abgrenzen zu wollen - abseits der GPU-Ausstattung - AD103 (60/7.680) für die Geforce RTX 4080 (84/10.752) und AD104 für die RTX 4070. Der AD102 soll im Spitzenausbau 144 Cluster mit 18.432 FP32-Einheiten haben.
Sind da die Cluster- und Shaderzahlen der 70er und 80er verdreht? So ergibt das irgendwie wenig Sinn... :what:

Eine 4090 mit 900W oder auch "nur" 600 Watt kann Nvidia gern behalten. Je nach dem was die 4080 dann leistet und kostet würde ich über diese nachdenken...
 
Deutschland hat mit die höchsten Strompreise ! Was soll der Mist mit diesen hohen Leistungsaufnahmen moderner GPU´s. Für mich ein NoGo ! Leistung ist nicht alles.
Ich sag es mal so: So eine E-Heizung, die nebenbei noch 3D-Grafiken beschleunigt, ist auch in einem Land mit günstigem Strom sehr unangenehm im Sommer. Vielleicht gibt es dann diesen Borat-Badeanzug direkt mit der Founders-Edition als gratis Beigabe?
 
Das ist schon happig... vielleicht gibts die Grafikkarten dann in Verbindung mit nem Windrad für den Balkon, damit man sich den Strom auch leisten kann. Mehr Leistung ist zwar toll, aber so ein hoher Stromverbrauch frisst einem ja die Haare vom Kopf!
 
Deutschland hat mit die höchsten Strompreise ! Was soll der Mist mit diesen hohen Leistungsaufnahmen moderner GPU´s. Für mich ein NoGo ! Leistung ist nicht alles.
Wenn eine Grafikkarte 900W verbraucht sind die Stromkosten dein kleineres Problem. Bevor die nächste Rechnung kommt biste an nem Hitzschlag im Spielezimmer gestorben. :ugly:

Sowas kann man machen mit fetter Customwasserkühlung bestenfalls mit (Monster-) Radiator im Keller oder besser gleich Wärmetauscher zur Heizungsanlage/Pufferspeicher aber für in die Wohnung ist das alleine von der Wärmemenge viel zu heftig wenn nicht grade Winter ist oder die Wohnungsisolierung nicht vorhanden ist.

Das Ding wird so nicht kommen glaube ich (hoffe ich!)
 
Also ich habe heute zum ersten Mal einen Aufkleber erstellt, der direkt neben dem Einschaltknopf klar macht, dass der Betrieb nur bis 25° Raumtemperatur vorgesehen ist. Nette Workstation mit 2x 3090 in einem Lian Li O11 Air Mini. Geht so weit, aber die obere Karte ist schon gut am Limit, wenn beide mit NV-Link zu 100% ausgelastet sind. Und selbst das ging nur mit 1-Slot Abstand zwischen den beiden. Gut, dass es von Inno3D eine Dual-Slot-Variante gab, sonst wäre das auf einer AM4-Plattform unmöglich geworden. Tja, und Wasserkühlungsumbauten oder generell Wasserkühlungen im PC sind geschäftlich nicht versicherbar wurde mir mitgeteilt...
 
Puh, der Artikel ist ziemlich übel was Info Gehalt angeht wenn man sich den Tweet anschaut. Verdreht Aussagen, falsche Infos, alles dabei.

Demnach stattet Nvidia die Geforce RTX 4070 mit 12 GiB GDDR6-Speicher (ohne X) aus und plant rund 300 Watt Leistungsaufnahme; bei der RTX 4080 sind es demnach 16 GiByte GDDR6X und 350 Watt - alle mit angeblich 21 Gb/s.
Hier das Original:
RTX 4080 will use AD103 chips, build with 16G GDDR6X, have a similar TGP to GA102. RTX 4070 will use AD104 chips, build with 12G GDDR6, 300W.

GDDR6 (ohne X) schafft keine 21Gb/s. Der bleibt wohl der 4080 / 4090 vorbehalten.
 
Wenn eine Grafikkarte 900W verbraucht sind die Stromkosten dein kleineres Problem. Bevor die nächste Rechnung kommt biste an nem Hitzschlag im Spielezimmer gestorben. :ugly:

Sowas kann man machen mit fetter Customwasserkühlung bestenfalls mit (Monster-) Radiator im Keller oder besser gleich Wärmetauscher zur Heizungsanlage/Pufferspeicher aber für in die Wohnung ist das alleine von der Wärmemenge viel zu heftig wenn nicht grade Winter ist oder die Wohnungsisolierung nicht vorhanden ist.

Das Ding wird so nicht kommen glaube ich (hoffe ich!)

Irgendjemand hat zu Nvidia gesagt:
"Nein, leider kann man die Abwärme von PCs nicht für die Warmwasserbereitung nutzen. Aus gesundheitlichen Gründen müssen Speichersysteme regelmäßig auf über 60 °C erwärmt werden, damit sich keine Legionellen vermehren. Die einzige Alternative sind Durchlauferhitzer, bei denen das Wasser kalt in der Leitung steht und dann erst kurz vor der Nutzung erwärmt wird. Aber da muss man dann sehr viel Energie in sehr kurzer Zeit umsetzen."

Nvidias Ingenieure haben geantwortet:
"Moment, haben wir gleich."
 
Zuletzt bearbeitet:
Wenn eine Grafikkarte 900W verbraucht sind die Stromkosten dein kleineres Problem. Bevor die nächste Rechnung kommt biste an nem Hitzschlag im Spielezimmer gestorben. :ugly:

Sowas kann man machen mit fetter Customwasserkühlung bestenfalls mit (Monster-) Radiator im Keller oder besser gleich Wärmetauscher zur Heizungsanlage/Pufferspeicher aber für in die Wohnung ist das alleine von der Wärmemenge viel zu heftig wenn nicht grade Winter ist oder die Wohnungsisolierung nicht vorhanden ist.

Das Ding wird so nicht kommen glaube ich (hoffe ich!)

ich habe schon immer gesagt. sollte ich mal eigentum haben und einen schnitt der es zulässt, würde ich ein loch in die wand machen und nur die wichtigsten kabel durchziehen. der rechner wäre mit dem rest auf der anderen seite. es wäre einfach ein traum wenn man nahezu nichts mehr hören würde vom rechner dann kann ich ihn mir auch nackt bzw. offen an die wand hängen.
 
Jetzt weiß ich auch, warum nVidia nen neuen Stecker will...für die aöten Stromstecker fehlt einfach der Platz.^^
 
Deutschland hat mit die höchsten Strompreise ! Was soll der Mist mit diesen hohen Leistungsaufnahmen moderner GPU´s. Für mich ein NoGo ! Leistung ist nicht alles.
Ich würde die Stromkosten auch nicht bezahlen wollen. Mein PC verbraucht mit Monitor beim Spielen rund 500 Watt. Ich erwische mich dabei, wie ich im Kopf anfange zu rechnen, wie teuer mich das jetzt kommt (30 cent á KW), Mit Blick auf die Zukunft weiß ich, dass der Strom teurer wird, da werde ich auf keinen Fall mir eine noch verbrauchsstärkere Grafikkarte anschaffen.

Mehr als 200 Watt soll meine Grafikkarte nicht verbrauchen und ich bin jetzt schon drüber.

Irgendwie hat es auch seinen Reiz, die Komponenten so zu undervolten, dass Leistung vorhanden aber der PC möglichst wenig verbraucht. :-)
Ach du ************************ 900 Watt wird ja immer besser :ugly:
Aufgrund meiner Vorsätze verliere ich auch die Selbstachtung vor mir selber, wenn ich eine solche Grafikkarte zum Feierabendspielen verwende.
 
Zuletzt bearbeitet:
@Thomas5010 naja, 30 Cent wären ja noch günstig... mittlerweile kostet der Strom bei vielen Anbietern über 45 Cent/kwh .... :what:


Aber ja, die neuen GPU´s mit dem hohen Stromverbrauch lohnen sich nur für Kunden mit einer PV-Anlage....
 
Aber ja, die neuen GPU´s mit dem hohen Stromverbrauch lohnen sich nur für Kunden mit einer PV-Anlage....
In der Tat aber dann ist die Frage, ob ich den Strom meiner PV Anlage nicht lieber anders verbrauchen will als z.B. für eine 600 Watt Grafikkarte. Im Moment bekäme ich sogar 58 cent, wenn ich den Strom aus der PV Anlage ins öffentliche Netz einspeise. Davon würde mir eine potente Grafikkarte einiges wegnehmen.
 
Die vermutlichen 300W der 4070 sind ja auch knapp 40% mehr als die 220W der 3070. Auch nicht von schlechten Eltern.
 
Und die "Kühlung" kommt also von BOSCH/Junkers wie? Oder gleich an die Klimaanlage
von Mitsubishi anschließen? :what:

Will Nvidia uns eigentlich verarschen? Erst die 320W+ und 350W+ der 30er Serie.
Dann nochmal 450W+ hinterhergeballert und jetzt werden für die 40er Serie
aus 450W bis 600W dann 600W bis 900W??? :klatsch:

Eine nahezu vervierfachung des Leistungsbedarfs in 4 Jahren? Und das ausgerechnet 2022? :kotz:

Sorry, aber da ist selbst mein "Enthusiasmus" erschöpft... Sowas kommt mir nicht in die Kiste.
 
Zurück