Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?

Will Nvidia uns eigentlich verarschen? Erst die 320W+ und 350W+ der 30er Serie.
Dann nochmal 450W+ hinterhergeballert und jetzt werden für die 40er Serie

Mit Blick auf den Stromverbrauch der RTX 3000er Karten, verstehe ich jetzt auch, warum NVIDIA so wenig VRAM verbaut. Der Speicher kostet einfach Strom. Alleine die 12GB Variante der 3080 verbraucht 30 Watt mehr.
 
Immer her mit der Wattschleuder, da fallen die 3000er endlich mal weiter und die Bucht wird geflutet, das ich etwas Angeln gehn kann.
1300 für ne 3080ti bin ich immer noch zu geizig.

900W sind schon n Brett, na mal sehen was davon noch bleibt.
 
Kommt mal runter, die 900W sind eher ein Gerücht als Fakt:

In fact, there is another full-fat AD102 SKU with 900W TGP, 48G 24Gbps GDDR6X, 2*16pin and higher frequency. But no one knows whether it will become an actual product. Because the test board of AD102 has more than two 16pin connectors, so everything is possible.

Sind halt auch 48 GB 24 Gb/s GDDR6X, alleine das sind wohl 100W mehr als die 24 GB der 3090. Das wird ein Einhorn, wenn überhaupt.
 
Mit Blick auf den Stromverbrauch der RTX 3000er Karten, verstehe ich jetzt auch, warum NVIDIA so wenig VRAM verbaut. Der Speicher kostet einfach Strom. Alleine die 12GB Variante der 3080 verbraucht 30 Watt mehr.
Wenig ist relativ...

Aber das ist wohl kaum der einzige Grund. Was man nicht hat kann man auch nicht verbauen...
Zudem müsste Nvidia aufgrund der Architektur bei 16GiB ein 256bit breiten Bus nehmen - ist nicht immer optimal.
 
Die Frage ist doch, wenn so ein Monster wirklich das Licht der Welt erblickt, ist eine Luftkühlung mit Sicherheit dann nicht mehr möglich. Oder wollen die dann eine 5 Slot Kühlung rausbringen? :D
 
Die 900W sind wohl eher für das Labor gedacht, um zu schauen, was möglich ist und wie sich der Chip verhält.

Die 900W sehen wir dann eventuell bei der RTX 6090, wenn alles gut geht.

Ansonsten ist hier im Forum das gleiche, wie schon seit gefühlt 20 Jahren: es wird über den zu hohen Stromverbrauch gejammert, nach 2 Jahren ist das normal und dann wird über den noch höheren Stromverbrauch gejammert. Weckt mich, wenn die PCs an der 2,4 kW Grenze angekommen sind. Dann wird es interessant, da man zuerst 1 phasige CCE Steckdosen braucht und nach 3,6 kW zu dreiphasigem Wechselstrom greifen muß.

Im Prinzip besteht kein Grund zu jammern:
1: wer sich eine so teure Karte kauft, der sollte auch den Strom bezahlen können.
2: sollte ich mir so eine Karte kaufen, dann werde ich sie wohl untertakten und untervolten. Die volle Leistung wird dann nur bei Spielen entfesselt, die diese Leistung auch brauchen.

Ich finde, dass Nvidia und AMD, in den Treibern mehrere Profile hinterlegen sollten: 50W, 100W, 250W, volle Pulle.

Damit wäre das Thema dann erstmal entschärft.

Im Moment bekäme ich sogar 58 cent, wenn ich den Strom aus der PV Anlage ins öffentliche Netz einspeise. Davon würde mir eine potente Grafikkarte einiges wegnehmen.

Wer bei den Tarifen selbst verbraucht, der ist sowieso blöd. Man speist den Strom ins Netz ein und kauft sich dann für 1kWh Solarstrom 1,8kWh konvertionellen Strom.

Die Frage ist doch, wenn so ein Monster wirklich das Licht der Welt erblickt, ist eine Luftkühlung mit Sicherheit dann nicht mehr möglich.

Das hat man schon bei der FX 5800 Ultra gesagt, die ihre 50W nicht unter Kontrolle bekam.

Oder wollen die dann eine 5 Slot Kühlung rausbringen? :D

Platz wäre in meinem Bigtower. Wenn ich das Netzteil nach oben verlege, dann dürften es sogar 10 Slots sein.

900 Watt wären nicht weniger als eine Bankrott Erklärung von Nvidia!

Klar, sicher...

Greta sollte sich mit Jensen mal an eine Tisch setzen und ihm die Leviten lesen.

Danach kann sie bei AMD sowie Intel vorbeischneien. Außerdem sollte sie dich mit einem Hausbesuch beglücken, dein System ist ja nicht besonders sparsam.
 
also leistungsmäßig wird den meisten von uns wohl eine RTX 4080 reichen,
und die wird sich mit etwas Spannungsabsenkung sicher unter 300 Watt halten lassen.
Und dann darf die CPU nicht limitieren, damit die Karte überhaupt ausgelastet wird!
 
Das Ding wird so nicht kommen glaube ich (hoffe ich!)
Möglicherweise im Data Center Bereich oder so. Der H100 SXM verbraucht ja schon 700W: https://www.nvidia.com/en-us/data-center/h100/#specifications

Der Verbrauch einer Karte ist in diesem Bereich egal, denn wichtig ist der Verbrauch in Relation zur Leistung. Wenn die 900W Karte mehr Leistung bietet, als zwei bis drei von den Vorgängerkarten und dabei noch x Watt weniger verbraucht, dann sinkt in Summe der Verbrauch für die benötigte Leistung.
 
Zuletzt bearbeitet:
Im Moment bekäme ich sogar 58 cent, wenn ich den Strom aus der PV Anlage ins öffentliche Netz einspeise. Davon würde mir eine potente Grafikkarte einiges wegnehmen.
Warum machst Du es dann nicht, wenn Du den Strom anschließend für 30 Cent/kWh aus dem Netz zurückkaufen könntest?

Tipp: Weil Dir kein Mensch 58 Cent für eine kWh zahlen wird. Du hast wahrscheinlich ein Komma vergessen: https://www.energieversum.de/einspeiseverguetung-photovoltaik-anlage/#:~:text=Einspeisevergütung 2022: Aktuelle Einspeisevergütungssätze,Photovoltaikanlagen fällt in diese Kategorie.
 
Kann doch alles nicht war sein knapp 1KW für eine Grafikkatte!?

Willkommen in der Zukunft von Morgen, schon heute.

Sowas sollte verboten werden.

...solange es AMD nicht im Weg ist, oder?

Ich fordere sie ja schon lange, die Verbrauchobergrenze für Consumer Grafikkarten!

Du mußt es dir ja nicht kaufen. Was ein interessanter Punkt ist: Warum zur Hölle hast ausgerechnet du dir eine RTX 3090, mit Intel CPU gekauft?!?

Ich meine, wir reden hier von einem 12900K, den du auf 5,2GHz übertaktet hast und eine RTX 3090. Zusammen sind schon ein infernales Duo.

Ich hätte bei dir eher mit einer RX 6900XT und einem 5900X gerechnet.
 
Du mußt es dir ja nicht kaufen. Was ein interessanter Punkt ist: Warum zur Hölle hast ausgerechnet du dir eine RTX 3090, mit Intel CPU gekauft?!?

Ich meine, wir reden hier von einem 12900K, den du auf 5,2GHz übertaktet hast und eine RTX 3090. Zusammen sind schon ein infernales Duo.
Er hat 800W durch seine 6900XT geprügelt. Da bekommt seine Aussage gleich einen ganz anderen Nachgeschmack.

Edit:
Er hat übrigens gerade einen 12900KS @5,6GHz mit 3090 @1KW BIOS:

Ob seine Greta hierüber bescheid weiß? :ugly:
 
Er hat 800W durch seine 6900XT geprügelt. Da bekommt seine Aussage gleich einen ganz anderen Nachgeschmack:

Ich bin Profi Bencher, da bleibt einem ja nichts anderes übrig als die Kanäle mal kurz voll zu öffnen, darum geht es hier aber auch nicht.

Es geht um die Masse der Gamer, die demnächst mit 900 Watt GPU aus dem Hause Nvidia versorgt werden sollen für 24/7.
 
Am besten eine Grafikkarte mit Handkurbel.....Das spart Strom.:daumen:
Festgemacht wird die dann mit dem speziellen Lufthaken.
 
Ich bin Profi Bencher, da bleibt einem ja nichts anderes übrig als die Kanäle mal kurz voll zu öffnen, darum geht es hier aber auch nicht.
Deine 24/7 Settings haben 600W gelutscht und abgesehen davon hast du aktuell einen stark übertakteten 12900KS mit einer 3090 (1KW BIOS).

Es geht um die Masse der Gamer, die demnächst mit 900 Watt GPU aus dem Hause Nvidia versorgt werden sollen für 24/7.
1. ist das ein Testboard für die interne Entwicklung
2. ist es nur ein Gerücht.
3. wissen wir nicht mal, ob es eine Karte für den Desktop oder das Data Center sein wird.

Nvidia hat jetzt schon Produkte mit einem ähnlichen Verbrauch. Die H100 SXM hat beispielsweise eine TDP von 750W.
 
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?
Es wird doch langsam lächerlich. Wer keine eigene Solaranlage hat und eigenen Strom nutzen kann, das wird aber in Abendstunden mit dem Speicher ein ernstes Thema, kauft doch als verantwortungsbewusster Mensch so einen Humbug nicht. Meine aktuelle Karte, sieben Jahre alt, nimmt 400W und das ist schon völlig jenseits von Gut und Böse.

Eine RTX 4070 mit 12GB und 350W klingt gerade noch so erträglich. Das wird es dann wohl als Nachfolger der GTX 980TI für WQHD.Wenn man die ein wenig optimiert in Bezug auf Spannung und Takt, sollte man mit 300W ohne große Leistungseinbußen hinkommen. Und selbst dass ist nicht mehr zeitgemäß.
 
Deine 24/7 Settings haben 600W gelutscht und abgesehen davon hast du aktuell einen stark übertakteten 12900KS mit einer 3090 (1KW BIOS).

Ach komm Karte nimmt sich nur ca. 600 Watt trotz 1KW Bios und von der CPU brauchen wir gar nicht zu reden, alles halb so wild.

Und ganz ehrlich, würde auch lieber noch sparsamer benchen aber geht ja leider nicht mangels Möglichkeiten.

Ich bleib dabei, Nvidia treibt es hier auf die Spitze, wo soll das enden, brauch ich dann demnächst ein 2KW Bios um noch mit zu halten, so muss man das mal sehen.
 
Zurück