Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?

Kann doch alles nicht war sein knapp 1KW für eine Grafikkatte!?

Sowas sollte verboten werden.

Ich fordere sie ja schon lange, die Verbrauchobergrenze für Consumer Grafikkarten!
Nvidia baut die Karte nur für dich, damit du nen 2K Watt Bios drauf klatschen kannst.
Freu dich doch!
Jetzt wieder alles ok?
Ach komm Karte nimmt sich nur ca. 600 Watt trotz 1KW Bios und von der CPU brauchen wir gar nicht zu reden, alles halb so wild.

Und ganz ehrlich, würde auch lieber noch sparsamer benchen aber geht ja leider nicht mangels Möglichkeiten.

Ich bleib dabei, Nvidia treibt es hier auf die Spitze, wo soll das enden, brauch ich dann demnächst ein 2KW Bios um noch mit zu halten, so muss man das mal sehen.
Du kannst den Schwanzvergleich auch einfach sein lassen.
 
Ach kommt, als ob ich hier das Problem bin!?
Es sind die Hersteller, hier Nvidia, die es nicht in den Griff bekommt Hardware zu entwickeln mit einem zeitgenäßen Verbrauch.
 
Mit Blick auf den Stromverbrauch der RTX 3000er Karten, verstehe ich jetzt auch, warum NVIDIA so wenig VRAM verbaut. Der Speicher kostet einfach Strom. Alleine die 12GB Variante der 3080 verbraucht 30 Watt mehr.
Wenig ist relativ...

Aber das ist wohl kaum der einzige Grund. Was man nicht hat kann man auch nicht verbauen...
Zudem müsste Nvidia aufgrund der Architektur bei 16GiB ein 256bit breiten Bus nehmen - ist nicht immer optimal.
Die Frage ist doch, wenn so ein Monster wirklich das Licht der Welt erblickt, ist eine Luftkühlung mit Sicherheit dann nicht mehr möglich. Oder wollen die dann eine 5 Slot Kühlung rausbringen? :D
Noch interessanter: Was wenn nicht? Wasserkühlung als Pflichtprogramm?
Und was soll die bei 900W alleine für die GPU kosten? 500€? 700€?
Wenn man ~100-150W pro 120mm rechnet wären das zwei bis drei 360er eher mehr...

Alleine der Kühler der 3090 FE kostet schon gute 150$ in der Herstellung - wird gemunkelt.
Damit schafft man grenzwertig 450W, hat man ja gesehen. 350W sind mit dem Ding gut zu kühlen.
Aber selbst bei 600W... Doh! Wenn man da nicht was richtig "Sportliches" in sachen Lüftkühlung
veranstaltet, weiß ich echt nicht was die da was aus dem Hut zaubern wollen.
Und die 30er FE Kühler sind schon ein ganz schöner Sprung nach vorne gewesen.

Ach kommt, als ob ich hier das Problem bin!?
Es sind die Hersteller, hier Nvidia, die es nicht in den Griff bekommt Hardware zu entwickeln mit einem zeitgenäßen Verbrauch.

Das hat nicht nur was mit Nvidia zu tun, sondern auch mit TSMC & Co. Optimierungen sind eine Sache,
das Meiste an Leitungsoptimierung holt eher der Fertigungsprozess raus.
Und da hapert es bekanntermaßen bei allen seit Jahren. Weil die immer feineren Fertigungsprozesse
langsam an die Grenzen der Physik und des bezahlbar Machbaren stoßen...
 
Zuletzt bearbeitet:
Weil die immer feineren Fertigungsprozesse
langsam an die Grenzen der Physik und des bezahlbar Machbaren stoßen...
Das ist ein urbaner Mythos, der von Fertigungsnamen mit kleinen Nanometerzahlen befeuert seit mindestens 10 Jahren erzählt wird und noch mindestens weitere 10 Jahre falsch sein wird. Die Grenzen der Physik sind noch WEIT weg. Nur wird die schrittweise Annäherung immer teurer da technisch ausgefeilter - und was teurer ist braucht länger bis es rentabel ist. Nicht die Physik ist (aktuell) die Grenze, die Wirtschaft ist es.
 
Das ist ein urbaner Mythos, der von Fertigungsnamen mit kleinen Nanometerzahlen befeuert seit mindestens 10 Jahren erzählt wird und noch mindestens weitere 10 Jahre falsch sein wird. Die Grenzen der Physik sind noch WEIT weg. Nur wird die schrittweise Annäherung immer teurer da technisch ausgefeilter - und was teurer ist braucht länger bis es rentabel ist. Nicht die Physik ist (aktuell) die Grenze, die Wirtschaft ist es.
Ah so... Hat Intel sich also jahrelang an 14nm festgebissen weil se' inkompetent sind, verstehe, verstehe.

Und EUV verfahren werden dann abgelöst von was? Röntgenstrahlung? Oder gleich Gamma? :confused:

Ich habe glaube ich auch nicht gesagt dass es "unmöglich" ist. Sondern nur dass es bald
nicht mehr bezahlbar ist, und zu lange in der Entwicklung dauert...

Aber nur mal ums mal zu verdeutlichen: 1nm = 1000pm
Radius Kupferatom = ~145pm, Radius Gold= ~175pm
 
Zuletzt bearbeitet:
Wenn die neuen Gens mit solch absurden Verbräuchen daher kommen, dann wird das für alle Hersteller ein Flop. Bis die Karten kommen ist die Inflation auch weitestgehend bei den Vebrauchern angekommen, die Kohle wird da längst nicht mehr so locker sitzen.
 
Ah so... Hat Intel sich also jahrelang an 14nm festgebissen weil se' inkompetent sind, verstehe, verstehe.
Nö, weil die damalige Firmenleitung sich so sicher gefühlt hat vor AMD dass Weiterentwicklung stark zurückgefahren wurde.
Und ja, zusätzlich hat Intel seinen 10nm Prozess (heute "Intel7") hart verkackt.

Und EUV verfahren werden dann abgelöst von was? Röntgenstrahlung? Oder gleich Gamma? :confused:
Genau das - oder alternative NGLs eben.

Aber nur mal ums mal zu verdeutlichen: 1nm = 1000pm
Radius Kupferatom = ~145pm, Radius Gold= ~175pm
Ja. Und man geht grob davon aus, dass es unter 10 Atomlagen zu übel wird mit irgendwelchen Quanteneffekten - da wäre das (aktuelle) physikalische Limit. Bei so ein, zwei Nanometern tatsächlicher Strukturgröße. Nicht zu verwechseln mit den Fertigungsverfahren mit Namen 2nm - deren echte (dafür relevante) Strukturen locker Faktor 10 größer sind.

Wir werden vor 2030-2035 garantiert nicht an dem Limit ankommen. Auch und vor allem weil es einfach unwirtschaftlich ist. Vorher werden andere techniken kommen die Leistung in bestehenden Strukturgrößen zu erhöhen. Beispielsweise GAAFET oder langfristig völlig disruptive Technologien die beispielsweise auf Graphen statt Siliziumbasis laufen.
 
Also mal angenommen man würde das Spiel so weiterspielen können, wovon ich nicht ausgehe,
wäre rechnerisch spätestens 2030 das shrinking am Ende...
4nm2nm1nm0,5nm0,25nm0,125nm
202220242026202820302032

Ob das ganze dann aber nicht schon früher andere Probleme verursacht, lasse ich mal offen...

Kleiner Nachtrag: Wir sind uns also zumindest einig, dass es langsam aber sicher "eng" wird rein aufs Shrinking zu setzen. Das ist doch was.

Da kann man sich ja schon fast denken warum an Quantencomputern "gebastelt" wird.
Selbst wenn wir das mit den Strukturbreiten noch 20 Jahre ausreizen können, sehen wir ja jetzt schon,
auch am obigen Beispiel der News, dass es entweder bei der Leistungsteigerung stagnieren wird,
ober mit dem Leistungsbedarf rapide aufwärts geht...
Und einige sind schon angenerft wenn es alle 2 jahre "nur" 30-35% sind... Oh je.
 
Zuletzt bearbeitet:
DIe Verkleinerungen sind nicht durch 2 sondern durch Quadratwurzel 2 (Chips sind zweidimensional, keine Linien ;-)).
Deswegen
22 / sqr(2) = 15,6 genannt 14 nm
14 / sqr(2) = 9,9 genannt 10 nm
10 / sqr(2) = 7,1 genannt 7 nm
.
.
.

Es sind also weit mehr Schritte/Nodes bis man da unten ist.
 
Eine RTX 4070 mit 12GB und 350W klingt gerade noch so erträglich. Das wird es dann wohl als Nachfolger der GTX 980TI für WQHD.Wenn man die ein wenig optimiert in Bezug auf Spannung und Takt, sollte man mit 300W ohne große Leistungseinbußen hinkommen. Und selbst dass ist nicht mehr zeitgemäß.

RTX 4070 will use AD104 chips, build with 12G GDDR6, 300W.

Die 4070 wird wohl eh ca. 300W TDP bekommen. Du sprichst von der 4080 die wohl bei 350-400W liegen wird.
 
900 Watt ? Echt jetzt? Nicht deren Ernst. :daumen2:
Bei mir ist bei 300 Watt max Boardpower absolut Sense was GPUs betrifft, und alles darüber hinaus bekommt man nur noch aufwendig mit Mehraufwand weggekühlt. Danke lieber GPU-Hersteller, aber nein danke ich verzichte.
 
Unter drei KW kommt mir keine Karte ins Gehäuse, das Ding kann nur leistungsschwach sein! :D
Dazu finde ich die Speichermenge komplett übertrieben. NVidia sollte hier aus Gründen
des Shareholder value auf völlig überzogene 12GB verzichten und standardmäßig maximal 1GB anbieten.
Gegen einen geringen Aufpreis kann man dann die 2GB-Variante erwerben
(denke da an bspw. schmale 100 Euro Aufpreis).
Das könnte man dann skalieren bis, sagen wir mal 24GB, machen die nett ein wenig extra Kasse.
Die Namen könnte man bei den größeren Varianten anpassen, 2GB ist dann die Pro, 4GB Pro++ oder so.
Sollten sie da zu wenig Erfahrung drin haben, einfach bei Apple nachfragen, die kennen sich da bestens aus.
 
Zurück