Geforce RTX 4000: AD102 mit bis zu 900 Watt TGP?

DIe Verkleinerungen sind nicht durch 2 sondern durch Quadratwurzel 2 (Chips sind zweidimensional, keine Linien ;-)).
Deswegen
22 / sqr(2) = 15,6 genannt 14 nm
14 / sqr(2) = 9,9 genannt 10 nm
10 / sqr(2) = 7,1 genannt 7 nm
.
.
.

Es sind also weit mehr Schritte/Nodes bis man da unten ist.
Hmm... Nichts für ungut, mag mich auch irren aber gilt das nicht im Endeffekt nur für Eigenschaften wie Transistor dichte pro Fläche? :confused:
Ein Längenmaß egal ob "Bestimmtheitsmaß" oder physikalisch exakt ist immer noch ein Längenmaß.

Davon ab, war das auch nur als Rechenbeispiel gedacht. Man geht ja ohnehin
von "verhältnismäßig" korrekten Strukturbreiten immer weiter ab. Und das nur weil die Strukturbreite "Xnm"
ist, betrifft das ja letzten Endes auch nicht den eigentlichen Transistor.
 
Ab 50W verbrauch sollte unterhaltungselektronik mit 30%-100% ab 500W mit Starfsteuer oder so, versehen Werden
Auch Verlustleistung solle gsestaffelt bestraft (besteuert) werden
 
gilt das nicht im Endeffekt nur für Eigenschaften wie Transistor dichte pro Fläche? :confused:
Ja. Und die nm-Namen der Fertigungsverfahren beziehen sich auch auf genau das. Ein "FullNode" ist theoretisch die doppelte Transistorzahl pro Fläche verglichen mit seinem Vorgänger.

Zum Thema: Beachtet bitte das die 900W von einem Testboard stammen. Es ist üblich, dass solche Test-PCBs weit höher dimensioniert sind als das fertige Produkt.
 
Ja. Und die nm-Namen der Fertigungsverfahren beziehen sich auch auf genau das. Ein "FullNode" ist theoretisch die doppelte Transistorzahl pro Fläche verglichen mit seinem Vorgänger.

Zum Thema: Beachtet bitte das die 900W von einem Testboard stammen. Es ist üblich, dass solche Test-PCBs weit höher dimensioniert sind als das fertige Produkt.
Denke ich auch. (Oh Gott bitte... :ugly: ) Zudem wundern mich auch die 48Gib nicht. Es ist ja durchaus zu vermuten,
dass das "Quadro" RTX Enterprise(?) "RTX AD6000" Pendant auf den selben AD102 setzt... Vielleicht wandert man da auch zu GDDR6X über.
So oder so, selbst 600W sind n dicker Hammer. Da interessiert mich die Kühlung fast am meisten. :hmm:
 
Ich würde meine Achtung vor mir selbst verlieren, wenn ich eine Grafikkarte jenseits von 400 Watt benutze.

Mit welchen moralischen Werten will ich solch einen Gebrauch von Unterhaltungselektronik rechtfertigen?

Ich sage meinen Kindern, dass sie auf den Stromverbrauch achten sollen, wenn der Durchlauferhitzer das Wasser zum duschen erhitzt. Da komme ich mir blöd vor, wenn ich solche Stromschleudern für das Feierabendspielen benutze.

Meine Selbstachtung wäre im Keller, gegenüber meiner Familie, der Umwelt und dem Umgang mit Geld.
 
Zuletzt bearbeitet:
Ich würde meine Achtung vor mir selbst verlieren, wenn ich eine Grafikkarte jenseits von 400 Watt benutze.

Mit welchen Werten will ich solch einen Gebrauch von Unterhaltungselektronik rechtfertigen?

Ich sage meinen Kindern, dass sie auf den Stromverbrauch achten sollen, wenn der Durchlauferhitzer das Wasser zum duschen erhitzt. Da komme ich mir blöd vor, wenn ich solche Stromschleudern für das Feierabendspielen benutze.

Meine Selbstachtung wäre im Keller, gegenüber meiner Familie, der Umwelt und dem Umgang mit Geld.
Wie oft denn noch? Das 900W Teil ist weder eine bestätigte Karte noch wäre die für den Otto-Normal-Zocker sinnvoll, wenn dann ist sowas für Datacenter / Profi User interessant die die reine Rechenleistung pro Watt pro Stunde betrachten, und da kann eine 900W Karte tatsächlich Sinn machen wenn sie schneller arbeitet als 2 450W Karten der Vorgeneration.
 
Spannend, was in diese Meldung über Laborsamples hereingelesen wird.

Viel spannender ist doch, dass AD102 deutlich stärker und vor allem signifikant schneller in Bezug auf VRam sein soll.

Klingt fast so, als solle eine 4090/Titan an die Miner gehen während wir Gamer uns über die AD103/104 hermachen dürfen.
Ich freue mich auf einen spannenden Winter. Mal sehen, was AMD noch im Köcher hat.
 
Spannend, was in diese Meldung über Laborsamples hereingelesen wird.

Viel spannender ist doch, dass AD102 deutlich stärker und vor allem signifikant schneller in Bezug auf VRam sein soll.

Klingt fast so, als solle eine 4090/Titan an die Miner gehen während wir Gamer uns über die AD103/104 hermachen dürfen.
Ich freue mich auf einen spannenden Winter. Mal sehen, was AMD noch im Köcher hat.
Na ob der Unterschied von 19,5 bzw. 21Gb/s zu 24Gb/s nu so den Braten fett macht? Eher nicht.
Da würde HBM Speicher wohl mehr bringen, vor allem beim Durst...

Ob wir das ~600W Monster aber als 4090 oder erst als 4090 Ti sehen, is dann immer noch die Frage.
Haupsache ihr legt euch schonmal die 2000€ auf die hohe Kante. :ugly:
 
Eigener Solarstrom ist hier verdammt billig, weil die Anlagen recht günstig zu bekommen sind.
Die Kosten trotzdem erst, rentabel sind die auch erst nach vielen Jahren. Dann wird wohl eine zusätzliche fällig, nur für die GPU :lol:
Spannend, was in diese Meldung über Laborsamples hereingelesen wird.

Viel spannender ist doch, dass AD102 deutlich stärker und vor allem signifikant schneller in Bezug auf VRam sein soll.

Klingt fast so, als solle eine 4090/Titan an die Miner gehen während wir Gamer uns über die AD103/104 hermachen dürfen.
Ich freue mich auf einen spannenden Winter. Mal sehen, was AMD noch im Köcher hat.
Spannend wird auch die Stromrechnung :lol:
Aber ohne Leistung ist alles nix.:bier:
Schon klar, wahrscheinlich fährst du auch mit Sportauspuff und nervst deine Umgebung.
 
Zuletzt bearbeitet:
Wie oft denn noch? Das 900W Teil ist weder eine bestätigte Karte noch wäre die für den Otto-Normal-Zocker sinnvoll, wenn dann ist sowas für Datacenter / Profi User interessant die die reine Rechenleistung pro Watt pro Stunde betrachten, und da kann eine 900W Karte tatsächlich Sinn machen wenn sie schneller arbeitet als 2 450W Karten der Vorgeneration.
Wer redet denn von 900 Watt? In meinem Beitrag habe ich 900 Watt gar nicht erwähnt. Bitte genau lesen bevor die Fingerchen die Tastatur anklimpern.
 
Mit der Karte kann man dann sicherlich auch extrem gut Undervolting betreiben.

Wenn man die Spannung dann nur genug abgesenkt hat und sie dann langsam in Leistungsregionen einer RTX3050 vordringt, kann ich mir gut vorstellen das sie dann auch deutlich unter 200W ziehen wird.
Also wo liegt das Problem?:ka: P/W wird doch total übertrieben und ich bin mir absolut sicher das Nvidia das genau gleich sieht.
 
Ich fühl mich mit meiner RTX 3080 (320W ab Werk) schon besch... Daher gibt's per UV auch "nur" 250/260W in fordernden Games wie CP 2077. Oft sind's sogar weniger dank Vsync/60Fps...

450-600W nur für die Graka hielt ich schon für "krank", sollte es noch mehr werden (dieser Trend anhalten) werde ich wohl austesten, wie lange die Nvidia diesmal durchhält. Meine GTX 1080 hatte insgesamt ja auch 5 Jährchen aufm Buckel und die läuft jetzt noch problemlos.

Und wenn es dann eben nur daddeln in FHD ist...:schief:

Gruß
 
"Nvidia soll eine Grafikkarte mit AD102-GPU testen, die 900 Watt TGP (Total Graphics Power) hat." Zitat.
Wenn schon wieder Alles fake ist und sinnlos gelabert wird: Nvidia soll eine Grafikkarte mit AD102-GPU testen, die 900 Watt TGP (Total Graphics Power) hat????????? Das ist noch nicht mal Hauptschulniveau - ohne "?"
Und: wer zockt denn mit Solar? Geht denn keiner mehr Arbeiten?
Zudem: wenn schon zynischer Schwachsinn bei einer völlig kranken Produktentwicklung: Es hilft ne Wasserkühlung - der Planet säuft sowieso bald ab.
Geht auch biologisch: https://oekotrainer.de/ - bei 900????-Watt den "zu langen Schwanz" aufs Rad klemmen - reicht zwar nicht - doch zu kurz- sch**sse- aber da weiß man wozu mann den hat und Strom nicht auf den Bäumen wächst.
Das Zeug ist absolut krank - und hat mit Spaß nix mehr zu tun. Für Gamer ist das ein Schlag in die Fresse, Verarschung usw. usf.
 
Ich fühl mich mit meiner RTX 3080 (320W ab Werk) schon besch... Daher gibt's per UV auch "nur" 250/260W in fordernden Games wie CP 2077. Oft sind's sogar weniger dank Vsync/60Fps...

450-600W nur für die Graka hielt ich schon für "krank", sollte es noch mehr werden (dieser Trend anhalten) werde ich wohl austesten, wie lange die Nvidia diesmal durchhält. Meine GTX 1080 hatte insgesamt ja auch 5 Jährchen aufm Buckel und die läuft jetzt noch problemlos.

Und wenn es dann eben nur daddeln in FHD ist...:schief:

Gruß

Vor allem wofür der ganze Wahn.
Letztens noch einen schönen Bericht gesehen. UV bei 3080 / 3090. Da kam man mit etwa Stock Leistung auf 260/290W (3080/3090) und sind wir ehrlich, 5% weniger würde keiner von uns merken, damit geht es noch weiter runter Richtung 203 - 220W, bei der 3080.

In Igor´s Test zur RTX3090TI "Kühler Brecher statt Fusionsreaktor"


Die +50% Energiekonsum, der Stock 3090TI im Vergleich zum 300W Setting von Igor, bringt nur + 11,5% mehr Fps.

Nochmal von 300 auf 450W bringen nur 11,5% bei der 3090TI.

Klar wir wissen noch nicht, wie die RTX4000 so laufen usw. Aber alles über 450W bei dem Vollausbau lässt auf Brechstange vermuten. Über 450W wird es wohl sehr ineffizient.

Bei dem Gerücht 4070 und 4080, das könnte ich mir so vorstellen, denke die 4070 mit 300W wird ein Stück schneller sein, als die 3090. Die 4080 mit UV könnte eine sehr schöne Karte werden. Mal sehen.

 
ist doch Unsinn!

Würde lieber benchen mit Hardware die weniger verbraucht, mehr Verbrauch gleich mehr Hitze und weniger Punkte.
Trotzdem klemmst du dir die fettesten Karten in den Rechner und ballerst höchstmögliche Wattzahlen durch... um mehr fiktive Punkte in einer Software zu bekommen. Im Gegensatz zu dir macht Nvidia das nicht aus persönlichem Vergnügen, sondern weil sie ein Unternehmen im Wettbewerb sind. Wer ist da besser?
Einfach nur egoistisch konsumieren und sagen "ich kann ja nix dafür" ist ein schlechtes Argument.
 
Spannend, was in diese Meldung über Laborsamples hereingelesen wird.

Viel spannender ist doch, dass AD102 deutlich stärker und vor allem signifikant schneller in Bezug auf VRam sein soll.

Klingt fast so, als solle eine 4090/Titan an die Miner gehen während wir Gamer uns über die AD103/104 hermachen dürfen.
Ich freue mich auf einen spannenden Winter. Mal sehen, was AMD noch im Köcher hat.
Für mich absolut in Ordnung, wenn das so wäre.
Immer her mit der Wattschleuder, da fallen die 3000er endlich mal weiter und die Bucht wird geflutet, das ich etwas Angeln gehn kann.
1300 für ne 3080ti bin ich immer noch zu geizig.

900W sind schon n Brett, na mal sehen was davon noch bleibt.
Auch mein Reserveplan!

Eine 3070 wäre für mich schon schnell genug, aber liebäugeln würde ich mit einer 3080FE.
also leistungsmäßig wird den meisten von uns wohl eine RTX 4080 reichen,
und die wird sich mit etwas Spannungsabsenkung sicher unter 300 Watt halten lassen.
Und dann darf die CPU nicht limitieren, damit die Karte überhaupt ausgelastet wird!
Genau so wird es sein.
Eine spekulierte 4080 wird deutlich schneller, als eine 3090 und damit wirklich schnell genug, für die meisten.
 
Die Fertigungen werden immer feiner und die TGP, Watt-Verbräuche steigen?
Sorry, irgendwie unverständlich.
 
900 Watt ne danke ,sagte schon bereits das man in etwa da landet und aus heutiger Sicht können solche Karten nicht überleben .Da bin ich froh nur noch auf amd zu setzen.Auch von der cpu her 5800x3d undervoltet noch zusätzlich somit leuft die cpu auf knapp über 1 volt
Bin mir auch sicher wenn ich die 6900xt ablöse irgendwann duch amd werden die nächsten amd karten um einiges sparsammer sein.
Ich würde mich immer für das sparsammere entscheiden wenn du dafür n paar prozent weniger leistung hast.
 
Zuletzt bearbeitet von einem Moderator:
Zurück