Nvidia Ada Lovelace: Maximale Powerlimits der GPUs geleakt

Ja, die Karte war echt gut , nur der Lärm und die Hitze eine Katastrophe.
Habe meine damals gegen die custom von Zotec ausgetauscht ,dann war ruhe.
Zotac baute damals mit den Amp!-Modellen die besten Custom-Kühler für Ther..., ähem Fermi.

Zum kommenden Verbrauch, was scheren die Amis die Strompreise in good old Germany:D

Gruß
 
Man hat halt nur drei Stellschrauben:
(1) Architektur
(2) Herstellungsprozess in nm
(3) Stromverbrauch

Nvidia, aber auch Intel, haben diese Philosophie, dass man 1% vor der Konkurrenz liegen muss, egal zu welchem Preis: sprich, egal zu welchem Stromverbrauch.

Vielleicht sollt man aber auch mal anregen, dass man als Kunde nicht nur sehen will, welcher Hersteller um jeden Preis vorne liegt, sondern wer innerhalb eines gewählten Budgets vorne liegt. Beim Preis macht man das ja auch. Man zieht willkürliche eine Preisgrenze und schaut dann wer drunter liegt und am besten ist.

Also bitte, Showdown der 200W, 500W, MaxW PCs. Statt 500€, 1000€ und 1500€ PCs.
 
Ich würde mir wünschen, dass man bei gleichem Verbrauch eine Mehrleistung erzielt, und gleichzeitig Reserven für Overclocking hat. Die Unterschiede der Partnerkarten bei der Maxwell und Pascal-Generation waren für mich als damliger Einsteiger/Neuling ein Traum: Zwischen günstig und "langsam" bis teuer und "schnell" (im Vergleich zum Referenzdesign) ließ einem für jedes Budget etwas finden. Da sind Turing und Ampere deutlich schlechter, weil sich die Karten in den FPS zu sehr ähneln.

Ich habe damals, als ich Anno 2017 mein System gebaut habe, ein 750 Watt-Netzteil verbaut, und bis heute im Einsatz. Geplant waren 10 Jahre Nutzung. Eine RTX 3090 mit meinem i7 samt OC läuft damit problemlos, aber es ist näher am Limit als mir lieb ist. Ich zahle nur 30 EUR Abschlag für Strom pro Monat, dank sehr guten Konditionen meines Vermieters. Dennoch: Die Entwicklung läuft in die falsche Richtung.

Aber welche Alternative bietet sich an? AMD kaufen, statt NVIDIA? Intel, statt AMD oder Nvidia? So wirklich überzeugt mich keiner der Hersteller, zu mal nicht bekannt ist, wie Intel performen wird.
 
Wird langsam Zeit für eine neue Generation. Spiele gerade Far Cry 6 und UHD läuft nur in hohen Details mit 90+ Fps (inkl. RT-Shadows). Ist eine absolute Qual das so zu spielen.....:ugly:
 
Diese Dt limits sind überzogen oder nvidia plnt andere sku pro chip als wir denken.
man kann keine Einstiegs gpu mit 260w tbp bringen eher wird das die obere mittelklasse. dann passt es.
Wir wissend as ad 106 36sm ht physisch sind es 48sm
gehen wir davon aus dad nvidia es wirklich schafft 46 ganze sm auf 5nm schafft wäre das die rtx4060ti und stiege bei min 499€ ein
Und hat etwa 25tf das entspräche der rtx3090 in ref Takt.
ich frage mich nur dann was nvidia darunter anbieten wird teildeaktivierte chips also bis 36sm hinunter vom ad106 wird es geben diese werden aber bei 200w tbp landen und als rtx4060 mit 20tf (2,2ghz)
Das entspräche etwa +110% vs rtx3060 was ich nicht so glauben kann.
daher wird man noch höhere sku ansetzen und die rtx4070 wird mit dem ad106 quasi vollausbau geben sprich ad106 46sm 25tf 619€
dann 36sm rtx4060ti 499€ 36sm 20tf und als letztes ad107 mit 24sm 2,4ghz 14,7tf als rtx4060 +60% vs rtx3060 399€ ~180w tbp
darunter cut ad107 mit 20 und 16sm bei 2,3 ghz
12tf und 9tf
liste
rtx 4070 ad106 46sm 25tf 260w tbp 619€ 8gb vram +51% vs rtx3070
rtx4060ti ad106 36sm 20tf 200w tbp 519€ 8gb vram +66% vs rtx3060ti
rtx4060 ad107 24sm 14,7tf 180w tbp 419€ 6gb vram + 60% vs rtx3060
rtx4050ti ad107 20sm 12tf 150w tbp 319€ 6gb vram neu
rtx4050 ad107 16sm 9tf 120w tbp 279€ 6gb vram +42% vs rtx3050

Das große problem dabei
das könnte erst q2 2023 bis q4 2024 erst kommen da derzeit nur ad102 ad103 und ad104 kommen bis q4 2022
Sprich
ad102 ada titan 126sm maxed 51tf +77% vs rtx3090ti
ad103 rtx4090 76sm 42tf +68% vs rtx3090
ad104 rtx4080 60sm 33tf +50% vs rtx3080

Gut möglich das eine sku je chip darunter kommt. Nur wird nvidia die benennen will ist offen
Der ad104 hat 72sm physisch vorhanden
der ad103 96sm
derad102 144sm wovn derzeit 110 126 und 136 aktiv sein sollen.
Da aber je mehr sm aktiv sind die yield in den keller gehen
gehe ich vom 110 bis 126sm aus
bei den kleineren sku ist alles offen was bei welchen kommt.
Die tbp sagen schonmal das es keine ad104 bei rtx4070 geben wird.
auch die abstände vs vorgänger machen das deutlich

Einzig amd kann das ändern mit dem sku Namen und chip n31 wird sicherlich high end
n33 sicherlich konkurrent zur rtx4070 die angenommenen 3,3ghz mit 4096shder sagen das deutlich.
Dann kommt es nur darauf an welchen preis amd aufrufen wird ich tendiere zwischen 599-699€ als rx 7700xt
nvidia rtx4070 kommt ja etwa zur gleichen zeit zwischen dez 2022 und januar 2023 für etwa 599-699€
Der vram ist unklar zwischen 8-16gb
amd wird definitiv 8gb verwenden

Dienannahmen können hinkommen den nvidia und amd können nicht 300w tbp bei der Einstiegssegment aufrufen das macht der markt nicht mit.

Dafür gibt es gründe und bald Verordnungen die maximalstrombedarf vom PC zu deckeln.
Und der diy markt ist klein der Hauptabnehmer sind SI
Und ich zweifle das man von maxed 200w für ne dgpu gehen wird eher sogar 150w.
Um ganze pc mit maxed 500w zu begrenzen klar gilt das nicht für DIY
Soll aber ne Richtlinie sein.
Könnte aber bedeuten das der einstig auf 33tf sauteuer wird. und diese gpu erst ab 1000€ real sind. mit saftigen 330w tbp 2,2ghz 60sm/rtx4080=ad104
 
Wird langsam Zeit für eine neue Generation. Spiele gerade Far Cry 6 und UHD läuft nur in hohen Details mit 90+ Fps (inkl. RT-Shadows). Ist eine absolute Qual das so zu spielen.....:ugly:
Beklag' dich nicht. Ich habe 1 Jahr auf eine 3080 gewartet und kann nun Far Cry 6 mit RayTracing bei unter 10 fps genießen. :ugly: Ein Hoch auf 10 GiB Speicher.
 
Ich würde mir wünschen, dass man bei gleichem Verbrauch eine Mehrleistung erzielt, und gleichzeitig Reserven für Overclocking hat.
Aber genau so ist es doch, jede Gen legt auf die Leistung der vorherigen Gen etwas drauf bei gleichem Verbrauch. Da muss man dann halt von einer 3080 auf eine 4070 / 4060 (als Beispiel) wechseln.

Dass die CPUs/GPUs weniger OC Potenzial als früher haben liegt einfach daran dass das Binning viel besser geworden ist. Das ist eigentlich gut für uns, weniger Silicon-Lottery...
 
Beklag' dich nicht. Ich habe 1 Jahr auf eine 3080 gewartet und kann nun Far Cry 6 mit RayTracing bei unter 10 fps genießen. :ugly: Ein Hoch auf 10 GiB Speicher.
Das liegt aber mehr an der AMD Partnerschaft als an den 10 GB. Und wenn Du das HD-Texture Pack weg lässt dann läufts...

https://www.igorslab.de/geplante-nv...r-selbst-eine-rtx-3080-ti-in-die-knie-zwingt/

Fakt ist, hier rächt sich natürlich der Speichergeiz von NVIDIA einmal mehr und es ist im Gegenzug sicher kein völliger Zufall, dass es ein AMD-Titel ist, der so exakt berechnet wurde, dass man die ganzen grünen UHD-Karten nur mit Diät-Menü und ohne HD-Textur-Beilage an den Start schicken kann. Dass man damit aber gleich noch die RTX 3080 Ti mit ins gekenterte Speicher-Boot holt, ist schon etwas delikat und wirkt etwas wie die verspätete Rache für Cyberpunk 2077. So ist diesmal das HD-Texturen-Pack quasi das Raytracing des roten Rächers und es funktioniert sogar verblüffend gut.
 
Da muss man dann halt von einer 3080 auf eine 4070 / 4060 (als Beispiel) wechseln.
Gut, hätte ich natürlich sagen müssen, dass ich nicht downgraden möchte. :)
Ich habe bisher immer die 80er gekauft (1080, 2080, 3080). Meine Grafikkarte wird meist zum Ende einer Generation gekauft, und wird alle 1-1,5 Jahre ersetzt, sofern die Angebote passen.
Habe dadurch beim Wechsel auf die neuere Karte bislang nie mehr als 300 EUR bezahlt und stets sehr viel Freude daran gehabt.
Schön abgezockt hat uns Nvidia :ugly:
Ich würde eine AMD nehmen, wenn die Raytracing-Performance stimmen würde. :)

Das liegt aber mehr an der AMD Partnerschaft als an den 10 GB. Und wenn Du das HD-Texture Pack weg lässt dann läufts...

https://www.igorslab.de/geplante-nv...r-selbst-eine-rtx-3080-ti-in-die-knie-zwingt/
Hatte im Kopf, dass einfach der Speicher zu knapp bemessen ist, und die 3080 12G keine FPS-Einbrüche zu beklagen hat.
 
Gut, hätte ich natürlich sagen müssen, dass ich nicht downgraden möchte. :)
Ich habe bisher immer die 80er gekauft (1080, 2080, 3080). Meine Grafikkarte wird meist zum Ende einer Generation gekauft, und wird alle 1-1,5 Jahre ersetzt, sofern die Angebote passen.
Habe dadurch beim Wechsel auf die neuere Karte bislang nie mehr als 300 EUR bezahlt und stets sehr viel Freude daran gehabt.
Das kannst Du doch weiterhin tun und die neue 4080 undervolten? Da wird bei gleicher Wattzahl trotzdem mehr Performance rauskommen.

Hatte im Kopf, dass einfach der Speicher zu knapp bemessen ist, und die 3080 12G keine FPS-Einbrüche zu beklagen hat.
Kann man so und so sehen, 10 GB reichen in 99% der Spiele, und in dem 1% welche von AMD sponsored wurden nicht. Ein Geschmäckle hat das schon...

Ich hab auch die 3080 10 GB, zocke alles auf max Details in WQHD ohne Probleme. Mir ist die RT-Performance einfach wichtiger gewesen als 6 GB mehr Speicher die ich nie brauche. Muss jeder für sich und seine Spiele Sammlung entscheiden.
 
Ziemlich heftig. Da Frage ich mich, ob es 4 K sein muss. Total falsche Entwicklung. AMD wird langsam eine Obtion. Raytracing hin oder her (steht auch bei Nvidia sowieso noch am Anfang der Reise).
 
Was kann man denn im MSI Afterburner einstellen? 120% Powerlimit?

Die Zahlen könnten ja auch einfach ein Hardlimit sein, so wie bei der 6900 XT der Takt HART auf 3GHz begrenzt war.

Dann wäre das einfach das HARTE Limit für Leute die mit flüssigem Stickstoff experimentieren.

Kein Mensch weiß wie die TDP aussehen wird, bis das Finale BIOS da ist.

Ich kann mir einfach nicht vorstellen, dass Nvidia die TDP derart erhöhen wird.
Höchstens für die absolute High-End Karte.
Soll das nicht wieder eine Titan werden?
 
Langsam überlege ich mir, wo ich noch Strom bei meinem PC einsparen kann?

Meine Arctic AIO 420 verbraucht 15 Watt (3 Watt Pumpe + 3X 140mm Lüfter á 4 Watt). Muss das sein?

Brauche ich LED Beleuchtung?

Vermutlich könnte ich 20 Watt einsparen ohne Leistungsverlust.

Darüber hinaus tut es weh:

Beispiel: Brauche ich einen supergroßen Monitor der 60-65 Watt zieht und das permanent?

Eins brauche ich nicht. Eine Grafikarte die noch mehr verbraucht als meine jetzige. Da ist auch Schluss für mich.
 
Ich warte erst mal ab.... das Geschrei ist ja immer gross und am Ende stimmt eh wieder nix. Wie oft liest man hier irgendwelche Leistungsempfehlungen für Rechner, dann guck ich meinen PC (i7-10700KF, 64GB RAM, 4SSD, RTX 3090) an und frag mich die ganze Zeit was wohl schief rennt wenn mein Pure Power CM11 mit 500W immer noch nicht explodiert ist... Genau gleich wirds bei den 4090 dann auch sein. Alles halb so wild.
 
Zurück