AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

Also kann man davon ausgehen das die Zeiten von 75 Watt gpus endgültig vorbei sein werden oder gibt es da vielleicht doch noch ne Möglichkeit durch das mcm Technik auch 75 Watt gpus zu fertigen. Das wäre durchaus interessant. Man müsste also wohl 2 sehr kleine gpu Chips zusammen auf einen Chip bringen.
Natürlich kann man weiterhin 75W-Karten bauen. Aber dafür nutzt man natürlich kein MCM.
MCM ist nur dafür da, eine Performance zu erreichen die ohne unmöglich wird (ähnlich wie SLI damals) weil du halt keine 1000mm^2-Dice wirtschaftlich fertigen kannst (momentan nicht mal technisch).
Karten im Low-End Bereich werden natürlich weiterhin nur einen Einzelchip nutzen.
 
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Besonders toll finde ich eine solche Entwicklung nicht.
Aber die Hardcore-Enthusiasten werden sich freuen. :devil:
 
Optionen zur Leistungssteigerung:

(1) Herstellungsprozess verkleinern 12nm -> 7nm -> 5nm
Problem: Kosten und Verfügbarkeit.

(2) Chipfläche vergrößern
Problem: noch größer zerstört die Ausbeute noch mehr und treibt den Preis nach oben.

(3) Architektur überarbeiten
Problem: nicht immer der riesige Faktor der man meint dass es ist

Am CPU Markt hat man gesehen wie AMD Druck auf Intel machen konnte mit Chiplets. Besonders die Epyc Chips haben gezeigt wie sehr AMD die Gesamtfläche mit Chiplets skalieren konnte, ohne dass deswegen der halbe Wafer auf den Müll wandert. Es wäre grob fahrlässig, wenn AMD nicht mindestens die Option untersucht den Chiplet Aufbau auf GPUs zu übertragen.

Allerdings hätten so zwei Chiplets ein ganz anderes Problem: Hitze. Ein 80mm Ryzen Chiplet macht nicht viel Hitze. So ein 335mm² 6700XT Chip mit 40CUs schon. Davon packen wir dann zwei Stück nebeneinander. Realistischerweise sind wir vom Kühlkörper der GPU limitiert. Oder hat jemand Bock auf 4 Slot Monster damit man 400W Abwärme wegbringt? Das könnte ein Fingerzeig sein, dass Chiplets eher bei 5nm eine Rolle spielen, wenn man ein paar Gewinne bei der Thermik geschenkt bekommt. Zwei 5nm 40CU Blöcke in 240mm² mit einem I/O Die dazwischen wären immer noch riesig, aber machbar. Richtung 3nm Fertigung, reden wir dann von zwei Chiplets auf jeder Seite des I/O Die. Diese Verdopplungen an Leistung (Minus ein kleiner I/O Die Malus) ohne dass man die Architektur oder Ausbeute des Wafes grundsätzlich in Frage stellen muss, sind ein guter Weg.
 
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Das waren aber auch keine hochoptimierten MCMs sondern einfach SLI-Systeme auf einer Einzelplatine (oder im Falle der 7900GX2 oder wie die hieß halt einfach zwei zusammengeschraubte Platinen. :ugly:
Klar, ein einfaches Dual-GPU haut dir die Steckdose aus der Wand. Wenn heute jemand ne Karte wie die ARES oder wie die hieß auflegen würde mit zwei Navi21 oder zwei GA102-GPUs drauf plus natürlich doppeltem vRAM wärste bei 600-700W TDP. Das MCM ist ja gerade dazu da, dass man das NICHT muss^^
Allerdings hätten so zwei Chiplets ein ganz anderes Problem: Hitze. Ein 80mm Ryzen Chiplet macht nicht viel Hitze. So ein 335mm² 6700XT Chip mit 40CUs schon.
Die Wärmemenge ist weniger das Problem als die Wärmedichte (also Watt pro Quadratmillimeter Chipfläche). Und da sind CPUs weit schwerer zu kühlen. Ein Ryzen hat im worstcase (nur ein Chiplet, maximaler boost) auf der Fläche eines Chiplets um die 130W Abwärme (142W Boost des 5800X abzgl. I/O-Die). Das Chiplet is glaub ich Größenordnung 80mm^2 groß. Also etwa 1,6 W/mm^2. Deswegen springen diese CPUs unter Last ja auch sofort so hart in der Temperatur und sind selbst mit Wasserkühlungen kaum unter 70°C zu bringen (was bei GPUs gar kein Thema ist selbst bei 400W Abwärme).

Stell dir mal vor eine High-End GPU mit 500mm^2 und mehr hätte derartige Wärmedichten. Da wäreste bei 800+W für die GPU und bei der ganzen Grafikkarte im vierstelligen Bereich!
Es hat schon einen Grund, warum wir unsere kleinen CPUs noch mit 5 GHz bei 1,5v ballern lassen und die GPUs bei 2 GHz und um die 1v laufen.
 
Das waren aber auch keine hochoptimierten MCMs sondern einfach SLI-Systeme auf einer Einzelplatine (oder im Falle der 7900GX2 oder wie die hieß halt einfach zwei zusammengeschraubte Platinen. :ugly:
Klar, ein einfaches Dual-GPU haut dir die Steckdose aus der Wand. Wenn heute jemand ne Karte wie die ARES oder wie die hieß auflegen würde mit zwei Navi21 oder zwei GA102-GPUs drauf plus natürlich doppeltem vRAM wärste bei 600-700W TDP. Das MCM ist ja gerade dazu da, dass man das NICHT muss^^
Ok, wenn du das sagst dann glaube ich das mal. ;)
 
Keine Sorge, die ersten MCM-Karten werden keine 500W oder noch mehr brauchen. ;-)

160CUs@1,8GHz statt 80CUs@2,5GHz ist sofern die anderen probleme des Designs alle gelöst werden immer noch massiv schneller bei ähnlichem Verbrauch.
 
RDNA3 wird wohl noch nicht auf 5nm setzen.
Wie kommst du zu dieser Annahme? Wegen der verfügbaren Volumina? Oder Prozessreife?

Kann mir das schon vorstellen, dass 2 Jahre nach dem ersten 5nm Produkt (Mediatek chip oder Apples A14 bzw. M1) auch schon größere Chips möglich sind in der Massenfertigung. Vega 20 oder wie der Chip hieß kam auch nicht sooo lange nachdem Apple 7nm SoCs hatte. Vor mitte, eher Ende 2022 rechne ich nicht mit Navi 3x
 
Die Wärmemenge ist weniger das Problem als die Wärmedichte (also Watt pro Quadratmillimeter Chipfläche). Und da sind CPUs weit schwerer zu kühlen. Ein Ryzen hat im worstcase (nur ein Chiplet, maximaler boost) auf der Fläche eines Chiplets um die 130W Abwärme (142W Boost des 5800X abzgl. I/O-Die). Das Chiplet is glaub ich Größenordnung 80mm^2 groß. Also etwa 1,6 W/mm^2. Deswegen springen diese CPUs unter Last ja auch sofort so hart in der Temperatur und sind selbst mit Wasserkühlungen kaum unter 70°C zu bringen (was bei GPUs gar kein Thema ist selbst bei 400W Abwärme).

Die Wärmedichte ist ja beim jetzigen Chip ok. Die Frage ist halt wie nahe kannst du den einen Chip neben den anderen setzen, bevor der Kühlkörper sagt mehr Wärme nehme ich auf die Fläche betrachtet nicht auf; vgl. CPU Problem das du beschreibst. Gleichzeitig wie nahe muss Chip A and Chip B sitzen, damit es keine störenden Latenzen gibt.

Die Lösung wird sicherlich anders sein müssen als bei der CPU (Gott sein Dank haben GPUs auch nicht diese Taktraten, das spart schon mal ein wenig Wärme). Geteilter Heatspreader mit pro-Chip Heatpipes die nicht in Berührung kommen und solche Scherze werden auf dem Programm stehen. Deckel drauf, Paste drüber, Alu-Block wird sicherlich nicht so leicht funktionieren.
 
Die Wärmedichte ist ja beim jetzigen Chip ok. Die Frage ist halt wie nahe kannst du den einen Chip neben den anderen setzen, bevor der Kühlkörper sagt mehr Wärme nehme ich auf die Fläche betrachtet nicht auf
Das kommt auf die Kühllösung an - aber das ist noch kein limitierender Punkt. Selbst wenn du zwei GPUs nebeneinander setzt die zusammen 400W rausdrücken UND du noch HBM daneben hättest der weitere 50W abgibt. So lange die zu kühlende Fläche groß genug bzw. die Wärmedichte klein genug ist (was sie bei GPUs sein wird) ist das kühltechnisch kein Thema die Wärme aufzunehmen - vaporchamber regelt. Da haste nur das Problem die in dem beispiel 450W die du in den Kühler steckst wieder halbwegs leise loszuwerden^^

So lange die Wärmedichten unter 1W/mm^2 bleiben hast du kein Problem mit Wärmeübertragung von Chip zum Kühlerboden, dann ist die reine Menge limitierend (siehe übertaktete GPUs). Erst bei Wärmedichten über 2 W/mm^2 haste ein echtes Wärmedichtenproblem bzw. das Limit ist dann wie schnell du die Wärme in den Kühlerboden bekommst und nicht mehr wie viel der Kühler an die Umgebung abgeben kann (siehe übertaktete CPUs).
 
@Incredible Alk

Ja das glaube ich auch .Denn würde man doppelte Transistoren anzahl mit nur halb so viel Takt nehmen würde es gleich gut nur sein.Rein theroretisch würde sogar nur 1,6 Ghz ausreichen um mehr Leistung zu haben.
Ist halt echt anderst wie bei CPU. Da kann man mehr Transistoren drauf packen. So könnte man sogar 3x soviele Transistoren mit noch weniger Takt nehmen und würde dann noch immer mehr Leistung schaffen.
Ist das nicht so das je Größer die Fläche desto besser kann man die Abwärme da dann auch kühlen und umso kleiner desto schwerer.

Bin gespannt ob das mehr an Fläche insgesammt gesehen hier die Lösung ist. Oder kann man nicht einfach das mehr auf beide GPU Chiplets verteilen um so ne bessere kühlung und gleichmäßigkeit zu erreichen. Ist das denn sowas möglich?
 
Wenn man eine 6800 XT mit 250 bis 300 mm2 bekommt sollte die bezahlbar sein. Chiplets werden 2023 realistisch sein denke aber eher das wird RDNA 4 werden.
 
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Besonders toll finde ich eine solche Entwicklung nicht.
Aber die Hardcore-Enthusiasten werden sich freuen. :devil:
Das hängt halt stark von der Konfiguration ab.
2 Highend-GPUs rande des Limits getaktet - klar.
Aber es gibt auch positiv-Beispiele mit 2 Mitteklasse-Chips. Es muss nicht zwangsweise ein Stromfresser draus werden - das hat ja Alki schon ausgeführt.
Wenn man eine 6800 XT mit 250 bis 300 mm2 bekommt sollte die bezahlbar sein. Chiplets werden 2023 realistisch sein denke aber eher das wird RDNA 4 werden.
Bei 250mm² kann man den selben Chip ab einer Grafikkarte von 200€ einsetzen bis rauf zu 1000+ wenn mans per MCM zusammenschnallt.
Gab ja auch mal die 4850, 4870, 4890 (aber die Preise waren damals noch normal)
Die 4850X2 (selber Chip wie die oben genannten, nur 2x) war mit ca 240W TDP nicht so weit über den 190W der 4890. Ein (zu) hoch getakteter einzelner Chip kann also durchaus in der Nähe einer etwas niedriger getakteten 2-Chip Variante rauskommen - und das schon im gleichen Prozess.
Hier sprechen wir aber von einem 5nm Produkt und vergleichen es mit Navi2 - in 7nm.
 
Zuletzt bearbeitet:
Nvidia und AMD sollen ihre GPU-Sparte für Gamer aufgeben, die können nichtmal genug Karten liefern. Ihre lächerlichen 100.000 Karten pro Monat für die ganze Welt ist nichts, früher haben beide Hersteller das gebacken bekommen dass ausreichend Karten verfügbar sind.
Da haben ihre Marketingfutzis kläglich versagt. Apple bekommt es doch auch auf die Reihe genug zu liefern...
 
Früher gabs doch auch schon diese Dual-GPU-Karten. Das waren die reinsten Stromfresser.
Besonders toll finde ich eine solche Entwicklung nicht.
Aber die Hardcore-Enthusiasten werden sich freuen. :devil:

ja meine Nvidia 7950 GX2 hatte saftige 150 Watt Verbrauch.

Die habt Strom gefressen ohne Ende,

oh warte mal ? das schaffen heute ohne Probleme, ein Chip GPUs im Mittelfeld ?

so hungrig sind die früher gar nicht gewesen ?

Bei der 7900 XT erwarte ich eine Leistungsaufnahme von knapp 375 Watt, PCIe + 2 mal 8 Pin.
 
@Snowhack

Da sieht man mal das ohne stromverbrauch erhöhung keine echte Leistungsteigerung mehr möglich ist.
Mir hätte ja mehr gewünscht das man ne Leistungssteigung ohne mehr Stromverbrauch möglich gewesen wäre. Also Sprich die Highend GPU bei 150 Watt maximal stehen geblieben wäre.Und nur alleine durch den Shrink ne Leistungssteigerung entstanden wäre. Das ist eben nie so eingetreten. Ich frage mich was das shrinken denn dann noch bringt wenn es trotz verkleinerung die Hardware noch immer mehr Strom verbraten tut.
Bei CPU ist ja zum glück die Steigerung an Stromverbrauch nicht so angestiegen.Denn wenn ich nach meinem Ryzen 9 5950x der auf allen Kernen 128 Watt anstatt 142 Watt verbaucht.Breche ich das runter dann würde ein 4 Kerner 32 Watt Verbauchen. Das hat kein I7 3770k unter vollem Last jemals geschaft.Nur mit viel Tricks vielleicht. Bei meinem 3770k waren es so 54 Watt Verbauch gewesen.
Genau solch eine Entwicklung wünsche ich mir bei der GPU ebenso.

Na hoffen wir mal das chiplet bei der GPU auch in diese gute Richtung gehen wird. Ich bin auch gerne bereit GPU zu nehmen wo der Takt nicht ganz so hoch ist.Wichtiger sind ja die Shader.DIe Bestimmte die Richtung wo die Leistung hin geht.Vielleicht Optimieren die GPU hersteller es ja so weit das zwei kleine GPUS weit weniger an Stromverbrauch haben als momentane GPUS,wer weis.

Bin gespannt ob da was gehen wird.Denn diese horrenden Stromverbrauch ist genau das was mich von einem Highend GPU abhalten würde. Ich will also das die PCs weniger Strom als mehr verbrauchen.Also man kann freilich auch ein wenig die Schuld bei den Mainbaord Hersteller geben. DIe brauchen zum teil auch ganz schön viel Strom.
Wenn es so weiter geht muss man beim Pc noch selbst die Keule auspacken und die Hardware das Stromsparen dazu zwingen. Am besten ne Highend GPU nehmen und sie auf 75 Watt drosseln. Mal sehen ob dann am ende noch immer mehr Leistung dabei raus kommt als mit ner Low bzw mittelklasse GPU. Bin auf das Ergebnis gespannt,was da so dabei raus kommen wird.
 
Kann mir das eigentlich nicht vorstellen, man wird selbst mit 5nm Fertigung bei astronomischen Verbräuchen landen, 450-500W. Daher wird man den Takt stark senken müssen um die Karte zu platzieren. Dazu wird man den Preis der 6900XT verdoppeln müssen.
Ach :schief:....lässt sich doch gar nicht verkaufen sowas.
 
Der limitierende Faktor bei gpu cpu ist der sram
auch cache genannt
man kann unzählige Recheneinheiten parallel schalten und die Aufgabe sofern teilbar gleichzeitig berechnen lassen
das Problem ist das der sram eine gewisse zeit gewisse mengen an daten pro takt bereitstellen kann.
Die Datenmenge ist stark gestiegen weil man im letzten cache als dem ram oder vram den takt erhöht hat. Während im ersten cache L1 die zeit für store load reduziert hat.
Aktuell bei sram liegt bei 0,6-0,8ns bei cl1
Die menge des Sram begrenzt die maximale gleichzeitige Datenbereitstellung einer Rechnung
Zwischenergebnisse kommen in den L2 was bei gpu schon ausreichend ist und bei cpu in den L3 bevor es inden hauptspeicher vram/ram geht
Und jeder schritt erfordert Wartezeiten in form von Takten cl1 cl4 cl6
Und hier kommen die sram bzw ddr ram Eigenheiten zutage
gddr6 ist ddr4 und ein cl takt mit realen 2000mhz gehen mit L1 cl4 und L2 cl6
also braucht die gpu min 4 Takte je 0,8ns um einen load store auszuführen
3,2ns und 4,8ns
Hat man zu viele Shader am laufen können die wegen warten auf daten nicht ausgelastet werden.
Hier kommt es auf das design an und welchen ramtakt man verwendet und wie schnell dieser ist.
Mehr Bandbreite schnellere frames

Im Grunde wäre es ideal wen man immer weniger Einheiten schneller arbeitet und mehr datendichte also physischen Speicher bearbeiten kann .
Das und dann weniger Abwärme würde zu einer ipc Steigerung kommen nur da sind wir an einen punkt gekommen wo das nicht mehr geht.
man muss in die breite gehen um die Abwärme abzufedern.
Das problem ist weniger die Wärmemenge als die dichte
wenn man 2w je mm² abführen muss wird das zum hotspot und lässt sich nur schwerlich auf einen heatspreder ausbreiten.
Folglich müssen gpu designs sich auf Fläche vergrößern und mehr nicht arbeitende teile des chips die wärme aufnehmen.
vorzugsweise wird dann sram oder die I/O mit größeren Strukturen belichtet.
Wo die alu in kleineren Strukturen belichtet werden.
Dadurch werden aber physisch die chip größer.
In 7nm ist man auf max 805mm² begrenzt und ist somit der schlechteste yield von allen.
Die beste sind so 80mm² was die ryzen chiplets entsprechen nahezu 99% yield
GPu liegen so um die 70% bei ~500mm² n21

Und genau hier soll ja mcm helfen bei 5nm das man nicht noch größere chips herstellen kann ist klar je mehr shader auf einen mm² desto wärmer wird es.
Und die 80cu auf 7nm sind schon hart an der grenze was wärmedichte angeht
in 5nm wären sogar 100cu machbar aber der takt müsste um gut 25% sinken was die Steigerung zunichte macht.
man kommt auf lange Sicht nicht herum mit mcm.
Selbst in 3nm was nochmal die dichte vergrößert um 60% werden zwar die Monolithen kleiner aber deren wärme dichte verdreifacht sich.
Wie willste das kühlen.

Daher wird allein bei der menge an parallelen alu immer mehr Energie auf kleinere Fläche gepresst
Der limitierende Faktor ist hier klar sram takt.
Der nächste schritt wäre HBM auf der gpu
Größeres imc mehr takt. weniger Energie
Da spielen aber Fertigung und ram preise mit rein.
das dann immer mehr Energie insgesamt für eine gpu gebraucht wird ist da nur logisch.
Mit HBM könnte man 60% an ramstromverbrauch senken. von derzeit bei 8 chips 30w auf 12w
Einzig die kosten pro HBM Modul sind doppelt so teuer wie bei gddr modul

ALU und shader sind quasi identisch
Während alu die Recheneinheitsfunktion genau beschreibt fp32 und variable parallele Berechnungen. sind shader auf einen Funktion Bereich limitiert
vertex, pixel in halb ganz und doppelte Genauigkeit.
dabei sind shader nicht = shader amd und nvidia sind zwei völlig andere Ansätze.
Am ende sind beide Directx/opengl kompatibel und darauf kommt es an.
Am ehesten sind shader mit cpu alu zu vergleichen was dann sse 1-4,1 fma und avx1, 2, 512 entspricht.
Und wer prime95 kennt weiß das diese Recheneinheiten sehr heiß werden können.

natürlich spielt hier auch die physische grenze der Fertigung mit rein
Derzeit wird alles nur per duv belichtet euv kommt noch und gaa wird nochmal die transistordichte erhöhen aber auch die Abwärme
man wird gezwungen sein die Spannungen zu senken inwieweit sich das dann noch so hoch Takten lässt ist offen.
Das nächste was die fertigung revolutioniert wäre ein anderes material als Silizium.
Ein supraleiter wäre ideal bei Raumtemperatur.
 
@Prozessorarchitektur
Ich verstehe. Mehr shader ist also schlecht für Temperatur und Stromverbrauch.
Und es treibt die kühlungsbedarf in die Höhe. Da es also auch aufwendiger ist zu kühlen braucht der Kühler auch immer mehr Strom. Und klar je mehr RAM desto wärmer wird es.
Man müsste also 50 cu je Chip mit weniger takt und weniger Spannung realisieren. Würde man da mit noch weniger cu also mit shader daher kommen, könnte man zwar den takt wieder erhöhen also sagen wir bei 35-40 cu aber das würde nicht reichen weil es trotz mehr takt eben dann auch wieder mehr Stromverbrauch entsteht.
Es ist somit verdammt schwer. Es wurde sogar getestet das es bei cpu 128 Kerne mit halt weniger takt. Also 2 ghz anstatt 4 und wenn man diese voll auslasten könnte würde diese wohl auch ne gewisse rohleistung statt finden. Also man könnte wenn man wollte 100 cu zwar schon schaffen, müsste jedoch dann den takt auf 1 ghz begrenzen. Das würde zwar gehen aber du schreibst ja das je mehr shader die Temperatur steigen lässt.
Also können sie das leider auch nicht machen. Dann der Punkt den du ja anspricht das shader verdammt viel Platz verbraucht.
Blöd das dies somit nicht geht. Wir Bräuchen also ne total neue Technik wo mit weniger Shader und wenig tskt verdammt viel Leistung herauszuholen ist.
Es sei denn nvidia und AMD schaffen es durch nur reine fp 16 einheiten anstatt 32 die Leistung zu erhöhen. Oder man macht die shader so flexible das sie mit egal ob flaot oder fp oder sonst was mit gleicher Leistung umgehen könnten. Alles halt nur noch mit 16er einheiten. So wie es halt damals amd mit fma 128 bzw avx 128 da mehrere davon avx 256 und so zusammen übertroffen hatten. Könnte mir sowas gut vorstellen.
Das was ich damals auch gut gefunden hatte waren die 1000 Serie von nvidia die Bandbreite einsparen konnte. Sowas könnten die im chiplet Bereich also rein stecken. Je weniger Bandbreite gebraucht wird weil eingespart spart es am Ende doch auch stromverbrauch weil so viel eingespart wurde. Und man dadurch ja auch weniger Speicher Bausteine brauchen tut.

Und mir ist zwar was eingefallen aber das würde wohl die shader noch heißer werden lassen. Die shader einfach verkleinern also ohne sie shrunken zu müssen.
Also sie entschlacken.
Je kleiner jedoch desto schwerer werden diese dann zu kühlen sein. Egal wie man es dreht und wendet, das Problem ist also die Temperatur, Platz bedarf und Stromverbrauch.
Bin somit voll gespannt wie sie das Problem lösen wollen. Denn ich sehe hier nur lauter Teufelskreise.

Ich bin ja zumindest froh das wir solche Probleme nicht im Bereich cpu haben. Das wäre wohl das schlimmste wenn es bei gpu und cpu die selben Probleme sind.
Aber auch bei cpu wird es irgendwann mal zu solchen Problemen kommen. Denn mal ehrlich fad es 80 mm2 chipfläche ist schon verdammt wenig. 40 oder gar 20 würde wohl dann die selben Probleme wie bei der gpu sein, weil es da dann haar genau so ist. Und ich habe also noch das Glück das es eben ich diesen habe und mir dann um nächsten, übernächsten bzw über über nächten cpu eben von solchen Problemen nicht merken werden weil ich mit der jetzigen ich für ne sehr lange Zeit meine Ruhe haben werde.
Ohne oc hält ne CPU also länger durch.
Wird also wohl auch bei ner gpu genauso gelten.
Also verabschieden wir uns schon mal von hohen gpu takt und von mehr shader ebenso.


Dann muss man da sich gut überlegen. Wenn shader bei der gpu wie avx Einheiten ist, wenn man also diese nicht nutzt dann wird auch die gpu Kühler bleiben. Dann muss also der Umfang der Funktionen der shader sich reduzieren. Ich verwende bei der CPU ja auch garkein avx und siehe da diese CPU wird stromsparender und Kühler. Ich verwende also noch nicht mal avx 1. Wenn es möglich ist auch bei der gpu solche Einheiten auszulassen warum ja nicht. Villeicht hilft das ja usn weiter, wer weiß.
 
Die meisten Rechner laufen während ihrer Laufzeit im Prinzip nie mit echter Peak-Auslastung/Leistung; wenn überhaupt dann eher provoziert als praktisch sinnvoll oder alltäglich. Bei Photovoltaikanlagen gibt es die nicht offizielle VAp/Wp-Angabe (Watt-Peak) an die ich bei "verbrät xxxx Watt" zwanghaft denken muss. Gleiches Gedankenspiel nur an einem anderen Ende der Leitung.
 
Zurück