Alder Lake: Intel zeigt die 12. Generation auf der CES

ich mein - die Benchmarks haben ja schon gut gezeigt das die Atom-Kerne weitaus effizienter laufen.
Ein 8+8 Alderlake wird wahrscheinlich eine ähnliche Multicore-Leistung beim Streamen, Rendern oder Video-Bearbeiten haben wie eine 12+0 Konfiguration, dabei aber deutlich weniger Strom verbrauchen.
(bei Lakefield sind die Tremont-Kerne bei Render-Aufgaben mal eben gut 3x so effizient wie alles andere )

Allein schon das macht es für Streamer, Gamer und auch Normalanwender Interessant - die allgegenwärtigen Hintergrundanwendungen und niedrigpriore Aufgaben können von den weit effizienteren Atom-kernen abgearbeitet werden was für entsprechend niedrigeren Verbrauch und Lautstärke sorgt, während man dennoch einige stärkere Kerne hat die für entsprechende Peak/Spiele-Leistung sorgen.


Ob das was wird entscheidet dann aber eher ob hybrid-ISA dann verwendet werden kann bzw wie gut die Betriebssysteme damit umgehen können - und was sie kosten. Bei ARM gab es damit schon einige male Probleme (big/little mit unterschiedlichen minor-revisions und anderen Erweiterungen).
 
Die Strategie hinter der Kombination dürfte klar sein: Atom-Kerne können leichte Workloads erledigen oder in Lastszenarien Aufgaben, die keine volle Core-Power brauchen, während die Core-Kerne die großen Brocken schlucken. Das Konzept ist auf Smartphones mit ARM-Prozessoren in Big Litte-Format seit langem erfolgreich. Auf x86/64-Mobile dürfte das Konzept vermutlich aufgehen; ob sich das auf den Desktop umlegen lässt, wird man sehen.

Wenn Intel im Idle (Surfen im Netz) den ganzen Rechner mit 20W laufen lassen kann, dann haben die gewonnen...
Amd hat das 8+8 Design ja als Blödsinn abgetan... Dummerweise verbraucht aber ein 5900X+MB ganze 80W im IDLE! Intel wird mit Alder-Lake massiv an Boden gewinnen.

Was ist eigentlich aus der Idee geworden, die GPU im Desktopbetrieb abzuschalten? Den Monitor schließt man über die interne GPU an und schleift im Bedarf das PCIe-GPU Signal durch.

Wurde leider nie richtig umgesetzt, könnte im Desktopbetrieb locker -15W sparen.
 
Hat Alder Lake auch SMT?

Zumindest die großen Kerne sollen SMT fähig sein. Wobei die große Frage immer noch ist, ob die CPU AVX 512 unterstützt, da die Atomkerne es nicht können und Intel AVX 512 deshalb angeblich deaktivieren möchte, um Problemen aus dem Weg zu gehen. Das wäre, gegenüber Rocketlake, ein klarer Rückschritt.
Amd hat das 8+8 Design ja als Blödsinn abgetan...

Korrigiere mich bitte, wenn ich falschliege (am besten mit Link), aber meines Wissens hat sich AMD darüber bisher nicht geäußert.
 
Zumindest die großen Kerne sollen SMT fähig sein. Wobei die große Frage immer noch ist, ob die CPU AVX 512 unterstützt, da die Atomkerne es nicht können und Intel AVX 512 deshalb angeblich deaktivieren möchte, um Problemen aus dem Weg zu gehen. Das wäre, gegenüber Rocketlake, ein klarer Rückschritt. [...]
Nein, das ist keine Frage (mehr) ;-)
AVX-512 wird es hier nicht geben (voraussichtlich nur deaktiviert, da an den Scheduler Ports 0 + 1 bisher jeweils eine 256-Bit-Einheit hängt, die kombiniert die primäre 512-Bit-Einheit ergibt. *)
Das Maximum in Alder Lake ist AVX2-Support und man vereinheitlicht die ISA, indem auch die Gracemont-Kernen nun AVX2 beherrschen (anstatt nur SSE). Zusätzlich hinzu, weil man darauf nicht mehr verzichten möchte, kommt nun eine 256-Bit-Version von VNNI für ML-Workloads.
Golden Cove als Mikroarchitektur wird zweifelslos weiterhin über eine vollwertige AVX-512-Unterstützung verfügen und voraussichtlich auch mit bfloat16-Support (mit Cooper Lake SP eingeführt, in Ice Lake SP fehlt es jedoch), denn die uArch stellt auch die Basis von Sapphire Rapids SP dar.

*) Bei den Xeon-Dies wurde ab Syklake zusätzlich noch eine weitere 512-Bit-Einheit an den Scheduler Port 5 angehängt, die optional ist und in der jeweiligen uArch nur auf den Xeon-Dies (grundsätzlich) vorhanden ist. Bei den kleineren Xeon's deaktiviert Intel diese Einheit aus Gründen der Produktdiversifikation (und auch auf den Core X-Ablegern hatte man die bisher grundlegend aktiviert belassen). Für Sapphire Rapids SP kann man ein ähnliches Vorgehen erwarten (d. h. weitestgehend zwei aktive AVX-512-FMA-Einheiten pro CPU-Kern und damit weiterhin theoretische bis zu 32 Flops FP64-Durchsatz pro Kern und Taktschritt).

@Casurin: Wie erklärt, das ist eine unified ISA, d. h. die Atom-Kerne unterstützen den gleichen Befehlssatz wie die Golden Cove-Kerne, d. h. die Last bzgl. dieser Unterscheidung wurde hier schon eliminiert. Der OS-Scheduler muss nur noch entscheiden ob schnell (und mit SMT) oder ob langsam und effizient (ohne SMT).
Wie Torsten schon mal zuvor skizzierte, würde es sich anbieten die ganzen Hintergrundprozesse auf die Atom's zu legen und bspw. damit die großen Kerne komplett für die App im Vordergrund freizuhalten und voraussichtlich werden (bei einem 8+8 Design) auch noch ein paar Atom's freibleiben, die man optional auch noch der App zuweisen könnte, wenn man eine maximale Performance anstrebt.

Zudem zeigte Igor im Juli auch mal einen Auszug, der darauf hindeutete, dass es möglicherweise CPU-Varianten ohne Atom-Kerne geben könnte. Konkret fand sich hier ein 6+0+1 Design, also 6x Golden Cove, kein Atom und eine iGPU. Ob das aber noch aktuell ist, bleibt abzuwarten, denn in dem Auszug war auch von einem AVX-512-Support auf den Golden Cove-Kernen die Rede (der ja grundsätzlich durchaus exisitiert), was man nun aber nachträglich offensichtlich wegrationalisiert (deaktiviert) hat, um ein einfacheres Handling der gemischten Kerne zu ermöglichen. (Entsprechend neu ist auch die Einführung von 256-Bit-VNNI, dessen Einführung voraussichtlich ein Resultat dieser Streichung war.)
 
Zuletzt bearbeitet:
Wie erklärt, das ist eine unified ISA, d. h. die Atom-Kerne unterstützen den gleichen Befehlssatz wie die Golden Cove-Kerne, d. h. die Last bzgl. dieser Unterscheidung wurde hier schon eliminiert. Der OS-Scheduler muss nur noch entscheiden ob schnell (und mit SMT) oder ob langsam und effizient (ohne SMT).
Bestätigt ist es dennoch noch nicht - auch wenn quasi alles darauf hin deutet und es absurd wäre das jetzt schon zu versuchen wenn es bei ARM nach so vielen Jahren noch nicht klappt.

Zudem zeigte Igor im Juli auch mal einen Auszug, der darauf hindeutete, dass es möglicherweise CPU-Varianten ohne Atom-Kerne geben könnte.
Da gabs schon so viele Leaks dazu - es wird ziemlich sicher Konfigurationen von 2+8+1 bis 8+0+1 geben. Und 2+8+2 wäre für Mobile-Devices verdammt interessant (man kann nur hoffen das die wirklich kommen).


Kommt halt wirklich auf den Preis an.
Ein 4+8+1 für 150-200€? Super. 300 €? ... nutzlos. Beides könnte kommen.
 
Wenn Intel im Idle (Surfen im Netz) den ganzen Rechner mit 20W laufen lassen kann, dann haben die gewonnen...
Amd hat das 8+8 Design ja als Blödsinn abgetan... Dummerweise verbraucht aber ein 5900X+MB ganze 80W im IDLE! Intel wird mit Alder-Lake massiv an Boden gewinnen.

Was ist eigentlich aus der Idee geworden, die GPU im Desktopbetrieb abzuschalten? Den Monitor schließt man über die interne GPU an und schleift im Bedarf das PCIe-GPU Signal durch.

Wurde leider nie richtig umgesetzt, könnte im Desktopbetrieb locker -15W sparen.
80W im Idle sind eher Threadripperwerte. Etwa 40W sind ein solider AM4-CPU-Wert.
Siehe z.B. hier: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/6/
Na gut, mit dem Surfen im Netz, was du in Klammern (aber nur bei Alder Lake, nicht beim Vermeer!) nachgeschoben hast, findest du sicherlich irgendein Szenario, indem die 80W erreicht werden.

Für AlderLake wäre 20W im Idle wäre immer noch kein guter Wert. Mein persönlicher Maßstab für die nächsten Plattformen, also AM5 und LGA1700, sind <5W im Idle. Sowenig ist bei Notebooks mitsamt Display erreichbar, das muss auch im Desktop gehen. Dafür ist auch kein Hexenwerk nötig, sondern nur disziplinierende Vorgaben für die Boardhersteller sowie eine solide praxistaugliche DualGraphics-Lösung auf Basis einer sinnvoll ausgelegten iGPU in jedem Prozessor. Anders gesagt: Wo ein Wille ist, ist auch ein Weg; in diesem Fall sogar ein sehr klarer. Wird der Weg nicht gegangen, dann gibt es genügend Anlass, verstimmt zu sein!
 
Nein, das ist keine Frage (mehr) ;-)
AVX-512 wird es hier nicht geben (voraussichtlich nur deaktiviert, da an den Scheduler Ports 0 + 1 bisher jeweils eine 256-Bit-Einheit hängt, die kombiniert die primäre 512-Bit-Einheit ergibt. *)
Das Maximum in Alder Lake ist AVX2-Support und man vereinheitlicht die ISA, indem auch die Gracemont-Kernen nun AVX2 beherrschen (anstatt nur SSE). Zusätzlich hinzu, weil man darauf nicht mehr verzichten möchte, kommt nun eine 256-Bit-Version von VNNI für ML-Workloads.
Golden Cove als Mikroarchitektur wird zweifelslos weiterhin über eine vollwertige AVX-512-Unterstützung verfügen und voraussichtlich auch mit bfloat16-Support (mit Cooper Lake SP eingeführt, in Ice Lake SP fehlt es jedoch), denn die uArch stellt auch die Basis von Sapphire Rapids SP dar.

*) Bei den Xeon-Dies wurde ab Syklake zusätzlich noch eine weitere 512-Bit-Einheit an den Scheduler Port 5 angehängt, die optional ist und in der jeweiligen uArch nur auf den Xeon-Dies (grundsätzlich) vorhanden ist. Bei den kleineren Xeon's deaktiviert Intel diese Einheit aus Gründen der Produktdiversifikation (und auch auf den Core X-Ablegern hatte man die bisher grundlegend aktiviert belassen). Für Sapphire Rapids SP kann man ein ähnliches Vorgehen erwarten (d. h. weitestgehend zwei aktive AVX-512-FMA-Einheiten pro CPU-Kern und damit weiterhin theoretische bis zu 32 Flops FP64-Durchsatz pro Kern und Taktschritt).

@Casurin: Wie erklärt, das ist eine unified ISA, d. h. die Atom-Kerne unterstützen den gleichen Befehlssatz wie die Golden Cove-Kerne, d. h. die Last bzgl. dieser Unterscheidung wurde hier schon eliminiert. Der OS-Scheduler muss nur noch entscheiden ob schnell (und mit SMT) oder ob langsam und effizient (ohne SMT).
Wie Torsten schon mal zuvor skizzierte, würde es sich anbieten die ganzen Hintergrundprozesse auf die Atom's zu legen und bspw. damit die großen Kerne komplett für die App im Vordergrund freizuhalten und voraussichtlich werden (bei einem 8+8 Design) auch noch ein paar Atom's freibleiben, die man optional auch noch der App zuweisen könnte, wenn man eine maximale Performance anstrebt.

Zudem zeigte Igor im Juli auch mal einen Auszug, der darauf hindeutete, dass es möglicherweise CPU-Varianten ohne Atom-Kerne geben könnte. Konkret fand sich hier ein 6+0+1 Design, also 6x Golden Cove, kein Atom und eine iGPU. Ob das aber noch aktuell ist, bleibt abzuwarten, denn in dem Auszug war auch von einem AVX-512-Support auf den Golden Cove-Kernen die Rede (der ja grundsätzlich durchaus exisitiert), was man nun aber nachträglich offensichtlich wegrationalisiert (deaktiviert) hat, um ein einfacheres Handling der gemischten Kerne zu ermöglichen. (Entsprechend neu ist auch die Einführung von 256-Bit-VNNI, dessen Einführung voraussichtlich ein Resultat dieser Streichung war.)
Das ist HÖCHST interessant, lese ich hier zum ersten Mal (aber jetzt kenne ich dich ja schon ein bisschen, du schreibst soweit ich das sehen konnte immer faktenbezogen). Wär für mich etwa ein klarer Grund gegen Alder Lake (gut... ich war vorher auch nur auf IPC gespannt, kaufen würde ich sowieso nur "große" Kerne. Die kleinen eher nur im Notebook)
 
Das ist HÖCHST interessant, lese ich hier zum ersten Mal (aber jetzt kenne ich dich ja schon ein bisschen, du schreibst soweit ich das sehen konnte immer faktenbezogen). Wär für mich etwa ein klarer Grund gegen Alder Lake (gut... ich war vorher auch nur auf IPC gespannt, kaufen würde ich sowieso nur "große" Kerne. Die kleinen eher nur im Notebook)
Faktenbezogen ... da das hier ein Technikforum ist, halte ich das i. d. R. für die sinnvollste Art zu diskutieren. Wäre ich in der Marketingabteilung einer der beiden großen Firmen, würde ich da wohl etwas umdenken müssen, denn zuweilen geht es da auch mehr um Gefühl und Wellenschlag als um harte, technische Fakten. Letzten Endes ist das aber z. G. nicht mein Metier, sodass ich mir auch ohne Gewissensbisse, die Hardware einbauen kann, die gerade am besten meinen Ansprüchen genügt, ob die nun rot, grün, blau oder lila ist, ist mir da herzlich egal. ;-)

Ergänzend:

Zumindest Apple hat das vermutlich [auf eine derartige CPU gewartet] und als Intel nicht liefern konnte, haben sie sich wohl nach etwas anderem umgesehen und es dann selbst in die Hand genommen.
Ich würde hier eher die Vermutung in den Raum stellen wollen, dass es Apple weit mehr darum ging die Wertschöpfungskette weitreichender zu kontrollieren und mittelfristig die Marge zu erhöhen und dazu gehört es nun einmal die Abhängigkeiten zu verringern. AMD ist ja grundlegend mit seinen APUs auch auf einem guten Weg und nutzte bereits eine modernere Fertigung in 2019 (i. V. z. Intel), jedoch war das offensichtlich Apple nicht genug, da man letzten Endes nur einen Zulieferer gegen einen andere ausgetauscht hätte und so hat man auch AMD einen Korb gegeben und der wird am Ende gar auch ein vollständiger Korb werden, denn Apple entwickelt auch an einer eigenen Grafik-IP, d. h. absehbar wird Apple für AMD auch als Kunde für GPUs wegfallen. *)

*) Möglicherweise Codename "Lifuka". Details sind noch nicht bekannt und möglicherweise handelt es sich vorerst dabei nur um eine Art iGPU, jedoch kann man sich leicht ausrechnen, dass es in dem Falle nicht allzu lange dauern wird, bis man das Design auch auf größere, dedizierte GPUs erweitern wird.
 
Zuletzt bearbeitet:
80W im Idle sind eher Threadripperwerte. Etwa 40W sind ein solider AM4-CPU-Wert.
Siehe z.B. hier: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/6/
Na gut, mit dem Surfen im Netz, was du in Klammern (aber nur bei Alder Lake, nicht beim Vermeer!) nachgeschoben hast, findest du sicherlich irgendein Szenario, indem die 80W erreicht werden.

Für AlderLake wäre 20W im Idle wäre immer noch kein guter Wert. Mein persönlicher Maßstab für die nächsten Plattformen, also AM5 und LGA1700, sind <5W im Idle. Sowenig ist bei Notebooks mitsamt Display erreichbar, das muss auch im Desktop gehen. Dafür ist auch kein Hexenwerk nötig, sondern nur disziplinierende Vorgaben für die Boardhersteller sowie eine solide praxistaugliche DualGraphics-Lösung auf Basis einer sinnvoll ausgelegten iGPU in jedem Prozessor. Anders gesagt: Wo ein Wille ist, ist auch ein Weg; in diesem Fall sogar ein sehr klarer. Wird der Weg nicht gegangen, dann gibt es genügend Anlass, verstimmt zu sein!
Mein 5900X mit B550 Board und 4SSDs braucht 80W im Idle und 100W wenn ich den Random Reboots minimieren will. Habe deshalb jetzt Board und CPU getauscht.

Hier realistische Werte:
1610615592001.png


Intel und AMD müssen hier echt mal was machen.
PCs sollten im IDLE nicht mehr als 20W verbrauchen...
 
Da haben die Grafikkarten aber einen nicht unerheblichen Anteil dran. Als ich den AM4-Parcours renoviert und in dem Rahmen den 1800X gegen einen 3950X sowie die 1080 gegen eine 5700XT ausgetauscht habe, ist auch der Leerlaufverbrauch von 43 auf 62 W hoch. Intel 1200 mit der Radeon liegt bei 55 W, während 1151 (CFL) ebenfalls mit 1080 auf 36 W kam, was sogar eine Verbesserung gegenüber den 1151-(SKL)-Messungen mit 43 W war. Im Detail müsste man natürlich noch einmal die durchschnittliche Mainboard-Ausstattung abgleichen, aber der Zusammenhang mit der verbauten GPU ist auf alle Fälle stärker als mit der CPU.


Korrigiere mich bitte, wenn ich falschliege (am besten mit Link), aber meines Wissens hat sich AMD darüber bisher nicht geäußert.

Eine öffentliche Pressemitteilung kann ich dir nicht verlinken, aber in einem geschlossenen Veranstaltung im Rahmen des Zen3-Launches hat Joe Marci ausdrücklich gesagt, dass sie big.Little sorgfältig untersucht haben, weiterhin im Auge behalten und er nicht ausschließen kann, dass da irgendwann noch einmal was kommt. Aber für den Moment hat er eine klare Absage erteilt, weil es für AMD zu schwierig wäre gegenüber Zen3 deutlich effizienter zu werden und ISA-kompatibel zu bleiben. Das Wort "Blödsinn" hat er in dem Zusammenhang nicht in den Mund genommen, aber sehr ausführlich eingeleitet, dass man big.Little wegen dem Marketing/Corecount, der Performance oder der Effizienz machen könnte. Und dann hat er dargelegt, dass all-big natürlich performanter ist, dass die Effizienz nur steigen würde, wenn Scheduler stark asymmetrische Designs sauber verwalten könnten (worauf AMD aber nicht aktiv hinwirkt) und das AMD nie etwas nur für das Marketing machen würde. Viel dreister kann man es als offizieller Sprecher nicht formulieren.


Ich würde hier eher die Vermutung in den Raum stellen wollen, dass es Apple weit mehr darum ging die Wertschöpfungskette weitreichender zu kontrollieren und mittelfristig die Marge zu erhöhen und dazu gehört es nun einmal die Abhängigkeiten zu verringern. AMD ist ja grundlegend mit seinen APUs auch auf einem guten Weg und nutzte bereits eine modernere Fertigung in 2019 (i. V. z. Intel), jedoch war das offensichtlich Apple nicht genug, da man letzten Endes nur einen Zulieferer gegen einen andere ausgetauscht hätte und so hat man auch AMD einen Korb gegeben und der wird am Ende gar auch ein vollständiger Korb werden, denn Apple entwickelt auch an einer eigenen Grafik-IP, d. h. absehbar wird Apple für AMD auch als Kunde für GPUs wegfallen. *)

*) Möglicherweise Codename "Lifuka". Details sind noch nicht bekannt und möglicherweise handelt es sich vorerst dabei nur um eine Art iGPU, jedoch kann man sich leicht ausrechnen, dass es in dem Falle nicht allzu lange dauern wird, bis man das Design auch auf größere, dedizierte GPUs erweitern wird.

Die CPUs sind zwar kein kleiner Kostenpunkt in einigen Mac Pros, aber über das ganze Sortiment hinweg dürfte Apple keinen all zu großen Sprung in Sachen Wertschöpfung machen. Aber sie beenden die Parallelentwicklung der ARM-iOS-Sparte und der x86-MacOS-Familie, die meinem Wissen nach sowie nicht viel zum Gewinn beiträgt; sparen also massiv Kosten ein beziehungsweise können mehr Know-How auf die verbleibenden Geräte konzentrieren. Zudem ist Bindung an den Apple Store bei iOS weitaus besser, woran Apple richtig gut verdient, und mit zunehmender Leistung werden die Grenzen zwischen Smartphone, Tablet, Subnotebook und Desktop-Rechner immer fließender. Harte Kompatibilitätsgrenzen bei Anwendungen für bestimmte Zwecke machen innovative Geräte in Übergangsbereichen aber bislang unmöglich.
 
Naja: im Ausgeschalteten Zustand zieht mein PC hier etwa 3W, wenn ich jetzt noch ein Handy anhänge natürlich dementsprechend mehr (weil es lädt), auch deutlich mehr, als würde ich das Handy am Stecker betreiben (weil Netzteile bei geringer Last oft ineffizient sind).
Der Mac meiner Frau zieht im Ausgeschalteten Zustand auch so ca 3.5W, im Standby wiederum braucht mein Laptop und ihr Macbook ca 0.4W.
In dem Fall ist Standby also durchaus eine Lösung.
Relativ betrachtet bestimmt. Aber jetzt rechne das mal auf 10 - 20 Jahre * die Anzahl der Geräte weltweit hoch, was hier unnötig Strom verbrannt wird.
 
Mein 5900X mit B550 Board und 4SSDs braucht 80W im Idle und 100W wenn ich den Random Reboots minimieren will. Habe deshalb jetzt Board und CPU getauscht.

Hier realistische Werte:
Anhang anzeigen 1350718

Intel und AMD müssen hier echt mal was machen.
PCs sollten im IDLE nicht mehr als 20W verbrauchen...
Das ist in der Tat gigantisch. 80W idle?
Ich hab hier 60, aber das auf einem 12 Jahre alten i7, der hat noch nicht viel vom Stromsparen gehalten...
Relativ betrachtet bestimmt. Aber jetzt rechne das mal auf 10 - 20 Jahre * die Anzahl der Geräte weltweit hoch, was hier unnötig Strom verbrannt wird.
Ja wie gesagt: die meisten PCs brauchen auch Strom, nur weil sie angesteckt (auch ausgeschaltet) sind und kaum mehr im Standby. Da wär am besten sie gleich auch auszustecken. Macht nur niemand
 
Das ist in der Tat gigantisch. 80W idle?
Ich hab hier 60, aber das auf einem 12 Jahre alten i7, der hat noch nicht viel vom Stromsparen gehalten...

Ja wie gesagt: die meisten PCs brauchen auch Strom, nur weil sie angesteckt (auch ausgeschaltet) sind und kaum mehr im Standby. Da wär am besten sie gleich auch auszustecken. Macht nur niemand
dann muss es wohl jeder so machen wie bei dem haushalt wo ich bei meinen eltern wohne.Einfach überall Mehrfachsteckdosen anbringen.Sobald nicht benötigt,einfach ausschalten und dann umschalten.So braucht es gar kein Strom mehr.

Am besten koppelt man das was man wirklich benötigt.Also nur das nötigste.Da ich kaum mehr GPU Leistung benötige,kann ich auch in Zukunft eine 75 Watt GPU mit einer Leistungsfähigen CPU koppeln. Im moment wäre es wohl eine gtx 1650 ti,die zwischen einer gtx 1050 ti und einer 1060 liegt.Damit komme ich weiter. Das wird also in Zukunft nicht mehr anderst sein.Sobald es mal ne aktuelle 30 Watt GPU kommen würde,dann wäre es die wo ich nehmen würde.DIe ist noch immer Leistungsfähiger als ne Onbaord GPU und gleichzeitig in der richtigen Richtung beim Stromverbrauch.Das verringert wohl auch den Idle Stromverbrauch. Zum Surfen und dergleichen verwende ich ohnehin schon den Laptop.Ich könnte also wenn ich ganz aufs Gaming beim Laptop verzichte und auch Leistungsfordernde Anwendung ja eh beim Laptop lasse,auch ein super sparsamen Laptop mir holen. Und zocken und Umwandeln mache ich dann mit dem Pc. Dadurch spare ich Stromverbrauch ein. Wenn ich ehrlich wäre könnte ich beim Fernsehr auch noch ein sparsamen Bildschirm mir gönnen.Denn beim Festplatten Recorder kann man kaum noch was sparen.Da habe ich ne SSD drinnen statt wie früher ne HDD. Mehr geht da halt nicht.Da ich immer was aufnehme kann ich leider da nicht sagen ok dann lasse ich das mal ganz aus. Und dieser braucht halt nicht die Welt.Vorher war es ein Humax gewesen wo unter Last mehr Strom verbraucht als nun eine Dreambox es tut.

Mehr kann ich da nun wirklich nicht mehr für den Stromverbrauch dazu beitragen.Bis auf es ganz auszulassen. Irgendwann ist halt mal eben schluss mit dem Stromsparen.
 
Das ist HÖCHST interessant, lese ich hier zum ersten Mal (aber jetzt kenne ich dich ja schon ein bisschen, du schreibst soweit ich das sehen konnte immer faktenbezogen). Wär für mich etwa ein klarer Grund gegen Alder Lake (gut... ich war vorher auch nur auf IPC gespannt, kaufen würde ich sowieso nur "große" Kerne. Die kleinen eher nur im Notebook)
das einzige was du interessant findest ist das du jetzt wieder einen weiteren Punkt nicht verstanden hast aber zum hetzen gegen Intel verwenden wirst - oder ist jetzt auch jede AMD-CPU unten durch weil sie kein AVX512 unterstützen?
Wie soll das auch gehen - es muss vom Betriebssystem unterstützt werden und bei ARM schlägt man sich seit fast 10 Jahren damit rum und hat noch immer keine Lösung dafür.
 
Zurück