Zen-CPUs: Auch AMD forscht an Big-Little-Design für zukünftige Modelle

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Zen-CPUs: Auch AMD forscht an Big-Little-Design für zukünftige Modelle

AMD hat ein Patent eingereicht, das ein Big-Little-Design für die eigenen Prozessoren beschreibt. Demnach könnte auch AMD in Zukunft kleine und große CPU-Kerne im selben Prozessor vereinen um die Effizienz zu erhöhen. Ein Hinweis auf konkrete Produkte ist das Patent aber nicht, insbesondere da AMD eine zweite CPU-Architektur fehlt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Zen-CPUs: Auch AMD forscht an Big-Little-Design für zukünftige Modelle
 
Bei Intel haben die ganzen AMD Fans ja noch ordentlich darüber hergezogen. Ich bin gespannt, wieviele jetzt, wie üblich, die 180° Kehrtwende vollziehen.

Zum Thema:
Ich bin der Meinung, das ganze hat Zukunft, auch wenn es Zockern nichts (oder nur wenig) bringt. Die EU Energiesparrichtlinien sind extrem streng und das ist eine gute Methode, das einfach einzuhalten.

Zu blöd, dass AMD seine Jaguar Architektur vermutlich aufgeben hat. Das wäre dann die zweite Pleite, dieser Art, nachdem sie die Geode CPUs eingestampft haben und Intel kurz darauf, mit dem Atom, unglaubliche Erfolge gefeiert hat.
 
Den generellen Ansatz finde ich (auch bei Intel) schon nicht schlecht, es kommt halt auf die Umsetzung an. Durch immer winzigere Kerne und zunehmend schlechtere Skalierbarkeit von einfach noch mehr Kernen hat man irgendwann Probleme, sinnvoll große Dies zu produzieren. Wenn beispielsweise die Chiplets bei AMD noch kleiner werden in 5, 3, 2 nm sind sie irgendwann zu klein um sinnvoll zu funktionieren (Packaging, Leistungsdiche usw.) und es ist irgendwan auch nicht mehr arg sinnvoll jetzt 16 oder 32 Kerne aufn Chiplet zu parken um den Space vollzukriegen.

Ich denke langfristig wirds dahin gehen, Multichipmodule oder mindestens ausgeprägte Untereinheiten innerhalb der Chips für Spezialaufgaben zu haben (wie es bei SoCs in Smartphones seit Ewigkeiten schon ist). Dann könntest du nen Ryzen10000 haben der 4 Chiplets hat - eins mit 16-32 normalen x86 Powerkernen, eins mit ner GPU drin die viele tausend Shadereinheiten hat, eins mit kleinen Stromsparkernen und allen Multimediafunktionen quasi wie im Handy und eins mit ner Tonne Cache und dem ganzen I/O drauf. Ein solcher Chip würde locker 90% aller Endanwender mehr als ausreichen (als einzelner Chip, also ohne GPU usw.). Das ganze könnte man im engeren Powerkorsett auch noch übereinanderstapeln (woran Intel ja forscht) und auf der Fläche eines Daumennagels unterbringen.

Ist natürlich alles gesponnen aber da wird noch viel kommen die nächsten Jahre.
 
Ein Zen2-Kern inkl. anteilsmässiger I/O und Cache braucht unter Volllast bei maximalem und sinnvollem Takt ja auch nur noch ca. 11W. Und das dürfte mit "5nm" ab ca. 2022 und "3nm" ab vielleicht 2024 wohl auch so noch weniger werden. Gleichzeitig wird die Akkutechnologie immer leistungsfähiger und günstiger.
Bin nicht überzeugt davon, dass dieser Ansatz ausserhalb von ultradünnen und ultraleichten Notebooks oder Billignotebooks, vielleicht noch Server mit ganz spezifischen Aufgaben gross Erfolg haben wird. Besonders da dies dann besonders gutes Sheduling benötigt, das bsw. Microsoft ja auch nach vielen Jahren nur mehr schlecht als recht hinbekommt.
 
Bei Intel haben die ganzen AMD Fans ja noch ordentlich darüber hergezogen. Ich bin gespannt, wieviele jetzt, wie üblich, die 180° Kehrtwende vollziehen.

Und genau deswegen wird dieses "darüber herziehen" auch nicht aufhören.

Hör du doch einfach auf und ignoriere diese "AMD-Fans". Je länger man diese ignoriert, desto mehr verschwinden mit der Zeit. Aber nein, das Thema muss sofort wieder ausgepackt werden. Damit zeigst du, dass du nicht viel besser bist. Danke dafür..
 
Wenn wir an der Grenze des Machbaren ankommen, dann dürfte die Gigantomanie ausbrechen. SLI und CF dürften ihr Comeback feiern, 4 Grakas, mit jeweils vier GPUs, das sorgt für ordentlich Leistung. Auch konnten, nach 30 Jahren, wieder Multisockelsysteme für Normalos eine Option sein. Mit 4 Sockeln kann man dann 1000W locker wegkühlen. Ein Gaming PC könnte so dann tatsächlich mehrere kW verbrauchen und zu einem sehr teurem Hobby werden.

Spezial Chips werden sich dann auch wieder durchsetzen, da sie dann ihre Stärke ausspielen können.

Ein Zen2-Kern inkl. anteilsmässiger I/O und Cache braucht unter Volllast bei maximalem und sinnvollem Takt ja auch nur noch ca. 11W.

Das ist halt eben immer noch einiges. Vorallem, wenn man zig Millionen PCs berücksichtigt, die überwiegend im Leerlauf herumgurken. So denkt eben die EU und deshalb wird es auch gemacht. Für den Ottonormalgamer ist das bestenfalls eine Entlastung, von ein paar Euro auf der Stromrechnung und eventuell etwas geringere Geräuschbelastung, durch die Kühlung.

Wobei so ein PC, der im Leerlauf, nur 1W benötigen würde, doch eine schöne Sache wäre.

Gleichzeitig wird die Akkutechnologie immer leistungsfähiger und günstiger.

Da ist eher Evolution, statt Revolution angesagt. Gleichzeitig werden die Akkus auch immer kleiner (im Sinn von weniger Kapazität), klar, daran kann man sparen. Wenn die Akkus besser werden, dann verbaut man nicht mehr Speicherkapazität, sondern spart einfach. Längere Akkulaufzeit gibt es eben nur durch höhere Effizienz (wobei da meist einfach der Akku verkleinert wird)

Bin nicht überzeugt davon, dass dieser Ansatz ausserhalb von ultradünnen und ultraleichten Notebooks oder Billignotebooks, vielleicht noch Server mit ganz spezifischen Aufgaben gross Erfolg haben wird.

Die EU wird es mit ihrer Energiesparrichtline reinprügeln, so wie auch schon bei den Glühbirnen. Von daher wird es sich auch durchsetzen, was nicht wirklich schlecht ist. Auch wenn permanent die Gefahr besteht, dass sich die EU mal den Gamingkarten annimmt (eine Begrenzung auf 75W? könnte kommen). 2012 gab es einen Aufstand, als man geglaubt hat, die EU würde die HD 7970 und ähnliche Karten, verbieten wollen.
.
Meine Fresse Pu...hör doch endlich mal mit deiner ewigen Stichelei AMD vs. Intel vs. Nvidia auf. Es kotzt einen an :motz:.

Was glaubst du wie sehr mich diese ewigen Kehrtwenden ankotzen? Extrem, kaum mach AMD etwas, für das Intel verflucht wurde, schon ist das ganze vergessen und man tut so, als wäre man schon immer dieser Meinung gewesen. Wenn man wenigstens wie Konrad Adenauer "Was interessiert mich mein Geschwätz von gestern. Nichts hindert mich, weiser zu werden" etwas daraus lernen würde, aber dem ist leider nicht so.

1: CPU Leistung ist angeblich nicht wichtig, da die GPU begrenzt. Das ganze ist allerdings erst so, seit AMD den Kürzeren gezogen hat, vor dem Core2Duo war es anders. Mit Zen3 wird man wohl eine Kehrtwende erleben können, die dann bei Rocketlake zurückgenommen wird und Zen4 eventuell wieder kommt.
2: Stromverbrauch ist nicht wichtig, so war es jedenfalls beim alten FX, seit Ryzen sieht es wieder anders aus.
3: Als Intel einen alten Dualcore einfach nur länger angeboten hat, gab einen Shitstrom (obwohl er garnicht für Endverbraucher gedacht war). Beim R5 1600 war es dann plötzlich toll, dass AMD sein Portfolio mit uralt CPUs vervollständigt hat.
4: Jahrelang wurde darüber hergezogen, dass Intel seine Boards so schnell einstellt und wieviel besser AMD doch wäre. Kaum hat AMD angekündigt, Zen3 nicht auf alten Boards zu unterstützen, schon haben alle AMD Fanboys das Lied vom "alte Zöpfe abschneiden" gespielt (bis AMD dann zurückgerudert ist).
5: Das gleiche wird jetzt auch hier passieren.

Das Forum ist eben sehr AMD lastig und es tummeln sich viele AMD Fanboys herum (das Fanboykriterum ist erfüllt, wenn objektive Nachteile schöngeredet werden).

Ich weise eben nur darauf hin, dass die AMD Fraktion hier eine Kehrtwerde nach der anderen hinlegt.
 
Je länger man diese ignoriert, desto mehr verschwinden mit der Zeit.

Die Leute verschwinden nicht, im Gegenteil, die werden dadurch nur bestärkt.

Wen hat pcgh verärgert, das wir von diesen Spammern so geplagt werden?

Kostenlose Premiumwerbung

Das ist einiges Wert. Soviel, dass du jemanden, der Deutsch (zumindest rudimentär) versteht, abstellen kannst, die Foren zu fluten. Die Löhne sind ja in vielen Ländern lächerlich gering. Das hier dürfte wohl der Großangriff sein.

PCGH erlaubt, dass auch Neulinge Links Posten dürfen, das ist zwar schön, wenn jemand neues wirklich auf etwas hinweisen möchte, zieht jedoch Spammer an. Die Alternative wäre, das ganze zu verbieten, bis jemand 10 Kommentare getätigt hat und eine Woche zwischen dem ersten Kommentar vergangen ist (bei PMs wird das ja so gehandhabt. Die andere Alternative wäre, dass Kommentare von Neulingen, die Links beinhalten, erst von einem Mod freigeschaltet werden müssen. Um alle Kommentare aktiv zu moderieren ist das Forum zu groß.
 
@PU244:
Wie gesagt, das kommt nur für die CPU oder GPU separat geltend, ohne Platinen drumrum, vermutlich alleine schon durch den Fortschritt bei den Fertigungstechniken. Zen2 braucht auch jetzt im Idle schon sehr wenig Strom. Ein PC der im Idle 1W benötigt, ist derzeit unrealistische Zukunftsträumerei und kann alleine durch eine etwas effizientere CPU niemals realisiert werden.
Verboten wird normalerweise erst etwas, wenn es eine bessere, aber vielleicht in der Investitionsphase etwas teurere Alternative gibt, die Industrie, resp. der Konsument aber bsw. vor lauter Faulheit und Geiz-ist-geil-Mentalität nicht gewillt ist, auf das innovativere Produkt umzuschwenken, wie das lange Zeit bei Glühbirnen der Fall war. Das Verbot dieser Glühbirnen sorgte dann regelrecht für einen Innovationsfeuerwerk, nachdem dadurch die künstlich aufrecht erhaltene Bremse gelöst werden konnte. (Ähnliche künstliche Bremsen sieht man derzeit ja auch in grossem Ausmass seit mittlerweile Jahrzehnten im Energie- und Mobilitätssektor)

So eine wesentlich bessere technische Alternative gibt es weder bei GPUs noch bei CPUs. Daher macht(e) es keinen Sinn solche Chips verbieten zu wollen. Derzeit ist es viel mehr so, wenn ein Chipunternehmen keinen konkurrenzfähigen Chip bringen kann, er vom Kunden relativ stark abgestraft wird. Wenn ein Chiphersteller trotz Konkurrenzfähigkeit keine wesentlich bessere neue Produkte mehr bringt, lässt er wiederum enorm viel Volumen brach liegen, da die gekaufte Hardware dann halt bsw. 10, 20 Jahre lang genutzt wird, statt 5 Jahre.
Ein verlangsamter Aufrüstzyklus ist dabei aus umwelttechnischer Sicht natürlich aufgrund des sinkenden Anteils der "grauen Energie" für die Produktion auch nicht so übel.
Ich kann mir schon vorstellen, dass irgendwann BIG.little-Chips Standard werden. Aber nicht weil das einen massiven Durchbruch bedeutet, Zen2 braucht ja jetzt schon im Idle <5Watt mit 8 Kernen. Sondern weil die Chips auch so extrem klein werden, dass man auch mal mehr Fläche verbraten kann, als notwendig wäre, bsw. für einen nativen 8-Kerner, der noch 4 kleine Kerne angeflanscht bekommt.

(Übrigens, ich sehe nicht, dass ich irgendwo eine Kehrtwendung gemacht habe, als sehr AMD-lastiger Kunde ;) Aber ich sah, dass bei einigen "Blauen" das gross geschriebene Effizienz-Kriterium plötzlich nicht mehr so wichtig war, als AMD endlich wieder konkurrenzfähig, mittlerweile sogar besser geworden ist und sich auf 2-5% mehr Gaming-Performance in 720p versteiften, die Preissituation dann noch nicht beachtend. Ich denke auch jene hatten nicht eine Kehrtwendung gemacht, aber ihnen ist halt einfach ein Pro-Argument nach dem anderen abhanden gekommen. Ich sehe zudem auch wie frühere, notorische Vier-Kern-Bejubler-und-daran-Festhalter heute ebenfalls mit mehr Kernen unterwegs sind. Ich finde auch da, dass das keine Kehrtwende ist, sondern nur das natürliche Schicksal einer konservativen Seele, halt regelmässig den anderen hinterher zu hinken)
 
Zuletzt bearbeitet:
Wenn das DIE zu klein für die Fertigung ist, hätte ich da lieber mehr Cache, bzw. mehr normale Kerne.

Zumal bei Intel ein kleiner Kern nur etwa 1/4 der Fläche eines großen Kernes hat.
Also würde man statt 8+8 auf die gleiche Fläche auch 10+0 bekommen.
 
Little-Kerne könnten bei der FPU abgespeckt werden.
Statt 4×256b nur noch 1×256b oder 2×128b.

Die FPUs sind in den letzten Jahren ja gewaltig angewachsen.
Beim K8 waren es noch 1×64b pro Kern.
Beim K10 schon 1×128b
Bei Bulldozer bis Excavator 2×128b pro 2-Kerne
Bei Zen1 4×128b
Zen2 dann schon 4×256b
 
Bei Intel haben die ganzen AMD Fans ja noch ordentlich darüber hergezogen. Ich bin gespannt, wieviele jetzt, wie üblich, die 180° Kehrtwende vollziehen.

Zum Thema:
Ich bin der Meinung, das ganze hat Zukunft, auch wenn es Zockern nichts (oder nur wenig) bringt. Die EU Energiesparrichtlinien sind extrem streng und das ist eine gute Methode, das einfach einzuhalten.

Zu blöd, dass AMD seine Jaguar Architektur vermutlich aufgeben hat. Das wäre dann die zweite Pleite, dieser Art, nachdem sie die Geode CPUs eingestampft haben und Intel kurz darauf, mit dem Atom, unglaubliche Erfolge gefeiert hat.
Bestraf AMD nicht dafür das sie unerträgliche Fanboy's haben die meinen sie wären jetzt Intellektuelle, natürlich haben die auch dieses Forum befallen. Die meinen halt Moralismus wäre Argumentation und wenn sie in der Masse als Mob auftreten sehen fühlen sie sich stark, Intel wie AMD interessiert das doch gar nicht, die Pflegen in vielen Projekten auch Zusammenarbeit :gruebel:.

Die werden sich den Big-Little-Ansatz genau angesehen haben, evlt. werden die auch später wenn das nötig sein sollte "stacken", so kann man sicher auch mit x86 im Lowpower und Ultralower Szenario vor allem gegen kommende ARM Produkte glänzen. Hätte mir im Desktop als Spieler aber eher gewünscht das AMD das Smartshift forciert bzw. bringt wie man das bei den SoC's gemacht hat zur weiteren Latenzbekämpfung. Aber vielleicht kommt das ja auch noch.
 
Irgendwie war klar, dass AMD in Zugzwang ist.
Will man den Ultra-Stromspar-Mobilsektor nicht komplett an ARM, Apple und nun Intel "verlieren" wollen.
Die Gesamtleistung ist natürlich Grütze, weil im Schnitt sogar schlechter als so ein Bulldozer-Design (und daher für mich garantiert kein Kaufgrund), aber mit einfach gestrickten Prozis und Ultra-Low-Voltage, kann man diese Fliegengewichte der 1KG-Gruppe sicherlich schön lange laufen lassen, ohne gleich 2 Akkus für den Notfall parat haben zu müssen.
Für mich ist das halt verschenktes Silizium, wenn ich stattdessen wesentlich potentere Hardware haben könnte.
Wie gesagt, für lange Bus-, Bahn- und Flugreisen sicher nett, vor allem, wenn man das geschäftlich einsetzen muss und auf jede Minute Akkuleistung aus ist.
Aber privat nicht mein Ding.
 
Zuletzt bearbeitet:
Was aber quatsch ist, da kommt man im Desktop nicht hin. Da ziehen allein das Mainboard, Festplatten etc. deutlich mehr.

Technisch sollte das möglich sein. Es geht darum möglichst viel abzuschalten. Die Smartphones kommen ja mit noch wesentlich weniger aus. Das Haupthindernis ist ja weggefallen, HDDs sind ja heute, zumindest als Systemlaufwerk, fast nichtmehr anzutreffen. SSDs begnügen sich mit ein paar Milliwatt, wenn sie nichts zu tun haben. Das größte Hindernis, bei einem Zocker PC, ist momentan die Graka, damit vervielfacht sich der Stromverbrauch im Leerlauf ja. Das sollte man anpacken, möglich ist es.

Ein PC der im Idle 1W benötigt, ist derzeit unrealistische Zukunftsträumerei und kann alleine durch eine etwas effizientere CPU niemals realisiert werden.

Das hat man bei dem Ziel von unter 1W Stand By Verbrauch auch gesagt und es hat funktioniert. Es ist möglich, die CPU ist natürlich nur ein Teil davon.

Das Verbot dieser Glühbirnen sorgte dann regelrecht für einen Innovationsfeuerwerk, nachdem dadurch die künstlich aufrecht erhaltene Bremse gelöst werden konnte. (Ähnliche künstliche Bremsen sieht man derzeit ja auch in grossem Ausmass seit mittlerweile Jahrzehnten im Energie- und Mobilitätssektor)

Das hatte da eher wenig Einfluß, die Innovationen waren entweder lägst das oder wären auch so gekommen. Der für Innovationen wichtigste Teil, das Hochpreissegment, hat z.B. weit vor dem Verbot der Glühbirnen auf LEDs gesetzt.

Auch im Energie und Mobilitätssektor gibt es keine künstlichen Bremsen. Elektroautos gab es z.B. vor über 120 Jahren (nur der Dampfwagen ist älter). Sie haben allerdings den Anschluß verloren und dann nicht mehr aufholen können. Das ganze steht und fällt mit der Akku Technologie und die hatte entweder zu wenig Leistung und Kapazität oder war zu umständlich (NaS Akkus). Mit dem Lion Akku hat sich das gebessert und deshalb gibt es heute akzeptable bis sehr gute Elektroautos.

Bei der Energie würde ich die Anti AKW Bewegung tatsächlich als künstliche Bremse gelten lassen. Neue Reaktortypen wurden seit den 90ern nicht mehr erforscht und der Neubau läßt mehr als nur zu wünschen übrig.

Daher macht(e) es keinen Sinn solche Chips verbieten zu wollen.

Wir reden nicht von einem generellen Verbot, sondern nur von einem Verbot ineffizienter Chips. Wobei man das gegen den Wettbewerb abwägen muß. AMD wäre pleite gegangen, wenn man konsequent die FX CPUs und ihre GPUs von der HD 7000 bis Vega verboten hätte (keine Firma hält 6 Jahre ohne Umsatz aus). Intel würde es jetzt hart treffen und mit dem P4 hätten sie auch 5 Jahre nichts mehr zu lachen gehabt.

Ein gewisses Augenmaß ist da erforderlich und da muß ich der EU sehr gute Arbeit bescheinigen.

Wobei das nur für Komplettprodukte gilt. Als Selbstbauer darf man nutzen, was man möchte, egal wie ineffizient.

Derzeit ist es viel mehr so, wenn ein Chipunternehmen keinen konkurrenzfähigen Chip bringen kann, er vom Kunden relativ stark abgestraft wird. Wenn ein Chiphersteller trotz Konkurrenzfähigkeit keine wesentlich bessere neue Produkte mehr bringt, lässt er wiederum enorm viel Volumen brach liegen, da die gekaufte Hardware dann halt bsw. 10, 20 Jahre lang genutzt wird, statt 5 Jahre.
Ein verlangsamter Aufrüstzyklus ist dabei aus umwelttechnischer Sicht natürlich aufgrund des sinkenden Anteils der "grauen Energie" für die Produktion auch nicht so übel.

Wobei den meisten Kunden die Energieffizienz relativ egal ist. Sonst hätte AMD zwischen 2012 und 2017 und Intel zwischen 2001 und 2006 sowie seit 2019, fast garnichts mehr verkaufen können. Was kritisiert wird ist hauptsächlich fehlende Leistung. Die einzige Ausnahme sind Netzteile. Da hat es die 80 Plus Initiative geschafft, dass Effizienz zum wichtigsten Qualitätsmerkmal geworden ist.

Ein verlangsamter Aufrüstzyklus ist dabei aus umwelttechnischer Sicht natürlich aufgrund des sinkenden Anteils der "grauen Energie" für die Produktion auch nicht so übel.

Das ist ein Zweischneidiges Schwert. Einerseits verringern sich die Neuanschaffungen, weil das alte ja nicht mehr so schnell schlecht wird. Andererseits müssen für neue Bedürfnisse auch mehr Ressourcen aufgewendet werden. Da wären z.B. die Videostreamingportale. Weil es bei den HDDs nicht wirklich vorangeht, schießen die Rechenzentren wie Pilze aus dem Boden, irgendwo müssen die Daten ja gelagert werden und 4K, bald 8K, hat seinen Preis (wer erinnert sich daran, dass auf Youtube mal nur 240p möglich waren?). Wenn die HDDs das doppelte fassen könnten, dann bräuchte man nur noch etwa die Hälfte der Rechenzentren (Milchmädchenrechnung, aber es zeigt die Richtung). Auch bei vielen anderen steigert sich der Aufwand hinter den Kulissen.



Die Gesamtleistung ist natürlich Grütze, weil im Schnitt sogar schlechter als so ein Bulldozer-Design (und daher für mich garantiert kein Kaufgrund), aber mit einfach gestrickten Prozis und Ultra-Low-Voltage, kann man diese Fliegengewichte der 1KG-Gruppe sicherlich schön lange laufen lassen, ohne gleich 2 Akkus für den Notfall parat haben zu müssen.

Die Idee ist ja gerade, dass sie das nicht ist. Man verbindet sehr hohe Leistung, mit einem geringen Stromverbrauch bei wenig Last. Das ist eben das geniale.
 
Zuletzt bearbeitet von einem Moderator:
Bzgl. der Grundsatzdiskussion:
  1. Ich halte Pu244 definitiv nicht für einen Intel-Fanboy. So eine Zuschreibung steht in keiner Relation zu der Vielseitigkeit der Postings, die über Jahre hinweg auf jeden Fall zu beobachten ist.
  2. Ich finde generell, dass sich das Fanboytum in diesem Thread bislang in Grenzen hält---wahrscheinlich ist das Thema dafür dann doch zu technisch und nicht oberflächlich genug. Oder vielleicht liegt es auch an Pu244s Eröffnung, man kann es nicht wissen.
  3. Ich glaube aber, dass eine Verzerrung in der Wahrnehmung vorliegt, was die vermeintlichen 180°-Wenden angeht. Im Detail hier nachlesbar: https://extreme.pcgameshardware.de/...cove-7nm-mit-80-mehr-ipc-12.html#post10335059
    Ausgangsthese:
    Manche Leute sind auch nicht Fans einer Firma, sondern Fans einer Firmeneigenschaft.
Was aber quatsch ist, da kommt man im Desktop nicht hin. Da ziehen allein das Mainboard, Festplatten etc. deutlich mehr.
Deshalb ist es auch so wichtig, dass bei dem Design der nächsten Plattformen darauf geachtet wird, dass eben rundherum die Leistungsaufnahme sinkt. Von den jetzigen ~40Watt auf <5Watt ist in meinen Augen das Ziel, an dem sich AMD für AM5 gefallen lassen muss, gemessen zu werden. Mit big.LITTLE bei späteren Plattformen sollten zumindest <2Watt dann auch drinnen sein. Alles andere würde ich persönlich als enttäuschend werten.

Ich halte derartige Fortschritte auch von einem kompetenten Marketing für gut ausschlachtbar. Abseits des rein prozentual gesehen gewaltigen (macht sich immer gut) Potentials, sorgen geringe Leistungsaufnahmen für geringere Gesamthitzeentwicklung und geringe Folgekosten. Beides sollte nicht missachtet werden.
 
Aber was ist denn überhaupt Idle/Leerlauf und wie oft kommt dieser Zustand wirklich vor?
Nackter Desktop, Excel/Word offen, Browser offen, Excel/Word und Browser offen?

Gerade mit den ganzen Scripten und animierter Werbung im Browser ist da nicht viel Idle möglich, auch wenn gar niemand am Rechner sitzt.

Man könnte also deutlich mehr Rechenleistung, Energie, Strom, Geld und vor allem Nerven sparen, wenn man einfach Internetwerbung komplett verbieten würde.
ZEIT ONLINE | Lesen Sie zeit.de mit Werbung oder im PUR-Abo. Sie haben die Wahl.
36C3: Blauer Engel gegen aufgeblaehte Software segelt 2020 heran | heise online

Sollte man vielleicht einfach mal eine Petition dazu machen, sollten sich ja anhand der Zahl von Adblockernutzern genug finden, die der selben Meinung sind, das Werbung weg muss.


Technisch sollte das möglich sein. Es geht darum möglichst viel abzuschalten. Die Smartphones kommen ja mit noch wesentlich weniger aus. Das Haupthindernis ist ja weggefallen, HDDs sind ja heute, zumindest als Systemlaufwerk, fast nichtmehr anzutreffen. SSDs begnügen sich mit ein paar Milliwatt, wenn sie nichts zu tun haben. Das größte Hindernis, bei einem Zocker PC, ist momentan die Graka, damit vervielfacht sich der Stromverbrauch im Leerlauf ja. Das sollte man anpacken, möglich ist es.

Auf dem Smartphone läuft aber auch maximal eine App im Vordergrund.

Und meine Navi wird aktuell mit 8 W im GPU-Z angezeigt.
GPU-Z 8W.png

Jetzt hab ich mal schnell noch F@H angeworfen. Nun sind es 180W. :devil:
GPU-Z 180W.png

Ich gehe jetzt erstmal essen. Wie gesagt, das man selbst nichts am PC macht, heißt nichts zwangsläufig, das auch der PC nichts macht. ;)
 
Zuletzt bearbeitet:
Zurück