Zen-CPUs: Auch AMD forscht an Big-Little-Design für zukünftige Modelle

Also wenn man sparsamen PC haben will, dann nimmt man nen kleinen Netzteil also ein pico Netzteil mit maximal 200 - 300 Watt Netzteil, dann steigt die kurve bei niedriger last eben auch an,also die effizints Kurve. Ich habe ein 300 Watt Netzteil herum liegen aber halt ohne 80 plus. Mein Bruder ist ja elektromechaniker. Der sagte mir je niedriger das Netzteil desto effizienter ist das Netzteil, was ja wohl stimmen wird. Dann nehme man ne sparsame gpu. Also mit ner Gtx 1060 bzw 1650 dürfte ja wohl so ein System möglich sein. Den ryzen 9 3950x also sollte es so einer sein als Beispiel im energiespaemodus einstellen. Und schwupps hat man ne sehr sparsamen PC. In dem neuen PC ist zwar ne 450 Watt Netzteil drinnen, wird dennoch super dafür reichen wenn das System mal laufen wird.
Als Bildschirm habe ich einen 24 " wqhd wo mit maximaler Helligkeit nur 17 Watt maximal verbrät. Die Helligkeit habe ich jedoch auf 50 % reduziert. Achja ich habe nur ne gtx 1060 wo da rein kommen wird. Nur eine ssd, keine extra Karten oder sowas. Ein Laufwerk nur als extern, falls ich es mal brauchen sollte dann als USB Laufwerk.
ich hätte ja eigentlich auch nen 400 Watt Netzteil nehmen können, war mir allerdings schon fast zu knapp gewesen.

Mehr stromsparend kann man wohl halt nicht mehr. Beim Mainboard habe ich einen x470 geplant das dank des fehlens von PCI express 4 etwas sparsamer als x570 sein wird. Damit ich das maximal mögliche somit an stromsparen herquskitzeln kann.

Der zweite PC hat eine Gtx 1050 ti drinnen. Damit kann mein bester Kumpel mit mir alle games die ich so habe perfekt zusammen zocken. Ich hatte nach einer noch sparsameren gpu gesucht gehabt. Es gibt zwar eine allerdings kann man darauf dann kaum noch was optimal drauf zocken. Ne gforce Gt 640 oder wie die hieß mit 45 Watt und ich hatte ne gtx 750 gehabt. Mit der konnte ich die games naja nicht so gut zocken. Also irgendwann geht halt auch der härteste nutzen nicht mehr,egal wie hartgesotten man da so ist.

Da ist ein i7 6950x drinnen, den ich auf 3,5 GHz am laufen habe. Ich hatte zwar ursprünglich mal ht abgeschaltet gehabt, jedoch dann kam es dann damit das die biosbatterie leer war und schwupps war es dann vorbei. Diese CPU ist dann ja ebenso dann sparsam. Es war mal der PC wo ich zuvor benutzt gehabt hatte. Würde ich nun ein Netzteil dort reinstecken würde da kein 550 Watt Netzteil mehr verbaut werden sondern nur noch ein 400 Watt oder sogar noch besser nur ein 350 Watt Netzteil drinnen sein um das maximun an stromsparen zu meistern. Der dritte PC ist ein Mini PC, zwar nicht beim Netzteil aber der ist vielleicht nur alle 2 Wochen mal an einem wochende ein. Dieser ist ein i7 3770k, ich müsste da wohl den 4,3 GHz takt mal auf maximal 3 GHz herunter regeln und da dieser ja nur zum zocken verwendet wird wohl auch das ht ganz abschalten. Damit ich da ebenso das maximun herausholen kann. Weiter runter will ich da dann allerdings nicht mehr runter gehen weil sonst die CPU nichts mehr leisten kann.
In dem ist ebenso ne gtx 1060 drinnen. Überlege da bei dieser gpu ne undervolting zu betreiben. Ich weiß zwar noch nicht wie ich da den Wert am besten dauerhaft an takt maximal nach unten geht und ganz kann man das ja leider nicht speichern weil das ja nur auf das Betriebssystem dann per Software festgelegt ist.
ihr seid somit keine echten stromsparer. Bei gpu brauche ich auch in Zukunft kaum ne bessere gpu. Bei den Monitoren werden langfristig immer mehr sehr stromsparende 22 oder 24 " Full HD Bildschirme kommen. Die sehen also auch in Zukunft kein wqhd oder höher in ihrem PC leben bei mir.
Denn Alternativen gibt es ja eben kaum große bei den monitoren. Wäre sogar bereit auf 1600x900 als maximum zu gehen. Je niedriger die Auflösung desto anspruchslos ist es an die gpu. Da kann ich dann ordentlich dabei sparen.
Allerdings ist nur HD dann auch für mich zu wenig bei den selbst so kleinen Bildschirmen.
 
Zuletzt bearbeitet:
Also wenn man sparsamen PC haben will, dann nimmt man nen kleinen Netzteil also ein pico Netzteil mit maximal 200 - 300 Watt Netzteil, dann steigt die kurve bei niedriger last eben auch an, also die effizints Kurve. Ich habe ein 300 Watt Netzteil herum liegen aber halt ohne 80 plus.
Das glaube ich nicht. Ein 1200W Platinum Netzteil ist sehr effizient, bei 180W über 90%.
Ein 300W Netzteil ohne 80 plus bronze wird da wesentlich mehr verbrauchen.

Mehr stromsparend kann man wohl halt nicht mehr. Beim Mainboard habe ich einen x470 geplant das dank des fehlens von PCI express 4 etwas sparsamer als x570 sein wird.
Das x470 verbraucht weniger Strom, als das x570. Aber nicht wegen PCIe 4. Das liegt am Chip des x570.

Würde ich nun ein Netzteil dort reinstecken würde da kein 550 Watt Netzteil mehr verbaut werden sondern nur noch ein 400 Watt oder sogar noch besser nur ein 350 Watt Netzteil drinnen sein um das maximun an stromsparen zu meistern.
Das würde mehr Strom verbrauchen, weil kleinere Netzteile ineffizienter sind.
Ein 1200W Netzeil hat seinen maximalen Wirkungsgrad bei ca. 450W.

Bei den Monitoren werden langfristig immer mehr sehr stromsparende 22 oder 24 " Full HD Bildschirme kommen. Die sehen also auch in Zukunft kein wqhd oder höher in ihrem PC leben bei mir.
Denn Alternativen gibt es ja eben kaum große bei den monitoren. Wäre sogar bereit auf 1600x900 als maximum zu gehen. Je niedriger die Auflösung desto anspruchslos ist es an die gpu. Da kann ich dann ordentlich dabei sparen.
Allerdings ist nur HD dann auch für mich zu wenig bei den selbst so kleinen Bildschirmen.
[/quote]
Warum bist du so knauserig? Hast du kein Geld?
Ein PC macht doch viel mehr Spaß, wenn der ordentlich Power hat.
Ich habe den i9-9900K, der zieht ordentlich Saft, die Radeon 64 Liquid Cooling, die heizt ordentlich ein, 4000MHz 32GB RAM, das Super Flower 1200W Platinum, AORUS Z390 Master, die 970 PRO NVME SSD und einen 144 Hz Monitor.
 
https://preisvergleich.pcgameshardware.de/?cat=monlcd19wide&xf=11939_27%7E12025_25

Für 150€ gibt es 17 Watt mit 27 Zoll bei Full HD Auflösung und 75 Hz.

Netzteile bis 80 Plus Gold sind schick, zumal sie nicht die 10% Regel brechen (wenn es denn Sinn ergibt, maximal 10% vom Gesamtpreis dem Netzteil zuzuordnen). Testberichte lesen hilft, nur habe ich selbst nichts gegen z.B. ein schönes 300 Watt 80 Plus Bronze Netzteil, wenn es dafür spottbillig ist. Selbst mit sehr kleinen Netzteilen hatte ich nie Schwierigkeiten; immerhin kommt man wenigstens ab und zu in den Bereich über z.B. 10% oder 20% Auslastung, wo die Effizienz nochmal steigt. Außerdem möchte ich nicht bestimmen, für was die Leute ihr Geld ausgeben. Immer dran denken: Jede gesparte Mark eröffnet ganz neue Möglichkeiten für sinnvolle, auf die Wünsche und Bedürfnisse des Benutzers abgestimmte Systeme.

Besonders angetan bin ich von Netzteilen, die mir gut gefallen, aber schlechte Bewertungen bekommen wie: "Nach 9 Monaten bereits kaputt." Da greift man gerne zu und siehe da: Alles bestens.

Zudem kostet ein Ryzen 9 3950X ja 719€ gerade. Es ist nicht meine Lieblings CPU und da kann man auch "sparen", aber na gut. Anthony von Linus Tech Tips machte ein "No Dollar wasted" Build. Da steckt Magie hinter: Spart man nicht, wird der ganze Spaß derart teuer, dass es sich gar nicht mehr lohnt und man ins Fitnessstudio geht und Geld in Tontechnik, Sporternährung und Roller steckt. Geld sollte keine Rolle spielen, auch nicht nach unten hin.

No Dollar Wasted PC Build Guide - YouTube

Das Netzteil überteuert einzukaufen ist jetzt nicht die erste Idee, an mehr Leistung und Leistung pro Watt heranzukommen. Zudem kann man sich ja ausrechnen, wie lange es dauert, bis die erhöhten Kosten wieder drin wären, was garantiert nicht in 2 Jahren passiert, wenn das 1200 Watt Netzteil überhaupt in jedem Szenario spürbare Verbrauchsvorteile bietet. Um das auszurechnen, braucht man noch eine genaue Vorstellung davon, bei welchen Lastszenario wieviel Strom benutzt wird. Für die Grafikkarten würde ich mit MSI Afterburner die Takt Spannungskurve anpassen, sprich flach machen, um ein Undervolting Setup zu erzeugen. GTX 1650 @ 1425 MHz @ 0,706 V hier. 34 Watt war die höchste jemals gemessene Leistungsaufnahme.

Die Idee mit dem 200-300 Watt Netzteil finde ich gut. Zurück zum Thema: Für die Zukunft wird sich ja zeigen, wie viel sparsamer der big.LITTLE Ansatz wirklich ist, wenn überhaupt.
 
Zuletzt bearbeitet:
Jetzt ist Ihre Meinung gefragt zu Zen-CPUs: Auch AMD forscht an Big-Little-Design für zukünftige Modelle
Könnte eine Motivation dieses neuen Ansatzes sein, dass SMT in der bisherigen Umsetzungen nicht sicher genug ist? Ob man vier Kerne mit SMT oder vier normale Kerne und vier schwächere hat, sollte im Gesamtergebnis ähnliches bringen. Warten wir doch ab, was erste Tests ergeben und bewerten dann nochmal fünf Jahre später, wenn sich das Big-Little Design in Programmierungen widerspiegelt.
 
Zuletzt bearbeitet von einem Moderator:
Aus Kanada gibt es Stimmen, die sagen, in schweren Tasks auf 1 Kern muss ARM wettbewerbstauglich werden...oder Apple muss um die Kernschwäche drumherum arbeiten. Außerdem kommt die Frage auf, ob Apple Adobe ins Apple App Store zwingen wird. :devil:
Könnte mir aktuell schon gut vorstellen, dass Apple da was ordentliches draus macht. Sie haben schon eigene ARM CPUs und die sind schon so ziemlich das beste, was es derzeit gibt (zumindest, wenn man auf Smartphone Benchmarks schaut). Im Apple Universum kommt auch das Kernel Problem nicht so sehr zu tragen, da Apple seine Software per se für sehr homogene Hardware auslegt. Zukünftig können sie dies auch Geräte übergreifend.

Aber das führt wohl zu weit weg vom Thema und für den PC / Konsolen ist ARM die nächsten Generationen mit Sicherheit nicht so relevant wie Big/Little auf x86.
 
Wenn das DIE zu klein für die Fertigung ist, hätte ich da lieber mehr Cache, bzw. mehr normale Kerne.

Zumal bei Intel ein kleiner Kern nur etwa 1/4 der Fläche eines großen Kernes hat.
Also würde man statt 8+8 auf die gleiche Fläche auch 10+0 bekommen.

Viel Cache hilft zwar auch viel aber Achtung vor allem bei L1 Cache. Der wird brutal heiß vor allem in größeren Mengen. Also da sind nicht nur Kostenfaktor und Fläche ein Grund für die geringe Menge.
 
Könnte eine Motivation dieses neuen Ansatze sein, dass SMT in der bisherigen Umsetzungen nicht sicher genug ist? Ob man vier Kerne mit SMT oder vier normale Kerne und vier schwächere hat, sollte im Gesamtergebnis ähnliches bringen. Warten wir doch ab, was erste Tests ergeben und bewerten dann nochmal fünf Jahre später, wenn sich das Big-Little Design in Programmierungen widerspiegelt.

Wenn der Ansatz wie bei Smartphones verwendet wird, sind das zwei Paar unterschiedliche Schuhe.
SMT/HT ist dazu da, Prozessoren im Limit besser auszulasten, währedn bei dem Big/Little Ansatz Prozessoren abgeschaltet werden, um Strom zu sparen.
Selbst wenn man die am PC zusammenschaltet, sind mir natürlich 16 richtige Kerne trotzdem lieber als irgendein kastriertes Elend, wo man mit diversen Nachteilen leben muss.
Stellt euch vor, wieviele Jahre es dauern wird, bis Windows und andere Betriebssysteme überhaupt in der Lage sind, mit solchen Prozessoren ordentlich umzugehen.
Es dauert ja bereits 3 Jahre, bis Windows sich halbwegs an Zen gewöhnt hat und die Lastverteilung und Stromsparmechanismen etwas besser im Griff hat.
Stellt euch das Durcheinander vor, wenn nun eine komplett andere Struktur parallel geschaltet wird. Chaos.
Bei Smartphones gibt es ein fixes System, was darauf ausgelegt ist, Apple schafft sich gerade auch ein eigenes System für den Desktop, was komplett vom Mobilbereich abgekupfert wird.
Wenn bei Windows und Linux aber beide gegensätzliche Systeme zusammenstoßen, sehe ich massiv Probleme, wo das dann wieder bei etlichen Rechnern nicht richtig funktioniert und sich die Leute in den Foren wieder die Haare raufen, weil die Leistung fehlt, was ruckelt, oder zu schnell der Saft ausgeht (mobil).
Vor allem Windows ist noch Jahre damit beschäftigt, alleine die Optik (bereits 5 Jahre in Entwicklung und wird udn wird niemals fertig!!) zu überarbeiten, meint ihr, da hauen die mal eben locker ein komplett neue szusätzliches Energiemanagement udn CPU-Threat-Schedulung aus dem Ärmel, was zudem perfekt funktioniert? Neeee, lol.
 
... meint ihr, da hauen die mal eben locker ein komplett neue szusätzliches Energiemanagement und CPU-Threat-Schedulung aus dem Ärmel, was zudem perfekt funktioniert? Neeee, lol.
Darum sagte ich ja, Testen, wenn die CPUs auf dem Markt sind und noch einmal in fünf Jahren, wenn Windoes das vielleicht sinnvoll implementiert hat. Ich finde den Ansatz schon spannend, wenn man mit dem Spielerechner auch Surft undanderes macht. Man hat entweder Leistung oder es verbraucht nichts.
 
Big.LITTLE ist nur dann interessant, wenn der Schedeuler auch damit zurecht kommt. Linux kann das super (dank Android), bei Windows ist das ein Graus, wenn ich das auf dem Surface Pro X sehe, welches ich gerade zum Testen da habe.
Intels Entwicklung in dieser Richtung war nur der Anfang. ARM ist da natürlich Spitzenreiter, aber bei denen steht auch ein konsequent anderes Ziel dahinter.

Ich kann mir sogar auch vorstellen, dass wir in Zukunft auch ohne SMT leben werden, da die simulierten Threads auf den LITTLE-Kernen ausgelagert werden können. Spart wiederum Platz und Stromverbrauch bei den High-Performance-Kernen.
Frage ist hier nur, ob die kleinen Kerne so schnell wiederum sind, dass die SMT auffangen können. Aber es muss auch effizienter sein als SMT. Und die Cluster müssen auch gerade im mobilen Bereich komplett abschaltbar sein, damit der Verbrauch gedrückt werden kann.
Oder man macht es sich einfach und nimmt einfach ARM64-basierte Kerne, wo Stand heute zumindest alles in 32-Bit funktioniert bzw. natürlich auch in ARM64. Microsoft arbeitet ja weiterhin an x64-Unterstützung auf ARM64. Sehe ich aktuell aber nicht als Option für AMD/Intel.
 
Bei Intel haben die ganzen AMD Fans ja noch ordentlich darüber hergezogen. Ich bin gespannt, wieviele jetzt, wie üblich, die 180° Kehrtwende vollziehen.

Wäre ja mal schön, wenn es mal einen Thread zum Thema AMD gibt, wo du nicht billig versuchst rumzutrollen:schief:
Ich bin auch bei AMD kein Freund von dem Big-Little Prinzip im Desktop, jedoch kann man sich das als Firma - sofern man die finanziellen Mittel hat - einfach nicht erlauben, so einen Bereich außer Acht zu lassen, wenn die größere Konkurrenz in die Richtung forscht... Bzw. ist der Einsatzzweck ja auch vollkommen unklar, vielleicht strebt AMD mit der Technik einen Einstieg in den SOC Markt an. Samsung hat ja schon den GPU Teil lizensiert und wenn AMD was performantes stromsparendes liefern kann, wieso nicht?
 
"fast" ist gut. ;)

Da fehlt dann noch die Bildausgabe, Quick Sync, 0 Watt im Idle für die Grafik (siehe Anhang, wobei der Monitor nicht durchlief) und 1 Watt beim Abspielen von 1080p Videos. Das Mainboard braucht keine aktive Kühlung. So kann man auch argumentieren: Nicht Intel, sondern AMD ist die hochpreisige Plattform, nicht nur beim Leerlaufverbrauch.

Intels günstigster 12Kerner ist übrigens 10€ günstiger, Haswell, Sockel 2011-3, aber so zu argumentieren bringt ja keinen praktischen Vorteil.

Intel Xeon E5-2680 v3, 12x 2.50GHz, boxed ohne Kühler (BX80644E52680V3) ab €'*'399,00 (2020) | Preisvergleich PC Games Hardware (PCGH) Deutschland: Preisvergleich

Nunja, wenn es dir nur um 12 Kerne, unabhängig von der Leistungsfähigkeit geht, könntest du auch einen Threadripper 1000 nehmen. AMD Ryzen Threadripper 1920X ab €' '211,96 (2020) | Preisvergleich Geizhals Deutschland

Und zu den teuren Boards für den Ryzen 12 Kerner, wer muss ein X570 dafür nehmen? Ein B 550 kommt auch mit den 12 Kernern klar und kostet mit guter (und wesentlich modernerer) Ausstattung auch keine 200 €, also weniger als ein möglichst günstiges 2011-3 (wobei hier der korrekte Vergleich ein <140 €-B550 wäre)...

BtT: bin immer noch kein Freund dieser Idee, denn im Desktop macht sie einfach keinen Sinn, sinnvolle Software zum Runtertakten im Idle ist nicht wirklich weniger effektiv, spart aber im Ausgleich massig Resourcen für Material und Produktion. Der einzige Ansatz, wo es vielleicht sinnvoll ist, wäre eben der Mobile-Bereich aber auch da sind modernere Fertigungen und Architekturen nicht so unterlegen.
Aber deinen Ansatz mit deiner Hardware möglichst sparsam zu bleiben, finde ich sehr gut. Ich versuche das auch schon seit Jahren und hatte vor allem mit der GPU kleine Erfolge (Maximalverbrauch aktuell um 40 Watt gesenkt, bei der Vorgängerkarte sogar um runde 70)...
 
Zuletzt bearbeitet:
Ja, beim ersten 12 Kern Threadripper hat man natürlich auch nach sinnvollen Konfigurationen gesucht, keine Frage. Der B550 Spaß mit dem ALC1220 Audio beginnt ab 165€, den kleineren 1200´er gibt es ab 105€. Spielt das alles keine Rolle, sind es ab knapp 75€ für den B550 Chipsatz. Okay, für Z490 habe ich mehr bezahlt. Wenn man sich dazu ganz sicher ist, niemals eine APU zu haben, sprich eine CPU mit ingetrierter Grafik und man so auf jeden Fall auf eine externe Grafikkarte angewiesen ist, kann man bei den Grafikanschlüssen am Mainboard selbst sparen, weil es egal wird für die Kaufenscheidung.

Das ist nicht Jedermanns Welt, aber gucken darf man ja. ;)
 
Könnte mir aktuell schon gut vorstellen, dass Apple da was ordentliches draus macht. Sie haben schon eigene ARM CPUs und die sind schon so ziemlich das beste, was es derzeit gibt (zumindest, wenn man auf Smartphone Benchmarks schaut). Im Apple Universum kommt auch das Kernel Problem nicht so sehr zu tragen, da Apple seine Software per se für sehr homogene Hardware auslegt. Zukünftig können sie dies auch Geräte übergreifend.

Aber das führt wohl zu weit weg vom Thema und für den PC / Konsolen ist ARM die nächsten Generationen mit Sicherheit nicht so relevant wie Big/Little auf x86.

Apple wird mit ARM im Bereich der professionellen Software Federn lassen, ich weiß nicht wie es im speziellen aussieht, dafür sind meine Kenntnisse zu dünn, aber ich kann mir kaum vorstellen, dass eine Software die jahrzehntelang auf x86 optimiert wurde innerhalb kurzer Zeit auf ARM portiert werden kann. Demnach kann ich mir eigentlich nur vorstellen, dass man den lange befürchteten Schritt gehen wird, die Verschmelzung von ios und MacOS zur kunterbunten Spielewiese. Scheinbar kann Apple in diesem Bereich Umsatz generieren, der professionelle Bereich dagegen wird in meinen Augen immer mehr brach liegen. Bereits heute sehe ich den Wandel, wo früher das Iphone als erstes bedient wurde, so ist es heute Android (DATEV), der Wandel in den letzten Jahren ist bereits spürbar. Mit der Umstellung auf ARM wird Apple sicherlich grundlegend leistungsfähige Hardware haben und den Kunden eine bessere Stabilität und geringere Anfälligkeit für Viren anbieten können. Man wird aber defintiv eine breite Palette an Kunden auch verlieren, die eben x86 benötigen.
 
4 Module 8 Integer Clusters
Dann hätte er aber nicht 4 Kerne schreiben dürfen;)

Dass sie jetzt erst auf die Idee kommen...
Für ARM basierte Systeme ist das ein alter Hut. Neue CPU-Architektur von ARM: DynamIQ ersetzt big.LITTLE | DESIGN&ELEKTRONIK
Wenn man sich das Patent ansieht, dann shcuat das doch eh so ähnlich aus.

ARM hat halt big.LITTLE weiterentwickelt und umbenannt.
AMD wird die eigene Technik aber zu 100% eh nicht big-LITTLE nennen;)
 
Big.LITTLE ist nur dann interessant, wenn der Schedeuler auch damit zurecht kommt. Linux kann das super (dank Android), bei Windows ist das ein Graus, wenn ich das auf dem Surface Pro X sehe, welches ich gerade zum Testen da habe.
Intels Entwicklung in dieser Richtung war nur der Anfang. ARM ist da natürlich Spitzenreiter, aber bei denen steht auch ein konsequent anderes Ziel dahinter.

Ich kann mir sogar auch vorstellen, dass wir in Zukunft auch ohne SMT leben werden, da die simulierten Threads auf den LITTLE-Kernen ausgelagert werden können. Spart wiederum Platz und Stromverbrauch bei den High-Performance-Kernen.
Frage ist hier nur, ob die kleinen Kerne so schnell wiederum sind, dass die SMT auffangen können. Aber es muss auch effizienter sein als SMT. Und die Cluster müssen auch gerade im mobilen Bereich komplett abschaltbar sein, damit der Verbrauch gedrückt werden kann.
Oder man macht es sich einfach und nimmt einfach ARM64-basierte Kerne, wo Stand heute zumindest alles in 32-Bit funktioniert bzw. natürlich auch in ARM64. Microsoft arbeitet ja weiterhin an x64-Unterstützung auf ARM64. Sehe ich aktuell aber nicht als Option für AMD/Intel.

SMT wurde ja geschaffen um die CPUs besser auszulasten. Dementsprechend wirst du das eher nicht durch Big-Little ersetzen können sinnvoll. Vermutlich wird die Auslastung der großen Kerne sogar eher sinken was SMT womöglich besser macht.

Sehr interessant fände ich es ja wirklich auch dann verschiedene Befehlssätze in den unterschiedlichen Kernen zu haben auch um ggf. recht effizient viele Sachen machen zu können. Also mein Gedanke geht so in die Richtung AVX auf die kleinen ausgliedern, dann können die großen weiterhin voll arbeiten und der Hitze Hotspot ist entschärft und besser verteilt. Oder ARM auch mit einbauen (vllt auch nur in 2 Kerne oder so) um dann sehr gut Smartphone Apps nicht mehr emulieren zu müssen etc.

Glaube man könnte da sehr viel machen.
Bezüglich Effizienz glaube ich nicht das es in den meisten Fällen viel bringt. Eher Richtung Office PCs die auch immer mal viel Leistung brauchen (CAD als Beispiel) aber die meiste Zeit eher rum idlen.
 
Zurück