• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht

Im Geekbench ist ein Eintrag zu einer Alder Lake-S-CPU aufgetaucht. Mit dieser Generation will Intel leistungsstarke und energieeffiziente Kerne verbinden, wobei offenbar nur die leistungsstarken Kerne SMT unterstützen sollen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht
 

Pu244

Lötkolbengott/-göttin
Mmh ob das was wird mit großen und kleinen Kernen?

Wer böse denkt, könnte meinen hier ist Intels Bulldozer :ugly: im Anmarsch

Oder es wird die Rettung für Intel, gewissermaßen der nächste Core2 oder Core i.

Bei Komplett PC Herstellern, die sich der EU Energiesparrichtline unterwerfen müssen und bei Laptops, werden sie wohl offene Türen einrennen. ich vermute mal, Alder Lake könnte das sein, was sich Apple gewünscht hat, Intel konnte allerdings nicht liefern.

Hier haben jahrelang diverse Leute geunkt, Intel sollte etwas neues machen und hier ist es.
 

NatokWa

BIOS-Overclocker(in)
Naja ... ich sehe zwar durchaus einen nutzen in diesem Konzept, aber nur dann wenn alle Kerne gleichzeitig laufen können und so z.B. das BS selbst auf den "kleinen" läuft inkl aller Hintergrundprozesse und ein Game dann die 8 "Großen" für sich alleine hat. Damit gäbe es kein Geruckel mehr weil ein Hintergrundprozess meint jetzt unbedingt irgendeinen Scheiß machen zu müßen ....

ANsonsten hat das ganze beim PC meiner Meinung nach null Sinn, auch die Aktuellen Prozzis sind sehr effiziert wenn die Leistung sie nur wenig Leistung (ohne einen vollständig ausgelasteten Kern) liefern müßen, für "Arbeitsrechner" macht es also wohl einen unterschied von wenigen Watt ob da auf kleine Kerne umgeschaltet werden kann oder nicht, wenn überhaupt eine ersparniss da ist ... dazu müßen die einmzelnen Kerne auch abgeschaltet werden können und nicht im Leerlauf trotzdem Strom verbraten.
 

SFT-GSG

Software-Overclocker(in)
Oder es wird die Rettung für Intel, gewissermaßen der nächste Core2 oder Core i.

Bei Komplett PC Herstellern, die sich der EU Energiesparrichtline unterwerfen müssen und bei Laptops, werden sie wohl offene Türen einrennen. ich vermute mal, Alder Lake könnte das sein, was sich Apple gewünscht hat, Intel konnte allerdings nicht liefern.

Hier haben jahrelang diverse Leute geunkt, Intel sollte etwas neues machen und hier ist es.
Das mit der Energiesparrichtlinie kann Intel, AMD und Nvidia leicht umgehen. CPUs auf z.B. mit 65W verkauft, der Kunde legt dann im BIOS den "Schalter" um....der Hersteller kann ja nix dafür wenn sie CPU außerhalb der Spezifikation betrieben wird.....

Systembuilder werden halt vermehrt kleine CPU's und midrange Grafikkarten verbauen. Ich kann mir auch vorstellen das CPU potenten IGP in Zukunft mehr verbaut werden.
 

Oberst Klink

Lötkolbengott/-göttin
Das mit der Energiesparrichtlinie kann Intel, AMD und Nvidia leicht umgehen. CPUs auf z.B. mit 65W verkauft, der Kunde legt dann im BIOS den "Schalter" um....der Hersteller kann ja nix dafür wenn sie CPU außerhalb der Spezifikation betrieben wird.....

Systembuilder werden halt vermehrt kleine CPU's und midrange Grafikkarten verbauen. Ich kann mir auch vorstellen das CPU potenten IGP in Zukunft mehr verbaut werden.
Das tun sie doch schon, oder siehst du in der Mehrzahl der Fertig-PCs Highend- CPUs und GPUs?
Davon abgesehen beherrschen moderne CPUs und Betriebssysteme ja allerhand Stromsparmechanismen. Es ist ja nicht so, dass eine CPU heute ständig mit Maximaltakt läuft.
 

seahawk

Volt-Modder(in)
Im Desktopmarkt ist das mit den kleinen Kernen halt ziemlich nutzlos!
Mal an einem aktuelle Atom gearbeitet? Für die meisten üblichen Desktopanwendungen (Office, Video-Streaming, Internet) reichen die kleinen Kerne locker. Das Konzept macht für mich sehr viel Sinn wenn man die leistungshungrige Anwendung auf die starken Kerne packen kann und den Rest auf den lahmen laufen lässt. Selbst bei Gaming dürften dieses 8+8 Konzept kaum hinter einem echten 16Core liegen.
 

SFT-GSG

Software-Overclocker(in)
Was soll das bitte am Desktop bringen?
Ausgesprochen viel wie schon geschrieben wurde, du aber nicht verstehst. Windows Hintergrunddienste, Office&Co. benötigen kaum Leistung, das ist alles mit modernen Atomkernen abzudecken.

Der PC ist halt zum Arbeiten gedacht, Spielen ist da nur sekundär. Und da gibt es meistens einen Hauptthread und ein paar Nebenthreads welche mal mehr, mal weniger Last fordern. Und selbst da können, wenn Windows das gut verteilt, die Atomkerne effizient sein.
 

INU.ID

Moderator
Teammitglied
Mal an einem aktuelle Atom gearbeitet? Für die meisten üblichen Desktopanwendungen (Office, Video-Streaming, Internet) reichen die kleinen Kerne locker.
Wir haben hier im Haus sogar noch einen 10 Jahre alten Atom D525 (ASUS BB S1-AT5NM10E Mini-PC mit Nvidia Ion-Grafik), der mit seinen 2 Kernen und 4 Threads ebenfalls noch als HTPC und Surfmaschine taugt. Wenn auch mit einigen Abstrichen in Form von häufigeren Gedenksekunden, sowie nicht ganz ruckelfreier Wiedergabe von HD-Videos im Browser, wesegen er nur noch zum surfen, ebay usw. genutzt wird.

Deutlich besser läuft da schon unser HTPC mit einem Asrock J3160M (Celeron J3160, 4 Kerne 4 Threads, aus 2016), wo die CPU auch nur eine TDP von 6 Watt hat.

Den 3930K takte ich mit maximal 2,2-2,4GHz (statt 4GHz) ebenfalls im "normalen Desktop-Betrieb" (Surfen, Streaming usw) runter.

So lange ich als User in das "Load-Balancing" der unterschiedlichen Kerne eingreifen, und so zb. die "starken" Kerne auch temporär komplett deaktivieren kann, begrüße ich CPUs mit zusätzlichen sparsamen Kernen. :top:
 

Mephisto_xD

BIOS-Overclocker(in)
Was soll das bitte am Desktop bringen?
Stromsparen im quasi Leerlauf?

Selbst Zocker-PCs laufen ja nicht permanent unter Vollast, sondern verbringen den Großteil ihrer Zeit damit den Browser, Office, und noch ein paar Hintergrundtasks auszuführen.Dafür braucht es aber natürlich keine AVX512 fähigen Superkerne, ein kleiner, stromsparender Atomkern würde es genauso tun. Wenn man dann Power braucht, kann man den großen Bruder immer noch aus dem Tiefschlaf wecken.

Ist natürlich für Mobilgeräte aufgrund von Akkulaufzeit für den Nutzer deutlich interessanter, aber ich finde es gut, dass die Technik auch auf den Desktop kommt.
 

Pu244

Lötkolbengott/-göttin
Das mit der Energiesparrichtlinie kann Intel, AMD und Nvidia leicht umgehen. CPUs auf z.B. mit 65W verkauft, der Kunde legt dann im BIOS den "Schalter" um....der Hersteller kann ja nix dafür wenn sie CPU außerhalb der Spezifikation betrieben wird.....

Können sie nicht. Entscheidend ist der Verbrauch im Stand By und im Leerlauf. Da bringen die kleinen Kerne von Alderlake wohl die entscheidenden Watt. Die EU Energiesparrichtline ist sowieso nur für Komplett PCs relevant und läßt Selbstbauer außen vor.
Was soll das bitte am Desktop bringen?

Komplett PCs und die EU Energiesparrichtline, das ist ein sehr wichtiger Markt.
 

BigBoymann

Software-Overclocker(in)
Stromsparen im quasi Leerlauf?

Selbst Zocker-PCs laufen ja nicht permanent unter Vollast, sondern verbringen den Großteil ihrer Zeit damit den Browser, Office, und noch ein paar Hintergrundtasks auszuführen.Dafür braucht es aber natürlich keine AVX512 fähigen Superkerne, ein kleiner, stromsparender Atomkern würde es genauso tun. Wenn man dann Power braucht, kann man den großen Bruder immer noch aus dem Tiefschlaf wecken.

Ist natürlich für Mobilgeräte aufgrund von Akkulaufzeit für den Nutzer deutlich interessanter, aber ich finde es gut, dass die Technik auch auf den Desktop kommt.
Für mich bleibt die Frage nach dem Vorteil?

Sinnvoller wäre es doch bei einem 8Kerner 7 Kerne komplett abschalten zu können und zum Energiesparen die Spannung beim verbleibenden Kern zu senken. Da könnte man analog zum ClockTuner den besten Kern raussuchen. Die 8 langsamen Kerne braucht es dafür nicht. Diese werden in der Entwicklung, der Produktion und dem Preis !ehr kosten, als das sie einsparen.

Was braucht eine heutige CPU im Idle?

Ein gesamtes System @Stock zieht bei mir gemessene 42W (ohne Monitor, aber mit Peripherie (Maus, Headset, etc.). Wenn das ganze vernünftig organisiert werden würde, also CPU und undervolten, RAM undervolten, Graka undervolten, wird man das ganze bereits heute auf knappe 30W regulieren können. Davon nimmt sich die CPU aber nur einen kleinen Teil, denke um 10-15 W werden es heutzutage sein. Mit vernünftiger Softwareoptimierung ala ClockTuner wird da mehr möglich sein (also weniger) . Werde mir für das neue System Mal ein Messgerät besorgen und protokollieren.

P.S.
Vor allem werden sich die ganze Freaks ja auf die tolle BigLittle Technik stürzen und einen Z Chipsatz dazu holen, was ja aus energietechnischer Sicht mal gar keinen Sinn ergibt, dazu dann noch maximal ein 80+ Bronze 1500W Chinaböller und vierundzwanzig Lüfter. Womit das System dann im Idle 120W frisst, 80W die Lüfter, 20W der Rest und 20W Netzteilverlustleistung, weil das ganze System nicht passt
 

latinoramon

PCGHX-HWbot-Member (m/w)
ANsonsten hat das ganze beim PC meiner Meinung nach null Sinn, auch die Aktuellen Prozzis sind sehr effiziert wenn die Leistung sie nur wenig Leistung (ohne einen vollständig ausgelasteten Kern) liefern müßen, für "Arbeitsrechner" macht es also wohl einen unterschied von wenigen Watt ob da auf kleine Kerne umgeschaltet werden kann oder nicht, wenn überhaupt eine ersparniss da ist ... dazu müßen die einmzelnen Kerne auch abgeschaltet werden können und nicht im Leerlauf trotzdem Strom verbraten.
So ist es, vor allem sind es dann die Leutz, die vom geilen Stromsparen reden und ne 3080 oder eine 3090 kaufen und dann 10~12 Std am Tag am PC sitzen und am zocken sind. Let´s Go Strom sparen :ugly:
 

Mephisto_xD

BIOS-Overclocker(in)
Für mich bleibt die Frage nach dem Vorteil?

Sinnvoller wäre es doch bei einem 8Kerner 7 Kerne komplett abschalten zu können und zum Energiesparen die Spannung beim verbleibenden Kern zu senken. Da könnte man analog zum ClockTuner den besten Kern raussuchen. Die 8 langsamen Kerne braucht es dafür nicht. Diese werden in der Entwicklung, der Produktion und dem Preis !ehr kosten, als das sie einsparen.

Was braucht eine heutige CPU im Idle?
Offenbar lohnt sich das durchaus, die unten gescholtene bigLITTLE Technik ist immerhin in praktisch allen Smartphones Standard, und die M1 Macbooks haben mit einem Prozessor dieser Technik gerade neue Maßstäbe für die Laufzeiten von Ultralight Notebooks gesetzt.
Ein gesamtes System @Stock zieht bei mir gemessene 42W (ohne Monitor, aber mit Peripherie (Maus, Headset, etc.). Wenn das ganze vernünftig organisiert werden würde, also CPU und undervolten, RAM undervolten, Graka undervolten, wird man das ganze bereits heute auf knappe 30W regulieren können. Davon nimmt sich die CPU aber nur einen kleinen Teil, denke um 10-15 W werden es heutzutage sein. Mit vernünftiger Softwareoptimierung ala ClockTuner wird da mehr möglich sein (also weniger) . Werde mir für das neue System Mal ein Messgerät besorgen und protokollieren.

P.S.
Vor allem werden sich die ganze Freaks ja auf die tolle BigLittle Technik stürzen und einen Z Chipsatz dazu holen, was ja aus energietechnischer Sicht mal gar keinen Sinn ergibt, dazu dann noch maximal ein 80+ Bronze 1500W Chinaböller und vierundzwanzig Lüfter. Womit das System dann im Idle 120W frisst, 80W die Lüfter, 20W der Rest und 20W Netzteilverlustleistung, weil das ganze System nicht passt
Das ist nicht für Bastler relevant, sondern für Komplettbürorechner der Marke Dell, Lenovo & Co. Das sind diese schwarzen Kisten, die weder RGB Beleuchtung noch turbinenartige Belüftungsmethoden haben, dafür aber nicht 42 W im Leerlauch mit Peripherie ziehen, sondern <15W . Selbst wenn man die fehlende Grafikkarte herausrechnet, ist das schon heute deutlich weniger als dein Bastelsystem - und offenbar sieht Intel andere Optimierungsmöglichkeiten als ausgeschöpft, und springt nun ebenfalls auf den bigLittle Zug auf.
 

Technologie_Texter

BIOS-Overclocker(in)
Offenbar lohnt sich das durchaus, die unten gescholtene bigLITTLE Technik ist immerhin in praktisch allen Smartphones Standard, und die M1 Macbooks haben mit einem Prozessor dieser Technik gerade neue Maßstäbe für die Laufzeiten von Ultralight Notebooks gesetzt.
Lies doch bitte mal was ich geschrieben hab:klatsch:
 

Pu244

Lötkolbengott/-göttin
Sinnvoller wäre es doch bei einem 8Kerner 7 Kerne komplett abschalten zu können und zum Energiesparen die Spannung beim verbleibenden Kern zu senken.

Dreimal darfst du raten, was heute schon gemacht wird.

Wenn das ganze vernünftig organisiert werden würde, also CPU und undervolten, RAM undervolten, Graka undervolten, wird man das ganze bereits heute auf knappe 30W regulieren können.

Auch das wird alles gemacht, komplett im Hintergrund.

Davon nimmt sich die CPU aber nur einen kleinen Teil, denke um 10-15 W werden es heutzutage sein.

Es ist sogar noch weniger, aber auch Kleinvieh macht Mist.

Vor allem werden sich die ganze Freaks ja auf die tolle BigLittle Technik stürzen und einen Z Chipsatz dazu holen, was ja aus energietechnischer Sicht mal gar keinen Sinn ergibt, dazu dann noch maximal ein 80+ Bronze 1500W Chinaböller und vierundzwanzig Lüfter. Womit das System dann im Idle 120W frisst, 80W die Lüfter, 20W der Rest und 20W Netzteilverlustleistung, weil das ganze System nicht passt

Die Freaks interessieren nicht. Zum Glück, denn sonst wäre der Gaming PC, wie wir ihn kennen, bald verboten.

Ich erinnere mich, als durch eine Fehlinterpretation der EU Energiesparrichtline der Eindruck aufkam, große Grakas, wie die HD 7970, würden bald verboten werden. Da hat es aber echt nach Revolution gerochen, der Sturm auf Brüssel war fast schon spürbar (blöd, wenn man dann erfahren muß, dass das Parlament in Straßburg tagt).

Zum Glück hat sich alles als nicht so schlimm herausgestellt. Das ganze betraf nur Fertig PCs und PCs mit extremen Grakas, CPUs mit 5+ Kernen, 16GB RAM und 1000W Netzteilen, waren von dem Verbot nicht betroffen,

So ist es, vor allem sind es dann die Leutz, die vom geilen Stromsparen reden und ne 3080 oder eine 3090 kaufen und dann 10~12 Std am Tag am PC sitzen und am zocken sind. Let´s Go Strom sparen :ugly:

Die Leutz, die das machen, interessieren (zum Glück) nicht. Es geht um die vielen hundertmillionen Büro und Multimedia PCs, da wird es dann eben interessant. Ein Blick über den Tellerrand kann auch ganz gut tun.
Lies doch bitte mal was ich geschrieben hab:klatsch:

Von dir hat er auch nicht geredet.
 

BigBoymann

Software-Overclocker(in)
Sorry Leute, aber ihr scheint da etwas falsch zu verstehen.

BigLittle ist im Ansatz eine gute Sache und für Notebook Chips halte ich auch jedes gesparte Watt für wichtig. Jetzt kommt aber das gaaaaanz große Aber, Alder-Lake ist für welchen Markt? Richtig für den Desktopmarkt und hier sind 1 oder 2 W Unterschied in meinen Augen völlig irrelevant.

Die grüne Welt ist ja absolut sinnvoll und ich wehre mich nicht dagegen, auch wenn ich der Überzeugung bin, dass zu 99% mit dem Titel Bio, Umwelt etc. einfach nur Geld gemacht wird und andere Sachen meist nicht schlimmer/besser sind für die Umwelt, aber ja, Ausnahmen bestätigen die Regeln. Um hier nur mal ein Beispiel zu nennen, eine Photovoltaikanlage wird (wurde) in Deutschland extrem und massiv gefördert, was hat man davon? Einen Wirkungsgrad von lächerlichen 30-40%, bei Herstellungskosten (CO²) die erst in 10 Jahren amortisiert werden, stattdessen hätte man die solare Warmwasserwärmung fördern müssen, unser hauseigener Energieverbrauch (Heizung, Warmwasser) ist um ca. 45% gesunken, 4 Monate lang ist der gesamte Warmwasserverbrauch über die Solaranlage abgedeckt, dazu wird Warmwasser mittels einfacher aber intelligenter Installation sowohl für die Waschmaschine, als auch den Geschirrspüler genutzt, 60° Wäsche verbraucht 0,3 kwH, statt 4kwH.

Aber ich schweife ab, auch wenn dieser Gedanke für mich zielführend ist, wenn ich dem Joulemeter vertrauen kann, verbraucht mein i7-8550U im Idle keine 3W. Das gesamte System, inkl. 13" LED Monitor verbraucht im gleichen Zeitpunkt (im Ausgeglichenen Zustand) ca. 30W. Das bedeutet die CPU der 8.Generation verbraucht rund 1/10 des Idleverbrauchs der gesamten Hardware. Wo kann man jetzt Energie sinnvoll sparen?

Wenn ich das ganze mal auf den Desktopmarkt umlege, dann wird das dort ähnlich, wenn nicht schlimmer aussehen. Die Monitore werden zu 99% im Büoralltag nach Preis gekauft, Energiesparmodi werden ohnehin alle deaktiviert, nerven ja nur. Ich kann mich noch gut daran erinnern, als ich die Zwangssperre (Lockscreen) eingerichtet habe und alle nach 5Min ohne Eingabe zur Eingabe des PW aufgefordert worden. Ich hab mich durchgesetzt, aber von allen neuen Mitarbeitern wird dies noch innerhalb der ersten 8 Stunden Arbeit bemängelt, als wenn es ein Bug ist! Nein, es ist ein Feature! Im Büroalltag, dafür soll es ja sein, wenn ich es verstanden habe, gibt es ungefähr 100 andere Dinge rund um den PC, die mit billigsten Mitteln, massiv Energie sparen können, Monitore, Drucker, etc. bieten soviel mehr Einsparpotenzial als alles andere.

Bleiben wir beim PC, auch hier gibt es neben der CPU viel mehr Verbraucher, der Mainboardchipsatz meines Systems benötigt rund 12W, damit also viermal soviel im Idle wie die CPU. Warum ist das so? Wahrscheinlich weil die Chipsätze bisher nicht hochspezialisiert sind und die neuesten Fertigungsverfahren bleiben den CPUs vorbehalten, obwohl so ein MB Chip wahrscheinlich schon problemlos bei 5nm gefertigt werden könnte, da diese bei weitem nicht so komples sind. Deaktivierbare Features, Slots, USB Ports, etc. würden wohl eine höhere Ersparniss ausmachen, als alle LittleCores dies könnten. Wir reden hier von Vebrauchseinsparungen unterhalb von 5W! Diese gesamte Dikussion wird absolut lächerlich, wenn man das mal auf ein ganzes Jahr hochrechnet! ECO ist eine tolle Sache, aber man muss es eben sinnvoll machen und nicht wie hier irgendwelche Pseudogeschichten entwerfen.

Alder Lake, soweit gehe ich, wird den aktuellen Abstand von AMD noch vergrößern, mit Zen 4 wird man RocketLake schlagen und Alder Lake wird maximal einen einstelligen Zuwachs erhalten können. Man wird mit Alder Lake, mit 8 Big / 8 kleinen und 8 virtuellen Kernen maximal im Bereich eines kommenden 6800X antreten können. Wenn Intel Glück hat, wird AMD bei 16 Kernen hängen bleiben, aber ich halte nachwievor einen 32 Kerner nicht für ausgeschlossen. AMD wird Alder Lake in jedem Fall pulverisieren, da braucht man kein Hellseher zu sein, einfach weil Intel den falschen Weg eingeschlagen hat! Alder Lake wäre eine super geile Sache im mobilen Bereich gewesen, wobei fraglich ist, ob wir hier diese Power brauchen, ein Atom reicht doch heute schon für fast alles aus und Cloud Computing wird immer interessanter. Im Desktopmarkt wird Alder Lake floppen, ich würde fast Itanium als Vergleich heranziehen, auch wenn das Desaster so groß nicht werden wird, da OEMs und der dumme Nutzer ja heutzutage quasi alles von Intel kaufen.
Offenbar lohnt sich das durchaus, die unten gescholtene bigLITTLE Technik ist immerhin in praktisch allen Smartphones Standard, und die M1 Macbooks haben mit einem Prozessor dieser Technik gerade neue Maßstäbe für die Laufzeiten von Ultralight Notebooks gesetzt.

Das ist nicht für Bastler relevant, sondern für Komplettbürorechner der Marke Dell, Lenovo & Co. Das sind diese schwarzen Kisten, die weder RGB Beleuchtung noch turbinenartige Belüftungsmethoden haben, dafür aber nicht 42 W im Leerlauch mit Peripherie ziehen, sondern <15W . Selbst wenn man die fehlende Grafikkarte herausrechnet, ist das schon heute deutlich weniger als dein Bastelsystem - und offenbar sieht Intel andere Optimierungsmöglichkeiten als ausgeschöpft, und springt nun ebenfalls auf den bigLittle Zug auf.
Die oft gelobte M1 der MacBooks ist eine Bankrotterklärung, die angebliche Leistungsgleichheit ist Augenwischerei, ich verweise hier mal netterweise auf den Bericht von Igor! SingleCore ist bei ARM nicht SingleCore, soviel vorab. Dazu wird ARM den Einstieg ohne vernünftige x86 Emulierung nicht schaffen, das wird ARM aber gar nicht als Ziel haben. Mal sehen, was andere Entwickler hierzu beitragen.

Hast du mal einen Komplettbürorechner auseinander geschraubt?

Lüfter ist immer enthalten, dazu ist die verbaute Hardware in solchen Teilen der ganz große Schrott. Netzteil ist zumeist ohne 80+ Zertifizierung, nicht weil diese Geld kostet, sondern weil die Netzteile diese nicht schaffen würden. Dazu muss man nicht immer auf den Intelzug aufspringen, aktuell haben die mehr schlechte als gute Entscheidungen getroffen, weshalb man diese Entscheidungen vieleicht doch mal kritisch hinterfragen sollte. Jede CPU wird natürlich gedrosselt, aber es handelt sich hierbei um generelle Werte und nicht indivduelle Werte. Daher würde ich als viel wichtigere Maßnahme ein Softwaretool, ähnlich zum Clocktuner durchlaufen lassen und ECO Werte ansetzen. 0,1V weniger Spannung, wird bereits mehr Strom sparen als die 8 Little Kerne dies können.
 
Zuletzt bearbeitet:

Mephisto_xD

BIOS-Overclocker(in)
Lies doch bitte mal was ich geschrieben hab:klatsch:
Du hast geschrieben:
Das können große Kerne aber auch, die FPU wird ohne AVX512 halb schlafen gelegt.
Und meine Antwort bezog sich darauf, dass du mit dieser Einschätzung offenbar falsch liegst, denn ansonsten würden wohl kaum sämtliche Hersteller die big LITTLE Technik verfolgen. Oder glaubst du, dass kein einziger der tausenden Ingenieure bei Apple, Qualcomm, Mediatek, Intel und Konsorten darauf gekommen ist, einfach die stromhungrigen Kerne teilabzuschalten? Meinst du die verschwenden die Siliziumfläche für die Stromsparkerne einfach zum Spaß?

Natürlich nicht. Sie haben festgestellt, dass die Vollabschaltung der großen Kerne und das Abwälzen von Quasi-Leerlaufaufgaben auf effizienzgetrimmte Kerne deutliche Vorteile beim Stromverbrauch (und damit auch der Laufzeit) bringt.
 

Mephisto_xD

BIOS-Overclocker(in)
Ich habe vom Desktop geschrieben, das hast du wohl überlesen!
Und nun? Auch am Desktop kann man Stromsparen, vor allem wenn ein Großteil der Belegschaft zu faul ist den Rechner wirklich runterzufahren - wer weiß, vielleicht muss man ja per Teamviewer mal drauf zugreifen. Da kann sich die Verbesserung des Leerlaufstromverbrauchs schon lohnen.

Die oft gelobte M1 der MacBooks ist eine Bankrotterklärung, die angebliche Leistungsgleichheit ist Augenwischerei, ich verweise hier mal netterweise auf den Bericht von Igor! SingleCore ist bei ARM nicht SingleCore, soviel vorab.
Hier ist der fragliche Artikel: https://www.igorslab.de/warum-apple...d-fehlerhaft-sind-mit-benchmarks-gastbeitrag/

Ich respektiere Igor, aber ich denke hier hat er Unrecht. Der Sinn und Zweck eines "Single-Core" Tests (hier im Forum übrigens schon länger Single Thread genannt) liegt darin zu bewerten, wie gut sich eine CPU schlägt, wenn die Rechenlast rein sequenziell - also nicht paralellisiert - abläuft.

Der Vergleich mit zwei Threads die auf einem Kern laufen ist zwar aus akademischer Sicht interessant, aber in der Praxis völlig irrelevant, denn kein Programm wird die CPU jemals so nutzen.
Dazu wird ARM den Einstieg ohne vernünftige x86 Emulierung nicht schaffen, das wird ARM aber gar nicht als Ziel haben. Mal sehen, was andere Entwickler hierzu beitragen.
Die M1 x86 Emulation ist ziemlich gut.
Daher würde ich als viel wichtigere Maßnahme ein Softwaretool, ähnlich zum Clocktuner durchlaufen lassen und ECO Werte ansetzen. 0,1V weniger Spannung, wird bereits mehr Strom sparen als die 8 Little Kerne dies können.
Acht Zusatzkerne verbauen kann man aber in jedem Prozessor, die Spannung um 0.1V senken hingegen nicht. Mal abgesehen davon, dass Bürorechner generell nur in den vom Hersteller spezifizierten Betriebsparametern laufen (sollten).
 

BigBoymann

Software-Overclocker(in)
Und nun? Auch am Desktop kann man Stromsparen, vor allem wenn ein Großteil der Belegschaft zu faul ist den Rechner wirklich runterzufahren - wer weiß, vielleicht muss man ja per Teamviewer mal drauf zugreifen. Da kann sich die Verbesserung des Leerlaufstromverbrauchs schon lohnen.


Hier ist der fragliche Artikel: https://www.igorslab.de/warum-apple...d-fehlerhaft-sind-mit-benchmarks-gastbeitrag/

Ich respektiere Igor, aber ich denke hier hat er Unrecht. Der Sinn und Zweck eines "Single-Core" Tests (hier im Forum übrigens schon länger Single Thread genannt) liegt darin zu bewerten, wie gut sich eine CPU schlägt, wenn die Rechenlast rein sequenziell - also nicht paralellisiert - abläuft.

Der Vergleich mit zwei Threads die auf einem Kern laufen ist zwar aus akademischer Sicht interessant, aber in der Praxis völlig irrelevant, denn kein Programm wird die CPU jemals so nutzen.

Die M1 x86 Emulation ist ziemlich gut.

Acht Zusatzkerne verbauen kann man aber in jedem Prozessor, die Spannung um 0.1V senken hingegen nicht. Mal abgesehen davon, dass Bürorechner generell nur in den vom Hersteller spezifizierten Betriebsparametern laufen (sollten).
Nein, Igor hat Recht.

Die Frage die du in den Raum stellst, ist ja eher, ist x86 das richtige? Oder anders gesprochen, ist die Software richtig programmiert? Womit wir wieder beim Kern der Aussage sind, Softwareoptimierung ist das Zauberwort.

Die x86 Emulation ist wo genau gut? Wie viel kommt da denn noch Performance raus?

Acht Zusatzkerne kosten aber Geld und verbrauchen alleine bei der Produktion auch Geld, die Chipfläche wird hunmal größer. Das wird hier vergessen.
 

RtZk

Lötkolbengott/-göttin
BigLittle ist im Ansatz eine gute Sache und für Notebook Chips halte ich auch jedes gesparte Watt für wichtig. Jetzt kommt aber das gaaaaanz große Aber, Alder-Lake ist für welchen Markt? Richtig für den Desktopmarkt und hier sind 1 oder 2 W Unterschied in meinen Augen völlig irrelevant.

Alder Lake ist ebenfalls für den mobilen Markt.
Abgesehen davon schadet es auch für den Desktop Markt absolut nicht, kaum jemand benötigt 16 Kerner.
Die 8+8 entsprechen scheinbar ungefähr 12 "richtigen" Kernen, bis die für die typischen Desktop und Gaming Anwendungen nicht mehr genügen vergeht eine sehr lange Zeit und sparsamer und effizienter in den meisten Situationen als ein richtiger 16 Kerner wird die CPU wohl auch sein.
Hier wird es auch sicherlich um mehr als 1 oder 2 Watt gehen.
 

MaxthonFan

Komplett-PC-Aufrüster(in)
Weiß man eigentlich schon was genaueres, wofür die 500 zusätzlichen Kontakte gut sein werden? Deutlich mehr PCIe Lanes oder gar Triple-Channel? Nur für mehr Power werden die ja hoffentlich nicht sein. :ugly:
 

SilentHunter

Software-Overclocker(in)
Mal abgesehen davon, dass Bürorechner generell nur in den vom Hersteller spezifizierten Betriebsparametern laufen (sollten).
Wenn das nicht ein eigener auch für Homeoffice genutzter PC ist wo man machen kann wie man möchte hab ich bis heute noch nie einen OC Arbeitsplatz PC in meinen Leben gesehen. Das wäre wahrscheinlich in fast allen Firmen auch ein möglicher Abmahngrund.
 

Pu244

Lötkolbengott/-göttin
Lüfter ist immer enthalten, dazu ist die verbaute Hardware in solchen Teilen der ganz große Schrott. Netzteil ist zumeist ohne 80+ Zertifizierung, nicht weil diese Geld kostet, sondern weil die Netzteile diese nicht schaffen würden.

Tut mir leid, hier kann man erkennen, dass du zumindest davon keine Ahnung hast.

Netzteile unterhalb von etwa 80 Plus Bronze sind in Komplett PCs seit gut 8 Jahren VERBOTEN, der EU Energiesparrichtline sei dank.

Ausnahmen gibt es wenn:
- der Rechner eine Graka mit viel Bandbreite hat (damals 320GB/sec)
- viele Kerne besitzt (damals 5+)
- viel RAM sein Eigen nennt (damals 16GB+)
- ein Netzteil mit über 1000W verbaut wurde

Man muß allerdings immer noch einen Energieausweis erstellen und da sieht das ganze echt blöd aus.

Fertig PCs der großen Hersteller zeichnen sich im Gegenteil durch technisch gute Netzteile aus.

Aber ich schweife ab, auch wenn dieser Gedanke für mich zielführend ist, wenn ich dem Joulemeter vertrauen kann, verbraucht mein i7-8550U im Idle keine 3W. Das gesamte System, inkl. 13" LED Monitor verbraucht im gleichen Zeitpunkt (im Ausgeglichenen Zustand) ca. 30W. Das bedeutet die CPU der 8.Generation verbraucht rund 1/10 des Idleverbrauchs der gesamten Hardware. Wo kann man jetzt Energie sinnvoll sparen?

Der Entscheidende Punkt ist: wo kann man Energie sparen, ohne dass das auffällt?

Bei der CPU ist das so ein Gebiet. Beim Monitor kann man auch noch auf OLEDs gehen und SSDs, statt HDDs verwenden. Dann wird es aber langsam eng.

Wobei 30W schon relativ viel sind. mein Laptop braucht im Leerlauf nur 16W, wobei ich den Bildschirm auf volle Helligkeit gestellt habe. Es ist aber auch ein Haswell, der hat noch ein paar Stromsparmechanismen, die mit Alder Lake wieder kommen könnten.

Alder Lake, soweit gehe ich, wird den aktuellen Abstand von AMD noch vergrößern, mit Zen 4 wird man RocketLake schlagen und Alder Lake wird maximal einen einstelligen Zuwachs erhalten können. Man wird mit Alder Lake, mit 8 Big / 8 kleinen und 8 virtuellen Kernen maximal im Bereich eines kommenden 6800X antreten können. Wenn Intel Glück hat, wird AMD bei 16 Kernen hängen bleiben, aber ich halte nachwievor einen 32 Kerner nicht für ausgeschlossen. AMD wird Alder Lake in jedem Fall pulverisieren, da braucht man kein Hellseher zu sein, einfach weil Intel den falschen Weg eingeschlagen hat!

Das sehe ich anders. Die Atomkerne brauchen sehr wenig Fläche, wobei ich da nur 4 genommen hätte, das wäre in meinen Augen ausreichend. Die Energiesparrichtline ist bei den Komplett PC Herstellern durchaus etwas, das beachtet wird. Intel würde leistungsmäßig so oder so verlieren bzw. so oder so gewinnen, je nachdem, wie sich die Coves entwickeln. Ob sie die Atomkerne weglassen oder nicht hat darauf keine Auswirkung. Mit den zusätzlichen Atomkernen hat Intel jedoch einen Vorteil, den AMD ersteinmal nicht hat.

AMD wird da irgendwann nachziehen müssen, zu blöd, dass sie ihre eigene Niedrigenergiearchitektur eingestellt haben und vermutlich eine neue entwickeln müssen, zum zweiten mal. AMD hat da einfach kein gutes Händchen, wobei sich Intel bei seinen XScale CPUs in den Hintern beißen kann.

Alder Lake wäre eine super geile Sache im mobilen Bereich gewesen, wobei fraglich ist, ob wir hier diese Power brauchen, ein Atom reicht doch heute schon für fast alles aus und Cloud Computing wird immer interessanter.

Die Laptop und unteren Desktop/Xeon CPUs werden ja immer zusammen entwickelt, sonst wären wir auch nie mit den IGPs gesegnet worden. Deshalb wird es Alder Lake auch für den Desktop geben. Soetwas exklusiv für den Desktop zu entwickeln hätte in der Tat etwas weniger Sinn ergeben umgekehrt hätte es eben keinen Sinn ergeben extra für den Desktop/Xeon eine CPU ohne Atomkerne zu entwickeln (am Besten noch einmal mit und ohne IGP).
 

Technologie_Texter

BIOS-Overclocker(in)
AMD wird da irgendwann nachziehen müssen, zu blöd, dass sie ihre eigene Niedrigenergiearchitektur eingestellt haben und vermutlich eine neue entwickeln müssen, zum zweiten mal. AMD hat da einfach kein gutes Händchen, wobei sich Intel bei seinen XScale CPUs in den Hintern beißen kann.
Dafür haben sie doch eh den Zen-Integerkern, den sie dafür mit einer "schlankeren" FPU kombinieren könnten!
 

Pu244

Lötkolbengott/-göttin
Gibts auch irgendeine Art von Argumentation, warum plötzlich Threads, die auf einen Kern beschränkt sind ein realistisches Szenario darstellen sollen?

Weil ein sehr großer Teil der Software immer noch sehr schlecht bis garnicht optimiert ist. Wenn man abseits der großen Produktionen schaut, dann findet sich noch Haufenweise zeug, da nur eine Kern voll nutzt und einen kleinen Rest auf den zweiten Kern verlagert. Der Rest der CPU dreht dann Däumchen.
 

Mephisto_xD

BIOS-Overclocker(in)
Weil ein sehr großer Teil der Software immer noch sehr schlecht bis garnicht optimiert ist. Wenn man abseits der großen Produktionen schaut, dann findet sich noch Haufenweise zeug, da nur eine Kern voll nutzt und einen kleinen Rest auf den zweiten Kern verlagert. Der Rest der CPU dreht dann Däumchen.
Stimmt, aber in diesem Szenario - ein Programm, ein Thread, ein Kern oder auch ein Programm, zwei Threads, zwei Kerne - schneidet der M1 ja eben besonders gut ab. Das von Igor vorgebrachte Szenario - ein Programm, zwei Threads, die auf einen Kern gezwungen werden - zur "Ehrenrettung" der x86 Garde hingegen ist völlig praxisfremd. Kein Entwickler paralellisiert sein Programm, und zwingt dann alle Threads auf den gleichen Kern...
 

BigBoymann

Software-Overclocker(in)
Tut mir leid, hier kann man erkennen, dass du zumindest davon keine Ahnung hast.

Netzteile unterhalb von etwa 80 Plus Bronze sind in Komplett PCs seit gut 8 Jahren VERBOTEN, der EU Energiesparrichtline sei dank.

Ausnahmen gibt es wenn:
- der Rechner eine Graka mit viel Bandbreite hat (damals 320GB/sec)
- viele Kerne besitzt (damals 5+)
- viel RAM sein Eigen nennt (damals 16GB+)
- ein Netzteil mit über 1000W verbaut wurde

Man muß allerdings immer noch einen Energieausweis erstellen und da sieht das ganze echt blöd aus.

Fertig PCs der großen Hersteller zeichnen sich im Gegenteil durch technisch gute Netzteile aus.



Der Entscheidende Punkt ist: wo kann man Energie sparen, ohne dass das auffällt?

Bei der CPU ist das so ein Gebiet. Beim Monitor kann man auch noch auf OLEDs gehen und SSDs, statt HDDs verwenden. Dann wird es aber langsam eng.

Wobei 30W schon relativ viel sind. mein Laptop braucht im Leerlauf nur 16W, wobei ich den Bildschirm auf volle Helligkeit gestellt habe. Es ist aber auch ein Haswell, der hat noch ein paar Stromsparmechanismen, die mit Alder Lake wieder kommen könnten.



Das sehe ich anders. Die Atomkerne brauchen sehr wenig Fläche, wobei ich da nur 4 genommen hätte, das wäre in meinen Augen ausreichend. Die Energiesparrichtline ist bei den Komplett PC Herstellern durchaus etwas, das beachtet wird. Intel würde leistungsmäßig so oder so verlieren bzw. so oder so gewinnen, je nachdem, wie sich die Coves entwickeln. Ob sie die Atomkerne weglassen oder nicht hat darauf keine Auswirkung. Mit den zusätzlichen Atomkernen hat Intel jedoch einen Vorteil, den AMD ersteinmal nicht hat.

AMD wird da irgendwann nachziehen müssen, zu blöd, dass sie ihre eigene Niedrigenergiearchitektur eingestellt haben und vermutlich eine neue entwickeln müssen, zum zweiten mal. AMD hat da einfach kein gutes Händchen, wobei sich Intel bei seinen XScale CPUs in den Hintern beißen kann.



Die Laptop und unteren Desktop/Xeon CPUs werden ja immer zusammen entwickelt, sonst wären wir auch nie mit den IGPs gesegnet worden. Deshalb wird es Alder Lake auch für den Desktop geben. Soetwas exklusiv für den Desktop zu entwickeln hätte in der Tat etwas weniger Sinn ergeben umgekehrt hätte es eben keinen Sinn ergeben extra für den Desktop/Xeon eine CPU ohne Atomkerne zu entwickeln (am Besten noch einmal mit und ohne IGP).
Erstens, keine Ahnung zu haben ist nicht schlimm, nur irgendwelchen Aufklebern zu folgen und dann dem gegenüber keine Ahnung vorzuwerfen ist *********************.

1.) Beschränkt sich der Markt neuerdings auf die EU? Wie groß ist der kleine EU Markt? 20-30% der PCs?
2.) Nur weil ein Netzteil ein Zertifikat bekommt, erfüllt es dieses noch lange nicht. Man denke da nur an den immer noch andauernden Dieselskandal.
3.) Technisch betrachtet sind in den meisten Fertig PCs solide Netzteile verbaut, stelle ich nicht Frage? Nur zwischen solide und energiesparend gibt es Unterschiede. Wir haben Fujitsus Desktops bekommen, da sind FSP Netzteile verbaut. Allerdings unterster Güte, bei allen fünf Exemplaren ist innerhalb von 5 Jahren der Netzteillüfter kaputt gegangen, bei meinen Selbstbauten habe ich in 10 Jahren ein einziges verloren, bei aber knapp 30 PCs und da habe ich eben drauf geachtet, technisch solide Netzteile mit vernünftigen Werten zu bekommen.
4.) Ich kann bei der CPU Energie sparen, das kann ich aber noch viel effektiver in ganz anderen Bereichen, nochmal erwähnt sei der Chipsatz! Bei der CPU geht effektiv Chipfläche verloren, wenn auch nur wenig.
5.) AMD wird da kaum nachziehen müssen, wofür? Der Nutzen ist nicht da, Niedrigenergie wird in Zukunft durch ARM gedeckt werden, die Atomarchitektur wird in der Senke verschwinden, eine wirkliche Daseinsberechtigung hat diese in meinen Augen nicht. Wer nutzt derzeit Atomkerne? Ich kenne tatsächlich einen einzigen, der noch ein altes Surface hat. In allen anderen Bereichen haben sie entweder zu wenig Leistung oder sind schlicht zu teuer. Früher hab ich solche Dinger in NAS Systemen gerne gesehen, heute macht das ARM besser, schneller und vor allem billiger.

Für mich ist das ganze ziemlich eindeutig, für den Desktop Markt wird das ganze eine Totgeburt und den Namen Intel weiter verunglimpfen, da man mit einem vermeintlichen 12900k dann ein Frankensteinsmonster auf die Menschheit loslassen wird. Stattdessen wird man einen i3 beim MediaMarkt mit 8 Kernen und 12 Threads kaufen können und der wird vermutlich direkt neben einem Ryzen 7800X stehen. Letztlich wird die Serie nicht dazu genutzt werden um technologisch wieder nach vorne zu kommen, sondern um die breite Masse zu verarschen. Man wird letztlich das ganze auch in breiter Stückzahl verkaufen, das steht für mich außer Frage. Aber jeder der Ahnung hat und nicht nach Name kauft, wird eben keinen Intel nehmen. Ist aktuell aber auch schon so und trotzdem verkaufen die sich wie geschnitten Brot
 
Zuletzt bearbeitet:

Mephisto_xD

BIOS-Overclocker(in)
1.) Beschränkt sich der Markt neuerdings auf die EU? Wie groß ist der kleine EU Markt? 20-30% der PCs?
EU-Richtlinien im Bereich der Elektronik "gelten" oft weltweit, da der Markt so groß ist dass es sich nicht lohnt ein Extramodell für die weniger regulierten Märkte zu entwickeln. Siehe z.B. einheitlicher USB-Ladestandard.
2.) Nur weil ein Netzteil ein Zertifikat bekommt, erfüllt es dieses noch lange nicht. Man denke da nur an den immer noch andauernden Dieselskandal.
Ja, solche Fälle gibt es. Aber man kann eben auch mal nachmessen, und feststellen, dass viele Büro-PCs deutlich sparsamer arbeiten als selbstgebastelte Äquivalente. So schlecht können die Komponenten also nicht seinl.
 

Gerry1984

Software-Overclocker(in)
Letztendlich ist das Big little Konzept von Intel wohl nur eine Notlösung, weil Intel immer noch kein Interconnect für mehr als zehn Kerne hat, welches auch am Mainstream Desktop und Mobil funktioniert. Denn das tut das Mesh ja offenbar nicht, sonst hätte Intel schon längst damit was bringen können.

Der 16-Kerner wird vermutlich wie gehabt ein Ringbus mit zehn (!) Teilnehmern sein. Acht einzelne Big Cores plus zwei Cluster mit je vier Atom Kernen. Wirklich neu ist das also nicht, anstatt einen reinen Zehnkerner der mit Ring ja noch ganz gut funktioniert ersetzt Intel zwei der normalen Kerne durch Atomcluster. Die Anordnung der Atomkerne im Big Little kennt man ja schon aus einem Mobil Chip wo es einen Big Core plus ein Atomcluster gibt.

So innovativ wie es scheint ist das also gar nicht. Wenn man es ganz böse meint betreibt Intel Flickschusterei um mit dem Corecount mit AMD irgendwie mithalten zu können.

Der große Wurf wo Intel vom Ringbus wegkommt und ein Interconnect hat welches ähnlich skalierbar wie das IF bei AMD ist noch nicht in Sicht.
 

Mephisto_xD

BIOS-Overclocker(in)
Letztendlich ist das Big little Konzept von Intel wohl nur eine Notlösung, weil Intel immer noch kein Interconnect für mehr als zehn Kerne hat, welches auch am Mainstream Desktop und Mobil funktioniert. Denn das tut das Mesh ja offenbar nicht, sonst hätte Intel schon längst damit was bringen können.

Der 16-Kerner wird vermutlich wie gehabt ein Ringbus mit zehn (!) Teilnehmern sein. Acht einzelne Big Cores plus zwei Cluster mit je vier Atom Kernen. Wirklich neu ist das also nicht, anstatt einen reinen Zehnkerner der mit Ring ja noch ganz gut funktioniert ersetzt Intel zwei der normalen Kerne durch Atomcluster. Die Anordnung der Atomkerne im Big Little kennt man ja schon aus einem Mobil Chip wo es einen Big Core plus ein Atomcluster gibt.

So innovativ wie es scheint ist das also gar nicht. Wenn man es ganz böse meint betreibt Intel Flickschusterei um mit dem Corecount mit AMD irgendwie mithalten zu können.

Der große Wurf wo Intel vom Ringbus wegkommt und ein Interconnect hat welches ähnlich skalierbar wie das IF bei AMD ist noch nicht in Sicht.
Quark. Erstens macht es keinen Sinn, Intel musste noch nie mit Kernen protzen um in puncto Image mit AMD mithalten zu können. Zweitens hat Intel durchaus eine Alternative zum Ringbus, das Mesh-Interconnect wie du ja auch schon gesagt hast, die sie ja auch in ihren größeren CPUs für HEDT und Server einsetzen.

Der Grund warum sie das nicht einsetzen liegt daran, dass eine 14 nm CPU mit 16 Kernen und 4 GHz Allcore Takt selbst den alten Bulldozer in puncto Wärmeoutput vor sich her treiben würde.

Und, weil viele Software mit dem Ringbus immer noch besser zusammenarbeitet als mit Mesh oder IF, siehe z.B. Starcraft 2.
 

Gerry1984

Software-Overclocker(in)
Das mit den 14nm stimmt natürlich, trotzdem hätte Intel in diesem Node und mit Mesh mehr als zehn Kerne in den Mainstream bringen können, muss ja nicht eine Heizplatte werden wo man den Takt hochdreht, auch in 14nm laufen Intelprozessoren eigentlich recht effizient wenn nicht so hoch getaktet. Die Größe des Dies zählt auch nicht, muss ja keine iGPU dabei sein.

Vielmehr scheint dasMesh einfach nicht gut dafür geeignet zu sein. Und deswegen wird Alder Lake imho auch nicht mit dem Mesh kommen. Ich bin mir ziemlich sicher dass es genau so kommt wie von mir vermutet, einfach ein Ringbus mit 10 Teilnehmer und 8+8 Kerne.
 

Casurin

BIOS-Overclocker(in)
schon lustig wie hier die ewigen Intel-hater zeigen das sie keine Ahnung haben - so wie immer halt.

Mal ganz abgesehen vom Energie-sparen hat big-little hier noch einen anderen, gewaltigen, Vorteil: Rohe Rechenleistung für einfache Berechnungen. Es gibt ja bereits genügen benchmarks die zeigen wie verdammt effizient sogar die 14 nm Atoms sind, die 10nm BigLittle legen da noch mal eine deutliche Schippe drauf. Für Video-bearbeiten, Rendern, transkodieren - da braucht man keine schnellen Kerne sondern einfach Rohleistung und das können die kleinen Kerne einfach viel Effizienter - mit 5 W auf über 570 Punkt in CB 20.

Die ganzen Leute die bei Ryzen immer von "man braucht mindestens 8 Kerne weil ich schau ein Video, hab 8525 Spyware-Launcher am laufen, Streame und hab nebenbei den Virenscan am laufen" sind jetzt auf ein mal der Meinung man braucht doch nicht viele Kerne - einfach nur weil jetzt Intel auch dafür was hat.
 

BigBoymann

Software-Overclocker(in)
schon lustig wie hier die ewigen Intel-hater zeigen das sie keine Ahnung haben - so wie immer halt.

Mal ganz abgesehen vom Energie-sparen hat big-little hier noch einen anderen, gewaltigen, Vorteil: Rohe Rechenleistung für einfache Berechnungen. Es gibt ja bereits genügen benchmarks die zeigen wie verdammt effizient sogar die 14 nm Atoms sind, die 10nm BigLittle legen da noch mal eine deutliche Schippe drauf. Für Video-bearbeiten, Rendern, transkodieren - da braucht man keine schnellen Kerne sondern einfach Rohleistung und das können die kleinen Kerne einfach viel Effizienter - mit 5 W auf über 570 Punkt in CB 20.

Die ganzen Leute die bei Ryzen immer von "man braucht mindestens 8 Kerne weil ich schau ein Video, hab 8525 Spyware-Launcher am laufen, Streame und hab nebenbei den Virenscan am laufen" sind jetzt auf ein mal der Meinung man braucht doch nicht viele Kerne - einfach nur weil jetzt Intel auch dafür was hat.
Deswegen kommt ja auch ein sparsamer und extrem geeigneter 32 Atomkerner? Ach halt stimmt ja gar nicht. Oder kennst du nur einen einzigen der einen Atomrechner zum rendern nutzt?

Bei mir hat das rein gar nichts mit Intelhasser zu tun, ich hab jahrelang Intels gehabt und war außerordentlich zufrieden. Auf der Arbeit haben wir unter meiner Führung 25 Intel 7600k verbaut, weil sie schlicht viel besser waren als das AMD Äquivalent. Ich nehme wirklich nur das was besser ist (für mich und meinen Einsatzzweck).

Aktuell sieht die Entwicklung bei Intel halt sehr schlecht aus, Rocket Lake wurde gebackportet auf 14nm, weil 10nm so unfassbar viele Probleme bereitet. Ich weiß auch, dass wir aktuell viele Diskussionen nicht hätten wenn 10nm laufen würde und wir Intels HighPerformance 10nm Chips hätten. Selbst ein 10nm Achtkerner würde AMD in Schwierigkeiten bringen, zumindest im Gaming wären wir jetzt schon deutlich weiter als Zen 3 ist. Aktuell sieht es aber so aus, dass Zen3 konkurrenzlos ist, mit Rocket Lake werden wir speziell im Gaming nochmal ein Unentschieden oder sogar einen Intel-Vorsprung sehen, das aber begrenzt sich absolut aufs Gaming. Da ich nicht nur spiele, ist für mich AMD selbst mit Rocket Lake als Gegner vorne, im reinen Gaming kann dies aber sicher anders aussehen.

Alder Lake wird sicherlich keine schlechte Architektur, für den HighPerformance Desktop Bereich ist es aber nunmal nicht im Ansatz ausreichend. Da finde ich die ganzen AMD Hater viel schlimmer, die das ganz offensichtliche noch wegdiskutieren wollen.
 
Oben Unten