Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht

Lies doch bitte mal was ich geschrieben hab:klatsch:
Du hast geschrieben:
Das können große Kerne aber auch, die FPU wird ohne AVX512 halb schlafen gelegt.
Und meine Antwort bezog sich darauf, dass du mit dieser Einschätzung offenbar falsch liegst, denn ansonsten würden wohl kaum sämtliche Hersteller die big LITTLE Technik verfolgen. Oder glaubst du, dass kein einziger der tausenden Ingenieure bei Apple, Qualcomm, Mediatek, Intel und Konsorten darauf gekommen ist, einfach die stromhungrigen Kerne teilabzuschalten? Meinst du die verschwenden die Siliziumfläche für die Stromsparkerne einfach zum Spaß?

Natürlich nicht. Sie haben festgestellt, dass die Vollabschaltung der großen Kerne und das Abwälzen von Quasi-Leerlaufaufgaben auf effizienzgetrimmte Kerne deutliche Vorteile beim Stromverbrauch (und damit auch der Laufzeit) bringt.
 
Ich habe vom Desktop geschrieben, das hast du wohl überlesen!
Und nun? Auch am Desktop kann man Stromsparen, vor allem wenn ein Großteil der Belegschaft zu faul ist den Rechner wirklich runterzufahren - wer weiß, vielleicht muss man ja per Teamviewer mal drauf zugreifen. Da kann sich die Verbesserung des Leerlaufstromverbrauchs schon lohnen.

Die oft gelobte M1 der MacBooks ist eine Bankrotterklärung, die angebliche Leistungsgleichheit ist Augenwischerei, ich verweise hier mal netterweise auf den Bericht von Igor! SingleCore ist bei ARM nicht SingleCore, soviel vorab.
Hier ist der fragliche Artikel: https://www.igorslab.de/warum-apple...d-fehlerhaft-sind-mit-benchmarks-gastbeitrag/

Ich respektiere Igor, aber ich denke hier hat er Unrecht. Der Sinn und Zweck eines "Single-Core" Tests (hier im Forum übrigens schon länger Single Thread genannt) liegt darin zu bewerten, wie gut sich eine CPU schlägt, wenn die Rechenlast rein sequenziell - also nicht paralellisiert - abläuft.

Der Vergleich mit zwei Threads die auf einem Kern laufen ist zwar aus akademischer Sicht interessant, aber in der Praxis völlig irrelevant, denn kein Programm wird die CPU jemals so nutzen.
Dazu wird ARM den Einstieg ohne vernünftige x86 Emulierung nicht schaffen, das wird ARM aber gar nicht als Ziel haben. Mal sehen, was andere Entwickler hierzu beitragen.
Die M1 x86 Emulation ist ziemlich gut.
Daher würde ich als viel wichtigere Maßnahme ein Softwaretool, ähnlich zum Clocktuner durchlaufen lassen und ECO Werte ansetzen. 0,1V weniger Spannung, wird bereits mehr Strom sparen als die 8 Little Kerne dies können.
Acht Zusatzkerne verbauen kann man aber in jedem Prozessor, die Spannung um 0.1V senken hingegen nicht. Mal abgesehen davon, dass Bürorechner generell nur in den vom Hersteller spezifizierten Betriebsparametern laufen (sollten).
 
Und nun? Auch am Desktop kann man Stromsparen, vor allem wenn ein Großteil der Belegschaft zu faul ist den Rechner wirklich runterzufahren - wer weiß, vielleicht muss man ja per Teamviewer mal drauf zugreifen. Da kann sich die Verbesserung des Leerlaufstromverbrauchs schon lohnen.


Hier ist der fragliche Artikel: https://www.igorslab.de/warum-apple...d-fehlerhaft-sind-mit-benchmarks-gastbeitrag/

Ich respektiere Igor, aber ich denke hier hat er Unrecht. Der Sinn und Zweck eines "Single-Core" Tests (hier im Forum übrigens schon länger Single Thread genannt) liegt darin zu bewerten, wie gut sich eine CPU schlägt, wenn die Rechenlast rein sequenziell - also nicht paralellisiert - abläuft.

Der Vergleich mit zwei Threads die auf einem Kern laufen ist zwar aus akademischer Sicht interessant, aber in der Praxis völlig irrelevant, denn kein Programm wird die CPU jemals so nutzen.

Die M1 x86 Emulation ist ziemlich gut.

Acht Zusatzkerne verbauen kann man aber in jedem Prozessor, die Spannung um 0.1V senken hingegen nicht. Mal abgesehen davon, dass Bürorechner generell nur in den vom Hersteller spezifizierten Betriebsparametern laufen (sollten).
Nein, Igor hat Recht.

Die Frage die du in den Raum stellst, ist ja eher, ist x86 das richtige? Oder anders gesprochen, ist die Software richtig programmiert? Womit wir wieder beim Kern der Aussage sind, Softwareoptimierung ist das Zauberwort.

Die x86 Emulation ist wo genau gut? Wie viel kommt da denn noch Performance raus?

Acht Zusatzkerne kosten aber Geld und verbrauchen alleine bei der Produktion auch Geld, die Chipfläche wird hunmal größer. Das wird hier vergessen.
 
BigLittle ist im Ansatz eine gute Sache und für Notebook Chips halte ich auch jedes gesparte Watt für wichtig. Jetzt kommt aber das gaaaaanz große Aber, Alder-Lake ist für welchen Markt? Richtig für den Desktopmarkt und hier sind 1 oder 2 W Unterschied in meinen Augen völlig irrelevant.

Alder Lake ist ebenfalls für den mobilen Markt.
Abgesehen davon schadet es auch für den Desktop Markt absolut nicht, kaum jemand benötigt 16 Kerner.
Die 8+8 entsprechen scheinbar ungefähr 12 "richtigen" Kernen, bis die für die typischen Desktop und Gaming Anwendungen nicht mehr genügen vergeht eine sehr lange Zeit und sparsamer und effizienter in den meisten Situationen als ein richtiger 16 Kerner wird die CPU wohl auch sein.
Hier wird es auch sicherlich um mehr als 1 oder 2 Watt gehen.
 
Weiß man eigentlich schon was genaueres, wofür die 500 zusätzlichen Kontakte gut sein werden? Deutlich mehr PCIe Lanes oder gar Triple-Channel? Nur für mehr Power werden die ja hoffentlich nicht sein. :ugly:
 
Mal abgesehen davon, dass Bürorechner generell nur in den vom Hersteller spezifizierten Betriebsparametern laufen (sollten).
Wenn das nicht ein eigener auch für Homeoffice genutzter PC ist wo man machen kann wie man möchte hab ich bis heute noch nie einen OC Arbeitsplatz PC in meinen Leben gesehen. Das wäre wahrscheinlich in fast allen Firmen auch ein möglicher Abmahngrund.
 
Lüfter ist immer enthalten, dazu ist die verbaute Hardware in solchen Teilen der ganz große Schrott. Netzteil ist zumeist ohne 80+ Zertifizierung, nicht weil diese Geld kostet, sondern weil die Netzteile diese nicht schaffen würden.

Tut mir leid, hier kann man erkennen, dass du zumindest davon keine Ahnung hast.

Netzteile unterhalb von etwa 80 Plus Bronze sind in Komplett PCs seit gut 8 Jahren VERBOTEN, der EU Energiesparrichtline sei dank.

Ausnahmen gibt es wenn:
- der Rechner eine Graka mit viel Bandbreite hat (damals 320GB/sec)
- viele Kerne besitzt (damals 5+)
- viel RAM sein Eigen nennt (damals 16GB+)
- ein Netzteil mit über 1000W verbaut wurde

Man muß allerdings immer noch einen Energieausweis erstellen und da sieht das ganze echt blöd aus.

Fertig PCs der großen Hersteller zeichnen sich im Gegenteil durch technisch gute Netzteile aus.

Aber ich schweife ab, auch wenn dieser Gedanke für mich zielführend ist, wenn ich dem Joulemeter vertrauen kann, verbraucht mein i7-8550U im Idle keine 3W. Das gesamte System, inkl. 13" LED Monitor verbraucht im gleichen Zeitpunkt (im Ausgeglichenen Zustand) ca. 30W. Das bedeutet die CPU der 8.Generation verbraucht rund 1/10 des Idleverbrauchs der gesamten Hardware. Wo kann man jetzt Energie sinnvoll sparen?

Der Entscheidende Punkt ist: wo kann man Energie sparen, ohne dass das auffällt?

Bei der CPU ist das so ein Gebiet. Beim Monitor kann man auch noch auf OLEDs gehen und SSDs, statt HDDs verwenden. Dann wird es aber langsam eng.

Wobei 30W schon relativ viel sind. mein Laptop braucht im Leerlauf nur 16W, wobei ich den Bildschirm auf volle Helligkeit gestellt habe. Es ist aber auch ein Haswell, der hat noch ein paar Stromsparmechanismen, die mit Alder Lake wieder kommen könnten.

Alder Lake, soweit gehe ich, wird den aktuellen Abstand von AMD noch vergrößern, mit Zen 4 wird man RocketLake schlagen und Alder Lake wird maximal einen einstelligen Zuwachs erhalten können. Man wird mit Alder Lake, mit 8 Big / 8 kleinen und 8 virtuellen Kernen maximal im Bereich eines kommenden 6800X antreten können. Wenn Intel Glück hat, wird AMD bei 16 Kernen hängen bleiben, aber ich halte nachwievor einen 32 Kerner nicht für ausgeschlossen. AMD wird Alder Lake in jedem Fall pulverisieren, da braucht man kein Hellseher zu sein, einfach weil Intel den falschen Weg eingeschlagen hat!

Das sehe ich anders. Die Atomkerne brauchen sehr wenig Fläche, wobei ich da nur 4 genommen hätte, das wäre in meinen Augen ausreichend. Die Energiesparrichtline ist bei den Komplett PC Herstellern durchaus etwas, das beachtet wird. Intel würde leistungsmäßig so oder so verlieren bzw. so oder so gewinnen, je nachdem, wie sich die Coves entwickeln. Ob sie die Atomkerne weglassen oder nicht hat darauf keine Auswirkung. Mit den zusätzlichen Atomkernen hat Intel jedoch einen Vorteil, den AMD ersteinmal nicht hat.

AMD wird da irgendwann nachziehen müssen, zu blöd, dass sie ihre eigene Niedrigenergiearchitektur eingestellt haben und vermutlich eine neue entwickeln müssen, zum zweiten mal. AMD hat da einfach kein gutes Händchen, wobei sich Intel bei seinen XScale CPUs in den Hintern beißen kann.

Alder Lake wäre eine super geile Sache im mobilen Bereich gewesen, wobei fraglich ist, ob wir hier diese Power brauchen, ein Atom reicht doch heute schon für fast alles aus und Cloud Computing wird immer interessanter.

Die Laptop und unteren Desktop/Xeon CPUs werden ja immer zusammen entwickelt, sonst wären wir auch nie mit den IGPs gesegnet worden. Deshalb wird es Alder Lake auch für den Desktop geben. Soetwas exklusiv für den Desktop zu entwickeln hätte in der Tat etwas weniger Sinn ergeben umgekehrt hätte es eben keinen Sinn ergeben extra für den Desktop/Xeon eine CPU ohne Atomkerne zu entwickeln (am Besten noch einmal mit und ohne IGP).
 
AMD wird da irgendwann nachziehen müssen, zu blöd, dass sie ihre eigene Niedrigenergiearchitektur eingestellt haben und vermutlich eine neue entwickeln müssen, zum zweiten mal. AMD hat da einfach kein gutes Händchen, wobei sich Intel bei seinen XScale CPUs in den Hintern beißen kann.
Dafür haben sie doch eh den Zen-Integerkern, den sie dafür mit einer "schlankeren" FPU kombinieren könnten!
 
Gibts auch irgendeine Art von Argumentation, warum plötzlich Threads, die auf einen Kern beschränkt sind ein realistisches Szenario darstellen sollen?

Weil ein sehr großer Teil der Software immer noch sehr schlecht bis garnicht optimiert ist. Wenn man abseits der großen Produktionen schaut, dann findet sich noch Haufenweise zeug, da nur eine Kern voll nutzt und einen kleinen Rest auf den zweiten Kern verlagert. Der Rest der CPU dreht dann Däumchen.
 
Weil ein sehr großer Teil der Software immer noch sehr schlecht bis garnicht optimiert ist. Wenn man abseits der großen Produktionen schaut, dann findet sich noch Haufenweise zeug, da nur eine Kern voll nutzt und einen kleinen Rest auf den zweiten Kern verlagert. Der Rest der CPU dreht dann Däumchen.
Stimmt, aber in diesem Szenario - ein Programm, ein Thread, ein Kern oder auch ein Programm, zwei Threads, zwei Kerne - schneidet der M1 ja eben besonders gut ab. Das von Igor vorgebrachte Szenario - ein Programm, zwei Threads, die auf einen Kern gezwungen werden - zur "Ehrenrettung" der x86 Garde hingegen ist völlig praxisfremd. Kein Entwickler paralellisiert sein Programm, und zwingt dann alle Threads auf den gleichen Kern...
 
Tut mir leid, hier kann man erkennen, dass du zumindest davon keine Ahnung hast.

Netzteile unterhalb von etwa 80 Plus Bronze sind in Komplett PCs seit gut 8 Jahren VERBOTEN, der EU Energiesparrichtline sei dank.

Ausnahmen gibt es wenn:
- der Rechner eine Graka mit viel Bandbreite hat (damals 320GB/sec)
- viele Kerne besitzt (damals 5+)
- viel RAM sein Eigen nennt (damals 16GB+)
- ein Netzteil mit über 1000W verbaut wurde

Man muß allerdings immer noch einen Energieausweis erstellen und da sieht das ganze echt blöd aus.

Fertig PCs der großen Hersteller zeichnen sich im Gegenteil durch technisch gute Netzteile aus.



Der Entscheidende Punkt ist: wo kann man Energie sparen, ohne dass das auffällt?

Bei der CPU ist das so ein Gebiet. Beim Monitor kann man auch noch auf OLEDs gehen und SSDs, statt HDDs verwenden. Dann wird es aber langsam eng.

Wobei 30W schon relativ viel sind. mein Laptop braucht im Leerlauf nur 16W, wobei ich den Bildschirm auf volle Helligkeit gestellt habe. Es ist aber auch ein Haswell, der hat noch ein paar Stromsparmechanismen, die mit Alder Lake wieder kommen könnten.



Das sehe ich anders. Die Atomkerne brauchen sehr wenig Fläche, wobei ich da nur 4 genommen hätte, das wäre in meinen Augen ausreichend. Die Energiesparrichtline ist bei den Komplett PC Herstellern durchaus etwas, das beachtet wird. Intel würde leistungsmäßig so oder so verlieren bzw. so oder so gewinnen, je nachdem, wie sich die Coves entwickeln. Ob sie die Atomkerne weglassen oder nicht hat darauf keine Auswirkung. Mit den zusätzlichen Atomkernen hat Intel jedoch einen Vorteil, den AMD ersteinmal nicht hat.

AMD wird da irgendwann nachziehen müssen, zu blöd, dass sie ihre eigene Niedrigenergiearchitektur eingestellt haben und vermutlich eine neue entwickeln müssen, zum zweiten mal. AMD hat da einfach kein gutes Händchen, wobei sich Intel bei seinen XScale CPUs in den Hintern beißen kann.



Die Laptop und unteren Desktop/Xeon CPUs werden ja immer zusammen entwickelt, sonst wären wir auch nie mit den IGPs gesegnet worden. Deshalb wird es Alder Lake auch für den Desktop geben. Soetwas exklusiv für den Desktop zu entwickeln hätte in der Tat etwas weniger Sinn ergeben umgekehrt hätte es eben keinen Sinn ergeben extra für den Desktop/Xeon eine CPU ohne Atomkerne zu entwickeln (am Besten noch einmal mit und ohne IGP).
Erstens, keine Ahnung zu haben ist nicht schlimm, nur irgendwelchen Aufklebern zu folgen und dann dem gegenüber keine Ahnung vorzuwerfen ist scheiße.

1.) Beschränkt sich der Markt neuerdings auf die EU? Wie groß ist der kleine EU Markt? 20-30% der PCs?
2.) Nur weil ein Netzteil ein Zertifikat bekommt, erfüllt es dieses noch lange nicht. Man denke da nur an den immer noch andauernden Dieselskandal.
3.) Technisch betrachtet sind in den meisten Fertig PCs solide Netzteile verbaut, stelle ich nicht Frage? Nur zwischen solide und energiesparend gibt es Unterschiede. Wir haben Fujitsus Desktops bekommen, da sind FSP Netzteile verbaut. Allerdings unterster Güte, bei allen fünf Exemplaren ist innerhalb von 5 Jahren der Netzteillüfter kaputt gegangen, bei meinen Selbstbauten habe ich in 10 Jahren ein einziges verloren, bei aber knapp 30 PCs und da habe ich eben drauf geachtet, technisch solide Netzteile mit vernünftigen Werten zu bekommen.
4.) Ich kann bei der CPU Energie sparen, das kann ich aber noch viel effektiver in ganz anderen Bereichen, nochmal erwähnt sei der Chipsatz! Bei der CPU geht effektiv Chipfläche verloren, wenn auch nur wenig.
5.) AMD wird da kaum nachziehen müssen, wofür? Der Nutzen ist nicht da, Niedrigenergie wird in Zukunft durch ARM gedeckt werden, die Atomarchitektur wird in der Senke verschwinden, eine wirkliche Daseinsberechtigung hat diese in meinen Augen nicht. Wer nutzt derzeit Atomkerne? Ich kenne tatsächlich einen einzigen, der noch ein altes Surface hat. In allen anderen Bereichen haben sie entweder zu wenig Leistung oder sind schlicht zu teuer. Früher hab ich solche Dinger in NAS Systemen gerne gesehen, heute macht das ARM besser, schneller und vor allem billiger.

Für mich ist das ganze ziemlich eindeutig, für den Desktop Markt wird das ganze eine Totgeburt und den Namen Intel weiter verunglimpfen, da man mit einem vermeintlichen 12900k dann ein Frankensteinsmonster auf die Menschheit loslassen wird. Stattdessen wird man einen i3 beim MediaMarkt mit 8 Kernen und 12 Threads kaufen können und der wird vermutlich direkt neben einem Ryzen 7800X stehen. Letztlich wird die Serie nicht dazu genutzt werden um technologisch wieder nach vorne zu kommen, sondern um die breite Masse zu verarschen. Man wird letztlich das ganze auch in breiter Stückzahl verkaufen, das steht für mich außer Frage. Aber jeder der Ahnung hat und nicht nach Name kauft, wird eben keinen Intel nehmen. Ist aktuell aber auch schon so und trotzdem verkaufen die sich wie geschnitten Brot
 
Zuletzt bearbeitet:
1.) Beschränkt sich der Markt neuerdings auf die EU? Wie groß ist der kleine EU Markt? 20-30% der PCs?
EU-Richtlinien im Bereich der Elektronik "gelten" oft weltweit, da der Markt so groß ist dass es sich nicht lohnt ein Extramodell für die weniger regulierten Märkte zu entwickeln. Siehe z.B. einheitlicher USB-Ladestandard.
2.) Nur weil ein Netzteil ein Zertifikat bekommt, erfüllt es dieses noch lange nicht. Man denke da nur an den immer noch andauernden Dieselskandal.
Ja, solche Fälle gibt es. Aber man kann eben auch mal nachmessen, und feststellen, dass viele Büro-PCs deutlich sparsamer arbeiten als selbstgebastelte Äquivalente. So schlecht können die Komponenten also nicht seinl.
 
Letztendlich ist das Big little Konzept von Intel wohl nur eine Notlösung, weil Intel immer noch kein Interconnect für mehr als zehn Kerne hat, welches auch am Mainstream Desktop und Mobil funktioniert. Denn das tut das Mesh ja offenbar nicht, sonst hätte Intel schon längst damit was bringen können.

Der 16-Kerner wird vermutlich wie gehabt ein Ringbus mit zehn (!) Teilnehmern sein. Acht einzelne Big Cores plus zwei Cluster mit je vier Atom Kernen. Wirklich neu ist das also nicht, anstatt einen reinen Zehnkerner der mit Ring ja noch ganz gut funktioniert ersetzt Intel zwei der normalen Kerne durch Atomcluster. Die Anordnung der Atomkerne im Big Little kennt man ja schon aus einem Mobil Chip wo es einen Big Core plus ein Atomcluster gibt.

So innovativ wie es scheint ist das also gar nicht. Wenn man es ganz böse meint betreibt Intel Flickschusterei um mit dem Corecount mit AMD irgendwie mithalten zu können.

Der große Wurf wo Intel vom Ringbus wegkommt und ein Interconnect hat welches ähnlich skalierbar wie das IF bei AMD ist noch nicht in Sicht.
 
Letztendlich ist das Big little Konzept von Intel wohl nur eine Notlösung, weil Intel immer noch kein Interconnect für mehr als zehn Kerne hat, welches auch am Mainstream Desktop und Mobil funktioniert. Denn das tut das Mesh ja offenbar nicht, sonst hätte Intel schon längst damit was bringen können.

Der 16-Kerner wird vermutlich wie gehabt ein Ringbus mit zehn (!) Teilnehmern sein. Acht einzelne Big Cores plus zwei Cluster mit je vier Atom Kernen. Wirklich neu ist das also nicht, anstatt einen reinen Zehnkerner der mit Ring ja noch ganz gut funktioniert ersetzt Intel zwei der normalen Kerne durch Atomcluster. Die Anordnung der Atomkerne im Big Little kennt man ja schon aus einem Mobil Chip wo es einen Big Core plus ein Atomcluster gibt.

So innovativ wie es scheint ist das also gar nicht. Wenn man es ganz böse meint betreibt Intel Flickschusterei um mit dem Corecount mit AMD irgendwie mithalten zu können.

Der große Wurf wo Intel vom Ringbus wegkommt und ein Interconnect hat welches ähnlich skalierbar wie das IF bei AMD ist noch nicht in Sicht.
Quark. Erstens macht es keinen Sinn, Intel musste noch nie mit Kernen protzen um in puncto Image mit AMD mithalten zu können. Zweitens hat Intel durchaus eine Alternative zum Ringbus, das Mesh-Interconnect wie du ja auch schon gesagt hast, die sie ja auch in ihren größeren CPUs für HEDT und Server einsetzen.

Der Grund warum sie das nicht einsetzen liegt daran, dass eine 14 nm CPU mit 16 Kernen und 4 GHz Allcore Takt selbst den alten Bulldozer in puncto Wärmeoutput vor sich her treiben würde.

Und, weil viele Software mit dem Ringbus immer noch besser zusammenarbeitet als mit Mesh oder IF, siehe z.B. Starcraft 2.
 
Das mit den 14nm stimmt natürlich, trotzdem hätte Intel in diesem Node und mit Mesh mehr als zehn Kerne in den Mainstream bringen können, muss ja nicht eine Heizplatte werden wo man den Takt hochdreht, auch in 14nm laufen Intelprozessoren eigentlich recht effizient wenn nicht so hoch getaktet. Die Größe des Dies zählt auch nicht, muss ja keine iGPU dabei sein.

Vielmehr scheint dasMesh einfach nicht gut dafür geeignet zu sein. Und deswegen wird Alder Lake imho auch nicht mit dem Mesh kommen. Ich bin mir ziemlich sicher dass es genau so kommt wie von mir vermutet, einfach ein Ringbus mit 10 Teilnehmer und 8+8 Kerne.
 
schon lustig wie hier die ewigen Intel-hater zeigen das sie keine Ahnung haben - so wie immer halt.

Mal ganz abgesehen vom Energie-sparen hat big-little hier noch einen anderen, gewaltigen, Vorteil: Rohe Rechenleistung für einfache Berechnungen. Es gibt ja bereits genügen benchmarks die zeigen wie verdammt effizient sogar die 14 nm Atoms sind, die 10nm BigLittle legen da noch mal eine deutliche Schippe drauf. Für Video-bearbeiten, Rendern, transkodieren - da braucht man keine schnellen Kerne sondern einfach Rohleistung und das können die kleinen Kerne einfach viel Effizienter - mit 5 W auf über 570 Punkt in CB 20.

Die ganzen Leute die bei Ryzen immer von "man braucht mindestens 8 Kerne weil ich schau ein Video, hab 8525 Spyware-Launcher am laufen, Streame und hab nebenbei den Virenscan am laufen" sind jetzt auf ein mal der Meinung man braucht doch nicht viele Kerne - einfach nur weil jetzt Intel auch dafür was hat.
 
schon lustig wie hier die ewigen Intel-hater zeigen das sie keine Ahnung haben - so wie immer halt.

Mal ganz abgesehen vom Energie-sparen hat big-little hier noch einen anderen, gewaltigen, Vorteil: Rohe Rechenleistung für einfache Berechnungen. Es gibt ja bereits genügen benchmarks die zeigen wie verdammt effizient sogar die 14 nm Atoms sind, die 10nm BigLittle legen da noch mal eine deutliche Schippe drauf. Für Video-bearbeiten, Rendern, transkodieren - da braucht man keine schnellen Kerne sondern einfach Rohleistung und das können die kleinen Kerne einfach viel Effizienter - mit 5 W auf über 570 Punkt in CB 20.

Die ganzen Leute die bei Ryzen immer von "man braucht mindestens 8 Kerne weil ich schau ein Video, hab 8525 Spyware-Launcher am laufen, Streame und hab nebenbei den Virenscan am laufen" sind jetzt auf ein mal der Meinung man braucht doch nicht viele Kerne - einfach nur weil jetzt Intel auch dafür was hat.
Deswegen kommt ja auch ein sparsamer und extrem geeigneter 32 Atomkerner? Ach halt stimmt ja gar nicht. Oder kennst du nur einen einzigen der einen Atomrechner zum rendern nutzt?

Bei mir hat das rein gar nichts mit Intelhasser zu tun, ich hab jahrelang Intels gehabt und war außerordentlich zufrieden. Auf der Arbeit haben wir unter meiner Führung 25 Intel 7600k verbaut, weil sie schlicht viel besser waren als das AMD Äquivalent. Ich nehme wirklich nur das was besser ist (für mich und meinen Einsatzzweck).

Aktuell sieht die Entwicklung bei Intel halt sehr schlecht aus, Rocket Lake wurde gebackportet auf 14nm, weil 10nm so unfassbar viele Probleme bereitet. Ich weiß auch, dass wir aktuell viele Diskussionen nicht hätten wenn 10nm laufen würde und wir Intels HighPerformance 10nm Chips hätten. Selbst ein 10nm Achtkerner würde AMD in Schwierigkeiten bringen, zumindest im Gaming wären wir jetzt schon deutlich weiter als Zen 3 ist. Aktuell sieht es aber so aus, dass Zen3 konkurrenzlos ist, mit Rocket Lake werden wir speziell im Gaming nochmal ein Unentschieden oder sogar einen Intel-Vorsprung sehen, das aber begrenzt sich absolut aufs Gaming. Da ich nicht nur spiele, ist für mich AMD selbst mit Rocket Lake als Gegner vorne, im reinen Gaming kann dies aber sicher anders aussehen.

Alder Lake wird sicherlich keine schlechte Architektur, für den HighPerformance Desktop Bereich ist es aber nunmal nicht im Ansatz ausreichend. Da finde ich die ganzen AMD Hater viel schlimmer, die das ganz offensichtliche noch wegdiskutieren wollen.
 
Zurück