AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß

Die Fläche für die kleinen Cores kannste aber auch einfach für weitere große Cores nutzen, die dann das Video Encoding genauso gut erledigen, ohne die anderen Cores auszubremsen...

Im Grunde kann man dein Argument auf jeden Multicore Prozessor anwenden. Mehr Cores, die nicht aktiv gebraucht werden = mehr ressourcen für parallele Tasks wie Videoencoding oder sonstiges. Daran ändert das Big Little Prinzip rein gar nichts.


Ich bleib dabei. Effizienzsteigerung bei Teillast. Thats it.
 
Ich würde für die kommenden Big-Little Geschichten auch außerhalb von stark-schwach denken, Mal was anderes, zB Billig-teuer. Big im Sinne von größerer/älterer/günstiger Fertigung. Siehe Ryzen mit dem I/O. Da gibt's dann zB irgendwann i3 / R3 Einsteiger mit 6 Kernen, 2 Little und 4 spottbillige aus dem "uralten" 7nm Verfahren, die sich bis dahin super rechnen in der Herstellung. Und die 2 Kerne die Leistung bringen aus dem aktuellen, marketingträchtigen Verfahren.
Ich würde mir aber zB auch einen "Pentium Resurrection 14h Gen" SingleCore kaufen, wenn der in The Witcher V 300 FPS schiebt, deshalb Mal sehen was die ganzen neuen Ideen dann tatsächlich leisten für mein Hobby :D
 
Die Fläche für die kleinen Cores kannste aber auch einfach für weitere große Cores nutzen, die dann das Video Encoding genauso gut erledigen, ohne die anderen Cores auszubremsen...
Lies nochmal - Nein.
Die kleinen Kerne bringen für die selbe Fläche/Stromverbrauch deutlich mehr Leistung für Rendering und co einfach weil so simple Anwendungen davon sehr profitieren.
Daran ändert das Big Little Prinzip rein gar nichts.

Ich bleib dabei. Effizienzsteigerung bei Teillast. Thats it.
Nope, da kannst du dir einreden was du willst.
 
Wenn ichs richtig im Kopf habe waren in den letzten Jahren 80% der neu verkauften Computer: Notebooks und Laptops.

Genau diesen Markt will man damit bedienen. Fehlende Leistung ist dort inzwischen kein Problem mehr, da sie statistisch größtenteils in der Regel eh nur zum Emailschauen und Internetsurfen verwendet werden.
äh was ist den der Unterschied zwischen einem Notebooks und Laptops? :ka:
Ich kenne noch (die mittlerweile wieder ausgestorben) Netbooks aber...
 
Nein eben nicht. Je kleiner um so schwieriger das ganze zu kühlen. Und das wird auch der Grund sein wieso die Kerne nicht steigen.
???
Grds. hast du natürlich Recht, je kleiner umso schwerer zu kühlen. Aber 64Kerne zu je 3Ghz sind besser zu kühlen als 8 Kerne mit 5Ghz. Die Schlussfolgerung ist in meinen Augen die falsche, mehr Kerne bei gleicher Verlustleistung wie weniger Kerne sind auf Grund der größeren Gesamtfläche besser zu kühlen.

Das wird einzig ein Preisargument sein und wenn sie wirklich als G kommen, dann sind das nur die Einstiegsvarianten, schau Mal was es heute so als G gibt, einen 3400G, das ist glaube ich aktuell das höchste der Gefühle. Darüber kommen dann noch R5, R7 und R9
 
Die AMD-Jungs gehen wahrscheinlich einfach von maximal 8 Kernen bei Intel bis 2024 aus. Entsprechend braucht man also nur 4 kleine Kerne mehr zu den normalen 8 "Intel-Kernen" und schon bleibt man vorne.

Wahrscheinlicher ist wohl einfach ein besser skalierender Prozessor für unterschiedliche Aufgaben. Warum einen ineffizienten Kern im Notebook beim Webbrowsen, Schreiben und Video schauen benutzen? Auch gibt es eventuell Synergieeffekte. Mal schauen was die Jungs sich einfallen lassen.
 
Was redest du da bitte... es geht hier um consumer CPUs also hauptsächlich fürs gaming. Daher gibt dein Umkehrschluss absolutt kein Sinn. 8 kerne 5Ghz. Punkt. Da wird nich mehr gehn, wenn sie dann den Clock arg runter stufen müssen sagen wir 16 Kerne ghz hat man davon nichts.
Dann mache Mal bitte sinnvolle Aussagen. Deine obige Aussage ist so wie sie da steht schlicht falsch. 64 Kerne mit 3Ghz haben heute den gleichen Verbrauch wie 8 mit 5Ghz und sind deutlich kühler, gerade im HotSpot Bereich zu halten, weil eben mehr Fläche da ist.

Ob 8 Kerne noch Sinn machen in mehr als 2 Jahren wage ich Mal zu bezweifeln, bereits jetzt skalieren eine Menge Anwendungen und selbst viele Spiele mit mehr als 8 Kernen. In zwei Jahren wird das wohl noch weiter ausgebaut sein. 64 werden es in Games aber sicher auch nicht sein. Nur um Missverständnissen vorzubeugen.
 
Was redest du da bitte... es geht hier um consumer CPUs also hauptsächlich fürs gaming. Daher gibt dein Umkehrschluss absolutt kein Sinn. 8 kerne 5Ghz. Punkt. Da wird nich mehr gehn, wenn sie dann den Clock arg runter stufen müssen sagen wir 16 Kerne ghz hat man davon nichts.

16 Kerne funktionieren doch jetzt bei AMD schon mit 5GHZ Boosttakt und auch alle Kerne erreichen hohe Werte. Natürlich kann man auch mit 3nm auf noch mehr Kerne gehen. Am Ende müssen nur die Programme auch entsprechend angepasst werden. Bei diversen Anwendungen klappt es doch auch alle Kerne zu nutzen...
 
16 Kerne funktionieren doch jetzt bei AMD schon mit 5GHZ
Frag mich ob du auf das entscheidende Wort in dem Satz kommst und dann mit dem Thema vergleichst worum es hier geht. Ich markier es mal für dich. Ferner gehn bei AMD 8 Kerne gleichzeitig nur was, 3,9-4.2ghz oder so. So jetzt reduzier die Größe um 50% und dann noch mal um 50% ..... ... na klickts???
Dann mache Mal bitte sinnvolle Aussagen.
ne tut mir leid, wurd alles zu gesagt.
 
Zuletzt bearbeitet:
Frag mich ob du auf das entscheidende Wort in dem Satz kommst und dann mit dem Thema vergleichst worum es hier geht. Ich markier es mal für dich. Ferner gehn bei AMD 8 Kerne gleichzeitig nur was, 3,9-4.2ghz oder so. So jetzt reduzier die Größe um 50% und dann noch mal um 50% ..... ... na klickts???
Leider bist du völlig uninformiert!
Der 5800X (8 Kerner) geht mittlerweile locker 4.7 GHZ all core, selbst ab Werk takten die 4.4 GHZ.
 
Intel will in Zukunft auch mit Chiplets arbeiten, und AMD guckt diese Idee bei Intel ab.
Ich denke im Desktop bringts wenig, meiner meinung - bei Laptops sicher eine gute sache :)
 
Frag mich ob du auf das entscheidende Wort in dem Satz kommst und dann mit dem Thema vergleichst worum es hier geht. Ich markier es mal für dich. Ferner gehn bei AMD 8 Kerne gleichzeitig nur was, 3,9-4.2ghz oder so. So jetzt reduzier die Größe um 50% und dann noch mal um 50% ..... ... na klickts???

ne tut mir leid, wurd alles zu gesagt.
Also erstens, wo geht AMD denn nur 3,9-4,2Ghz? Meiner läuft mit 4,85Ghz All Core bei einer Leistungsaufnahme Ingame von deutlich unter 100W (aktuell spiele ich Rise of Tomb Raider; nicht sonderlich anspruchsvoll, aber dort habe ich immer knappe 70-71W Leistungsaufnahme und Temperaturen von 60°). Also mit 8 Kernen und 4,2Ghz war das mal vieleicht zu Zen 1 Zeiten so, aber selbst Zen 2 kann schon deutlich mehr und Zen 3 ist dahingehend ein großer Schritt. Folgt man deiner, leider lächerlichen Theorie, müsste Zen 3 gar weniger Takt mitmachen, da 8 Kerne im CCX sind und der Platz somit noch eingeschränkter als bei den Vorgängern ist.

Wenn ich jetzt die Größe reduziere, was ein Shrink so an sich hat, dann passiert aber meist auch noch was anderes, was du hier völlig vergisst. Es reduziert sich ja auch die Leistungsaufnahme. Lass es mal geplante 30% sein, dann hat der 3nm Chip auch nur noch 49% der Leistungsaufnahme heutiger 7nm Modelle.

Deinen letzten Satz kannst du dir dann auch bitte sparen, als wenn du hier über allen stehen würdest und die Weisheit mit Löffeln usw. Im Ernst, deine Aussagen machen überhaupt keinen Sinn, egal welchen Kontext ich versuche. Sie strotzen vor Fehlern (8 Kerne nur 4,2Ghz) und sind einfach überhaupt nicht mehr aktuell. Als wenn du 2017 in der Hardware stecken geblieben wärst. Ein 12 Kerner macht bereits heute deutliche Unterschiede in einigen Games, diese Anzahl wird sich in den kommenden Jahren vervielfachen. Damit werden wir in 2-3 Jahren in den Benchmarks einen riesigen Anteil an Games haben, die mehr als 8 Kerne auch effektiv nutzen und ein 16 Kerner wird deutlich vor einem 8 Kerner liegen, auch in Gamingbenchmarks.
 
Big-Little hatte ARM schon JAHRE vor Intel;)

Psst, nicht so laut, du könntest damit die "Glorious PC Gaming Masterrace" kränken. Nicht auszudenken, wenn die erfahren, dass es Dinge wie 64Bit, Out of Order, Mehrkern CPUs usw. schon lange vorher bei andren Architekturen gab. Da könnte das Ego wie ein Soufflé, bei dem man den Backofen zu früh geöffnet hat, in sich zusammenfallen.
 
Ich frag mich ja was das BigLittle im Desktop bringen soll.
Wer auf gute Alltags-Performance (Surfen, Office, Gaming, ...) aus ist, nichts. ;) Wer spezielle Aufgaben hat, mit vielen parallel laufenden Threads, da kommt es halt auf die Anzahl der Kerne an. LITTLE Kerne kann man aber auch wieder kontern mit breiteren Pipelines (z.B. AVX512) oder SMT. Was noch bessere Effizienz ermöglicht. Der Sinn von big.LITTLE ist für Desktops daher mehr als fragwürdig. Für Intel ist es halt nicht so schwierig umzusetzen gewesen, da sie eh über einen kleinen und grossen Kern verfügen, und jedes bisschen mehr Effizienz hilft, so wie sie da im Moment unterlegen sind. Für zukünftige Designs wünsche ich mir aber was besseres.


Intel will in Zukunft auch mit Chiplets arbeiten, und AMD guckt diese Idee bei Intel ab.
Du meinst Intel guckt sich das bei AMD ab. Schliesslich hat AMD bereits Chiplet Designs auf dem Markt. ;)
 
Big-Little hatte ARM schon JAHRE vor Intel;)
Hat das jemand bestritten?
Wer auf gute Alltags-Performance (Surfen, Office, Gaming, ...) aus ist, nichts. ;) Wer spezielle Aufgaben hat, mit vielen parallel laufenden Threads, da kommt es halt auf die Anzahl der Kerne an. LITTLE Kerne kann man aber auch wieder kontern mit breiteren Pipelines (z.B. AVX512) oder SMT. Was noch bessere Effizienz ermöglicht. Der Sinn von big.LITTLE ist für Desktops daher mehr als fragwürdig. Für Intel ist es halt nicht so schwierig umzusetzen gewesen, da sie eh über einen kleinen und grossen Kern verfügen, und jedes bisschen mehr Effizienz hilft, so wie sie da im Moment unterlegen sind. Für zukünftige Designs wünsche ich mir aber was besseres.
Big Little ist im Desktop nicht wirklich nötig bzw. war es nie:
In den letzten 20 Jahren hat sich der Stromverbrauch pro Transistor ja mit jedem Full Node Sprung halbiert. Blöd nur, dass Intel vor 5 Jahren ins Straucheln geriet, der Strombedarf außer Kontrolle ist wenn man viel Leistung abfragt.
Die Idle und Niedriglast (Verlust-) Leistung ist eh in Ordnung. Ein paar Watt mehr "verbrauch" sind hier eigentlich im Desktop egal. Vermutlich gehts auch um Chipfläche und Marketing ("16 Kerner" bei einem 8+8 Design).
Im Laptop wo jedes Watt zählt - kann es sinnvoll sein.
 
Zuletzt bearbeitet:
Das ist nichts weiter als Öko-Selbstdarstellung. Seht her, ich verbrauche weniger Strom, wenn mein Laptop weniger macht.

Was soll ein Gamer dazu sagen? Seht her, ich hab beim Zocken 4 Kerne die hätte ich mir auch sparen können? So eine Art Intel HD Graphics 2.0?

Am Ende vom Tag dient das nur dazu dass Ryzen 3 und Ryzen 5 CPUs mit dem Schrott verwässert werden und sich AMD die "Gaming" Variante der CPUs mit nur schnellen Cores mit Aufpreisen bezahlen lässt die in keiner Relation stehen.

Im Taskmanager kann man ja jetzt schon sehen, dass die Ryzen CPUs sehr gut runtertakten können und bei wenig Last einzelne Kerne sogar total abschalten. Die Ersparnis indem man einen Krüppelcore die ganze Zeit laufen lässt und den Rest erst einschaltet wenn der überfordert ist, wird sich arg in Grenzen halten. Das sollte sich auch ganz gut testen lassen.
 
Zurück