• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß

AMD soll Intel das Feld bei der Entwicklung von Prozessoren im Big-Little-Prinzip nicht alleine überlassen. Die Einführung ist laut jüngsten Gerüchten aber rund zwei Jahre nach Alder Lake geplant; 2024 mit Zen 5. Das ist einerseits genug Zeit, um sich den Erfolg (oder eben nicht) bei Intel anzuschauen; andererseits viel Zeit, sollte Intel damit punkten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß
 

danyundsahne

Komplett-PC-Aufrüster(in)
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.
 

Schori

Software-Overclocker(in)
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.
Die Zahl des Fertigungsprozesses sagt schon lange nichts mehr über die tatsächliche Größe aus. Das 3nm Die wird nicht wesentlich kleiner als das in 7nm gefertigte.
Mal davon ab, dass Software mit den Kernen auch was anfangen können muss.
 

bschicht86

Volt-Modder(in)
Vielleicht will man so einen möglichen schlechten Yield beikommen. Ein teildefekter CCD bekommt 4 Kerne gestrichen und in den übrigen 4 werden ein paar Funktionseinheiten abgeschaltet, z.B. AVX o.ä leistungshungrige Teile.
 

Ganjafield

Freizeitschrauber(in)
Bezweifle den direkten Durchbruch dieser Technologie. Ist wohl eher interessant für stromsparende Laptops, Tablets mit "billigen" Prozessoren.
Auf lange Sicht wird es sicher Bedarf geben an z.B. 8/16 schnellen und 8/16 langsamen Kernen. Aber wenn man sich anschaut wie sparsam schon jetzt Prozessoren arbeiten wenn die runter takten, glaube ich nicht das es so wahnsinnig viel bringen wird. Bis das eine ausgereifte Technologie mit wirklichem Nutzen wird, vergehen noch viele Jahre.
 
T

-THOR-

Guest
Ich frag mich ja was das BigLittle im Desktop bringen soll.

Im Endeffekt hat man eben nur zusätzliche kleine Kerne, die zusätzliche Threads bereitstellen können, wenn die Großen Kerne + SMT nicht nicht mehr reichen.

Aber da brauchste ja auch erstmal ne Anwendung die das nutzt.

Zumal eine Lösung mit z.B. 12C/24T wahrscheinlich immer schneller ist als 8C/16T+4c

Die kleinen Cores sind aus meiner Sicht fürs stromsparen interessant, wenn nur eine Teillast anliegt. Hier steigert man dann die Effizienz was grundsätzlich gut ist.

Aber eine Effizienzsteigerung bei Vollast kann ich da nicht erkennen…
 

Incredible Alk

Moderator
Teammitglied
Das 3nm Die wird nicht wesentlich kleiner als das in 7nm gefertigte.
Ääähhh nein.
N5 hat eine 45% geringere Fläche als N7 und N3 wiederum eine 42% geringere Fläche als N5.

Oder anders gesagt ein 80 mm^2 großes Chiplet in 7nm wäre in 3nm nur noch etwa 26 mm^2 groß.

AMD könnte in 3nm auf die gleiche Fläche problemlos 16-24 statt 8 Kerne bauen einschliesslich verdoppeltem/verdreifachtem Cache (welcher den meisten Platz belegt) wenn sie das wollten. Da noch vier little - Kerne in ne Ecke zu setzen für stromsparende Kleinlastversorgung ist rein platztechnisch gar kein Problem.
Nur hat eine derartige Kernflut plus Riesencache nur selten einen ausreichenden Nutzen. Der Platz ist viel weniger das Problem als die sinnvolle ausnutzung desselben. Einfach 32 Kerne reinklatschen bringt kaum mehr was aber CPUs die nur 30mm^2 groß sind kriegste kaum sinnvoll verpackt/gekühlt.
 
Zuletzt bearbeitet:

dynastes

Software-Overclocker(in)
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.
Ich hoffe doch sehr, dass Warhol kommt - würde meine AM4-Plattform gern mit einem Ryzen 6000 ausreizen :D
 

PCGH_Torsten

Redaktion
Teammitglied
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.

Die Quelle spricht von einer Zen-5-APU. Bei der derzeitigen Entwicklung des Leistungsbedarfs im Einsteigersegment wäre ein 8+4-Kerner in dem Markt 2024 vollkommen angemessen. Ich glaube zwar nicht, dass AMD so schnell eine komplette zweite Architektur aus dem Nichts erschafft und in ein heterogenes Konzept einfügt, zumal der offizielle Standpunkt noch vor einem Jahr lautete "ist uninteressant, solange keine optimierte Software existiert, die auch mit inhomogenen Befehlssätzen klarkommt". Aber Zen 4 und Zen 5 sollten auch weitere Leistungssteigerungen bei den großen Kernen bringen, sodass eine derartige 8+4-APU locker die vierfache Leistung der bis vor gut einem Jahr (und im Retail-Desktop bis heute ausschließlich) angebotenen Zen+-Quadcores hätte. Mit Faktor vier gegenüber 2019 kann man auch 2025 noch einen Blumentopf gewinnen und umgekehrt gilt es bei einer APU auch immer, genug Ressourcen für die Grafikberechnung bereit zu stellen, ohne Preis- und Powerlimits zu sprengen.

Bezüglich Warhol besagt die Quelle übrigens "... Due to cancellation of Warhol, Zen 3 XT/Refresh will be Ryzen 6000 series, ...". Aber insgesamt ist mir nicht klar, wo die versammelten Aussagen herkommen/wie zuverlässig sie sind. Der Umfang (Architekturen, Konfigurationen, Codenamen, Daten und noch eine Roadmap-Änderung in einem gänzlich anderen Zeitraum) ist für "einen Leaks" enorm und macht misstrauisch. Entweder hat hier jemand viele Informationen, die bislang sehr oft übersehen wurden, zusammengefasst, oder aber es wurde dazugedichtet/mit der eigenen Meinung erweitert.
 

Mazrim_Taim

BIOS-Overclocker(in)
Mal davon ab, dass Software mit den Kernen auch was anfangen können muss.
Genau deswegen wüste ich nicht wie das irgendwie sinnvoll am PC vonstatten gehen soll.
Wenn ich YT / Office und Co mache könnten eigendlich alle Kerne extrem runtertakten aber wenn ich Leistung brauche bringen mir keine "Sempron/ Atom" Kerne @100% was.
Von daher vermute ich wird AMD / Intel den Big-Littel Ansatz für min. 2-3 Generationen als zusätzliche
CPU (APU?) Reihe fahren.

ABER ich lasse mich gerne eines besseren belehren.
Unter dem Strich muss das nur spürbar schneller sein als jezt.
 

BxBender

BIOS-Overclocker(in)
Man kann ja gerne einen Versuch im Mobilbereich starten, wo es um jede Minute Akkulaufzeit geht, aber im Desktop will ich Leistung und da habe ich keinen Platz für Pipifaxprozessoren, die nehmen mir nur Platz weg, mehr nicht.
Es spielt einfach absolut keine Rolle, ob ein System im Office 75 oder 80 Watt Gesamtleistung bei einfachen Tätigkeiten verbraucht.
Der sonstige Verbrauch aller anderen Komponenten bestimmt das maßgeblich.
Wer da also die letzten 5 Watt sparen muss, der muss sich erst einmal Gedanken über alle Komponenten im und am PC machen, was überhaupt sinnvoll ist.
Somit könnte alleine bereits das falsche Mainboard die eingesparten Watt schon wieder durch den Mehrverbrauch vollständig auffressen - daher totaler Quatsch mit Soße und reines Marketinggewäsch als neue Verkaufsmasche, um wirkungslosen Kräuterlikör als teures Heilmittel zu verkaufen.
Vernünftige Stromsparmechanismen in Software und Hardware sind völlig ausreichend, wenn z.B. ganze Prozessorbereiche bei Niedriglast komplett abgeschaltet werden können udn die verbliebenen Bereiche bei niedrigem Takt und Spannung relativ effizient für die Arbeit ausreichend schnell arbeiten.
Ich nehme jedenfalls lieber 2 normale Kerne als 4 Kleine, die nach oben hin mehr Leistung bieten und von Anwendungen und Spiele auf jeden Fall ordnungsgemäß angesprochen und vollwertig genutzt werden können.
Es gibt ja auch nichts schlimmeres, wenn später wieder große Diskussionsrunden stattfinden müssen, nur weil die Software und Hardware mal wieder nicht mit dem ganzen Hock-Hack klar kommt.
Also wer das "Smartphone"prinzip toll findet, soll später aber nicht meckern, weil irgendein Spiel oder so dummerweise mit der Hauptlast auf den Winzigkernen rumnudelt und das ganze System demnach schneckenlahm vor sich hinruckelt.
Dazu gab es in den letzten 15 Jahren genug explosiven Stoff in den Foren, bezüglich CCD Nutzung bei den (über)großen Ryzen, oder HT/SMT im Allgemeinen.
Ich glaube nämlich nicht, dass das alles sofort und auf Anhieb alles wunderbar und mit Regenbogenfarben super laufen wird.
Im schlimmsten Fall wird Microsoft langfristig an der Threadverteilung arbeiten und optimieren müssen, und dann natürlich auch bestimmte Windows 10 Versionen vorraussetzen (hallo an die Verweigerer).
Das gilt auch für Linux etc..
Und es kann natürlich auch alle Software und Sielehersteller treffen, falsl man merkt, dass man spezielle Patches in den Code erst noch einbauen muss, weil das nur alleine mit dem Betriebssystem auch nicht vollständig gut funktioniert.
Dafür gibt es ja mehr als genug aktuelle Beispiele, wo Firmwareupdate, Treiberpatches, Spielepatches etc. notwendig sind, damit bestimmte Features udn Funktionen überhaupt aktiviert werden können.
 

Stefan51278

Kabelverknoter(in)
Ich frag mich ja was das BigLittle im Desktop bringen soll.
Auch im Desktopbereich wäre eine Stromeinsparung kein Schaden, man muss ja einfach auch sehen, dass diese Chips nicht primär fürs Zocken gedacht sind. Wenn man Backgroundtasks mit niedriger Priorität in kleinere, aber hocheffiziente Kerne auslagern kann wird im Zweifel auch der Bedarf an großen Kernen nicht so schnell steigen. Zeigen viele Smartphones, Tablets und Apples neue Mac-Chips. Ist doch eine schöne Sache, wenn man auf einer kleinen CPU nicht direkt die Frames droppen sieht, nur weil irgendeiner der hundert Game-Launcher gerade im Hintergrund irgendein riesiges Update entpackt.
 

humanaccount

PC-Selbstbauer(in)
Wenn ichs richtig im Kopf habe waren in den letzten Jahren 80% der neu verkauften Computer: Notebooks und Laptops.

Genau diesen Markt will man damit bedienen. Fehlende Leistung ist dort inzwischen kein Problem mehr, da sie statistisch größtenteils in der Regel eh nur zum Emailschauen und Internetsurfen verwendet werden.
 

cx19

Komplett-PC-Aufrüster(in)
Es spielt einfach absolut keine Rolle, ob ein System im Office 75 oder 80 Watt Gesamtleistung bei einfachen Tätigkeiten verbraucht.
Der sonstige Verbrauch aller anderen Komponenten bestimmt das maßgeblich.
Wer da also die letzten 5 Watt sparen muss, der muss sich erst einmal Gedanken über alle Komponenten im und am PC machen, was überhaupt sinnvoll ist.
Bei einem PC ist das so. Schaue aber mal auf die Masse aller PCs und das vorhandene Einsparpotential!
 

buggs001

Software-Overclocker(in)
Wenn ichs richtig im Kopf habe waren in den letzten Jahren 80% der neu verkauften Computer: Notebooks und Laptops.

Genau diesen Markt will man damit bedienen. Fehlende Leistung ist dort inzwischen kein Problem mehr, da sie statistisch größtenteils in der Regel eh nur zum Emailschauen und Internetsurfen verwendet werden.

Sehe ich auch so.
Dazu noch eine nette Grafikeinheit und fertig ist die APU.
 
T

-THOR-

Guest
Auch im Desktopbereich wäre eine Stromeinsparung kein Schaden, man muss ja einfach auch sehen, dass diese Chips nicht primär fürs Zocken gedacht sind. Wenn man Backgroundtasks mit niedriger Priorität in kleinere, aber hocheffiziente Kerne auslagern kann wird im Zweifel auch der Bedarf an großen Kernen nicht so schnell steigen. Zeigen viele Smartphones, Tablets und Apples neue Mac-Chips. Ist doch eine schöne Sache, wenn man auf einer kleinen CPU nicht direkt die Frames droppen sieht, nur weil irgendeiner der hundert Game-Launcher gerade im Hintergrund irgendein riesiges Update entpackt.

Jap sehe ich auch so.

Was mich eben etwas stört ist, dass dieser Switch auf das Big Little Prinzip auf allen Kanälen irgendwie als das nächste große Ding angepriesen wird.

Aber im Endeffekt braucht uns das als Gamer oder auch jeden anderen der Leistung braucht überhaupt nicht interessieren.

Klar hört es sich erstmal interessant an, aber genauso gut könnten Intel/AMD Verkünden, dass die neuen CPUs künftig im Office Betrieb 50% sparsamer sind.
Würde man es so formulieren würde die News hier wahrscheinlich fast keiner anklicken.

Ich finde die Berichterstattung weckt irgendwie erwartungshaltungen, wo gar keine sein sollten.
Oder gehts echt nur mir so? Kann ja auch sein.. :)
 

Casurin

BIOS-Overclocker(in)
Ich finds immer wieder lustig das einige Leute glauben das kleine Kerne am Desktop nix bringen - und dann die selben Leute von Streamen und Rendern während dem Spielen schwafeln.

Genau für solche aufgaben sind die "kleinen" Kerne super. Beim Rendern sind die kleinen leicht mal 100% Effizienter. Die meisten Spiele (und vor allem die meist-gespielten) können noch keine 8 threads voll auslasten, da ist es Sinnvoll die Hauptlast auf den schnellen Kernen laufen zu lassen und der Rest, Hintergrund-tasks und OS auf den Kleinen.
Wer viel Rendern will für den wäre ein 2+16 dann sinnvoll bei weniger Verbrauch als ein 8+0.

Und naja - würde mich leider nicht wundern wenn intel das dann als 18 kerner vermarktet (stimmt aja auch, aber 2+16 zeigt deutlicher das es hier unterscheide gibt).



Problem gibt es derzeit noch bei den Shedulern und das so gut wie überall von einheitlicher Architektur ausgegangen wird - und deshalb die großen Kerne dann nur die selben Instruktionen verwenden dürfen wie die Kleinen. Da gibt es auch noch keinen wirklichen Compiler-Support für gemischte Architekturen, aber mit der Verfügbarkeit von entsprechender Hardware wird sich auch das ändern.
 
T

-THOR-

Guest
Die Fläche für die kleinen Cores kannste aber auch einfach für weitere große Cores nutzen, die dann das Video Encoding genauso gut erledigen, ohne die anderen Cores auszubremsen...

Im Grunde kann man dein Argument auf jeden Multicore Prozessor anwenden. Mehr Cores, die nicht aktiv gebraucht werden = mehr ressourcen für parallele Tasks wie Videoencoding oder sonstiges. Daran ändert das Big Little Prinzip rein gar nichts.


Ich bleib dabei. Effizienzsteigerung bei Teillast. Thats it.
 

simosh

Freizeitschrauber(in)
Ich würde für die kommenden Big-Little Geschichten auch außerhalb von stark-schwach denken, Mal was anderes, zB Billig-teuer. Big im Sinne von größerer/älterer/günstiger Fertigung. Siehe Ryzen mit dem I/O. Da gibt's dann zB irgendwann i3 / R3 Einsteiger mit 6 Kernen, 2 Little und 4 spottbillige aus dem "uralten" 7nm Verfahren, die sich bis dahin super rechnen in der Herstellung. Und die 2 Kerne die Leistung bringen aus dem aktuellen, marketingträchtigen Verfahren.
Ich würde mir aber zB auch einen "Pentium Resurrection 14h Gen" SingleCore kaufen, wenn der in The Witcher V 300 FPS schiebt, deshalb Mal sehen was die ganzen neuen Ideen dann tatsächlich leisten für mein Hobby :D
 

Casurin

BIOS-Overclocker(in)
Die Fläche für die kleinen Cores kannste aber auch einfach für weitere große Cores nutzen, die dann das Video Encoding genauso gut erledigen, ohne die anderen Cores auszubremsen...
Lies nochmal - Nein.
Die kleinen Kerne bringen für die selbe Fläche/Stromverbrauch deutlich mehr Leistung für Rendering und co einfach weil so simple Anwendungen davon sehr profitieren.
Daran ändert das Big Little Prinzip rein gar nichts.

Ich bleib dabei. Effizienzsteigerung bei Teillast. Thats it.
Nope, da kannst du dir einreden was du willst.
 

Mazrim_Taim

BIOS-Overclocker(in)
Wenn ichs richtig im Kopf habe waren in den letzten Jahren 80% der neu verkauften Computer: Notebooks und Laptops.

Genau diesen Markt will man damit bedienen. Fehlende Leistung ist dort inzwischen kein Problem mehr, da sie statistisch größtenteils in der Regel eh nur zum Emailschauen und Internetsurfen verwendet werden.
äh was ist den der Unterschied zwischen einem Notebooks und Laptops? :ka:
Ich kenne noch (die mittlerweile wieder ausgestorben) Netbooks aber...
 

BigBoymann

Software-Overclocker(in)
Nein eben nicht. Je kleiner um so schwieriger das ganze zu kühlen. Und das wird auch der Grund sein wieso die Kerne nicht steigen.
???
Grds. hast du natürlich Recht, je kleiner umso schwerer zu kühlen. Aber 64Kerne zu je 3Ghz sind besser zu kühlen als 8 Kerne mit 5Ghz. Die Schlussfolgerung ist in meinen Augen die falsche, mehr Kerne bei gleicher Verlustleistung wie weniger Kerne sind auf Grund der größeren Gesamtfläche besser zu kühlen.

Das wird einzig ein Preisargument sein und wenn sie wirklich als G kommen, dann sind das nur die Einstiegsvarianten, schau Mal was es heute so als G gibt, einen 3400G, das ist glaube ich aktuell das höchste der Gefühle. Darüber kommen dann noch R5, R7 und R9
 

AyC

PC-Selbstbauer(in)
Die AMD-Jungs gehen wahrscheinlich einfach von maximal 8 Kernen bei Intel bis 2024 aus. Entsprechend braucht man also nur 4 kleine Kerne mehr zu den normalen 8 "Intel-Kernen" und schon bleibt man vorne.

Wahrscheinlicher ist wohl einfach ein besser skalierender Prozessor für unterschiedliche Aufgaben. Warum einen ineffizienten Kern im Notebook beim Webbrowsen, Schreiben und Video schauen benutzen? Auch gibt es eventuell Synergieeffekte. Mal schauen was die Jungs sich einfallen lassen.
 

BigBoymann

Software-Overclocker(in)
Was redest du da bitte... es geht hier um consumer CPUs also hauptsächlich fürs gaming. Daher gibt dein Umkehrschluss absolutt kein Sinn. 8 kerne 5Ghz. Punkt. Da wird nich mehr gehn, wenn sie dann den Clock arg runter stufen müssen sagen wir 16 Kerne ghz hat man davon nichts.
Dann mache Mal bitte sinnvolle Aussagen. Deine obige Aussage ist so wie sie da steht schlicht falsch. 64 Kerne mit 3Ghz haben heute den gleichen Verbrauch wie 8 mit 5Ghz und sind deutlich kühler, gerade im HotSpot Bereich zu halten, weil eben mehr Fläche da ist.

Ob 8 Kerne noch Sinn machen in mehr als 2 Jahren wage ich Mal zu bezweifeln, bereits jetzt skalieren eine Menge Anwendungen und selbst viele Spiele mit mehr als 8 Kernen. In zwei Jahren wird das wohl noch weiter ausgebaut sein. 64 werden es in Games aber sicher auch nicht sein. Nur um Missverständnissen vorzubeugen.
 

AyC

PC-Selbstbauer(in)
Was redest du da bitte... es geht hier um consumer CPUs also hauptsächlich fürs gaming. Daher gibt dein Umkehrschluss absolutt kein Sinn. 8 kerne 5Ghz. Punkt. Da wird nich mehr gehn, wenn sie dann den Clock arg runter stufen müssen sagen wir 16 Kerne ghz hat man davon nichts.

16 Kerne funktionieren doch jetzt bei AMD schon mit 5GHZ Boosttakt und auch alle Kerne erreichen hohe Werte. Natürlich kann man auch mit 3nm auf noch mehr Kerne gehen. Am Ende müssen nur die Programme auch entsprechend angepasst werden. Bei diversen Anwendungen klappt es doch auch alle Kerne zu nutzen...
 

wurstkuchen

Software-Overclocker(in)
16 Kerne funktionieren doch jetzt bei AMD schon mit 5GHZ
Frag mich ob du auf das entscheidende Wort in dem Satz kommst und dann mit dem Thema vergleichst worum es hier geht. Ich markier es mal für dich. Ferner gehn bei AMD 8 Kerne gleichzeitig nur was, 3,9-4.2ghz oder so. So jetzt reduzier die Größe um 50% und dann noch mal um 50% ..... ... na klickts???
Dann mache Mal bitte sinnvolle Aussagen.
ne tut mir leid, wurd alles zu gesagt.
 
Zuletzt bearbeitet:

Don-71

PCGHX-HWbot-Member (m/w)
Frag mich ob du auf das entscheidende Wort in dem Satz kommst und dann mit dem Thema vergleichst worum es hier geht. Ich markier es mal für dich. Ferner gehn bei AMD 8 Kerne gleichzeitig nur was, 3,9-4.2ghz oder so. So jetzt reduzier die Größe um 50% und dann noch mal um 50% ..... ... na klickts???
Leider bist du völlig uninformiert!
Der 5800X (8 Kerner) geht mittlerweile locker 4.7 GHZ all core, selbst ab Werk takten die 4.4 GHZ.
 

FoxX11

Komplett-PC-Aufrüster(in)
Intel will in Zukunft auch mit Chiplets arbeiten, und AMD guckt diese Idee bei Intel ab.
Ich denke im Desktop bringts wenig, meiner meinung - bei Laptops sicher eine gute sache :)
 

BigBoymann

Software-Overclocker(in)
Frag mich ob du auf das entscheidende Wort in dem Satz kommst und dann mit dem Thema vergleichst worum es hier geht. Ich markier es mal für dich. Ferner gehn bei AMD 8 Kerne gleichzeitig nur was, 3,9-4.2ghz oder so. So jetzt reduzier die Größe um 50% und dann noch mal um 50% ..... ... na klickts???

ne tut mir leid, wurd alles zu gesagt.
Also erstens, wo geht AMD denn nur 3,9-4,2Ghz? Meiner läuft mit 4,85Ghz All Core bei einer Leistungsaufnahme Ingame von deutlich unter 100W (aktuell spiele ich Rise of Tomb Raider; nicht sonderlich anspruchsvoll, aber dort habe ich immer knappe 70-71W Leistungsaufnahme und Temperaturen von 60°). Also mit 8 Kernen und 4,2Ghz war das mal vieleicht zu Zen 1 Zeiten so, aber selbst Zen 2 kann schon deutlich mehr und Zen 3 ist dahingehend ein großer Schritt. Folgt man deiner, leider lächerlichen Theorie, müsste Zen 3 gar weniger Takt mitmachen, da 8 Kerne im CCX sind und der Platz somit noch eingeschränkter als bei den Vorgängern ist.

Wenn ich jetzt die Größe reduziere, was ein Shrink so an sich hat, dann passiert aber meist auch noch was anderes, was du hier völlig vergisst. Es reduziert sich ja auch die Leistungsaufnahme. Lass es mal geplante 30% sein, dann hat der 3nm Chip auch nur noch 49% der Leistungsaufnahme heutiger 7nm Modelle.

Deinen letzten Satz kannst du dir dann auch bitte sparen, als wenn du hier über allen stehen würdest und die Weisheit mit Löffeln usw. Im Ernst, deine Aussagen machen überhaupt keinen Sinn, egal welchen Kontext ich versuche. Sie strotzen vor Fehlern (8 Kerne nur 4,2Ghz) und sind einfach überhaupt nicht mehr aktuell. Als wenn du 2017 in der Hardware stecken geblieben wärst. Ein 12 Kerner macht bereits heute deutliche Unterschiede in einigen Games, diese Anzahl wird sich in den kommenden Jahren vervielfachen. Damit werden wir in 2-3 Jahren in den Benchmarks einen riesigen Anteil an Games haben, die mehr als 8 Kerne auch effektiv nutzen und ein 16 Kerner wird deutlich vor einem 8 Kerner liegen, auch in Gamingbenchmarks.
 

Pu244

Lötkolbengott/-göttin
Big-Little hatte ARM schon JAHRE vor Intel;)

Psst, nicht so laut, du könntest damit die "Glorious PC Gaming Masterrace" kränken. Nicht auszudenken, wenn die erfahren, dass es Dinge wie 64Bit, Out of Order, Mehrkern CPUs usw. schon lange vorher bei andren Architekturen gab. Da könnte das Ego wie ein Soufflé, bei dem man den Backofen zu früh geöffnet hat, in sich zusammenfallen.
 

gruffi

Komplett-PC-Aufrüster(in)
Ich frag mich ja was das BigLittle im Desktop bringen soll.
Wer auf gute Alltags-Performance (Surfen, Office, Gaming, ...) aus ist, nichts. ;) Wer spezielle Aufgaben hat, mit vielen parallel laufenden Threads, da kommt es halt auf die Anzahl der Kerne an. LITTLE Kerne kann man aber auch wieder kontern mit breiteren Pipelines (z.B. AVX512) oder SMT. Was noch bessere Effizienz ermöglicht. Der Sinn von big.LITTLE ist für Desktops daher mehr als fragwürdig. Für Intel ist es halt nicht so schwierig umzusetzen gewesen, da sie eh über einen kleinen und grossen Kern verfügen, und jedes bisschen mehr Effizienz hilft, so wie sie da im Moment unterlegen sind. Für zukünftige Designs wünsche ich mir aber was besseres.


Intel will in Zukunft auch mit Chiplets arbeiten, und AMD guckt diese Idee bei Intel ab.
Du meinst Intel guckt sich das bei AMD ab. Schliesslich hat AMD bereits Chiplet Designs auf dem Markt. ;)
 

Rollora

Kokü-Junkie (m/w)
Big-Little hatte ARM schon JAHRE vor Intel;)
Hat das jemand bestritten?
Wer auf gute Alltags-Performance (Surfen, Office, Gaming, ...) aus ist, nichts. ;) Wer spezielle Aufgaben hat, mit vielen parallel laufenden Threads, da kommt es halt auf die Anzahl der Kerne an. LITTLE Kerne kann man aber auch wieder kontern mit breiteren Pipelines (z.B. AVX512) oder SMT. Was noch bessere Effizienz ermöglicht. Der Sinn von big.LITTLE ist für Desktops daher mehr als fragwürdig. Für Intel ist es halt nicht so schwierig umzusetzen gewesen, da sie eh über einen kleinen und grossen Kern verfügen, und jedes bisschen mehr Effizienz hilft, so wie sie da im Moment unterlegen sind. Für zukünftige Designs wünsche ich mir aber was besseres.
Big Little ist im Desktop nicht wirklich nötig bzw. war es nie:
In den letzten 20 Jahren hat sich der Stromverbrauch pro Transistor ja mit jedem Full Node Sprung halbiert. Blöd nur, dass Intel vor 5 Jahren ins Straucheln geriet, der Strombedarf außer Kontrolle ist wenn man viel Leistung abfragt.
Die Idle und Niedriglast (Verlust-) Leistung ist eh in Ordnung. Ein paar Watt mehr "verbrauch" sind hier eigentlich im Desktop egal. Vermutlich gehts auch um Chipfläche und Marketing ("16 Kerner" bei einem 8+8 Design).
Im Laptop wo jedes Watt zählt - kann es sinnvoll sein.
 
Zuletzt bearbeitet:

4thVariety

Software-Overclocker(in)
Das ist nichts weiter als Öko-Selbstdarstellung. Seht her, ich verbrauche weniger Strom, wenn mein Laptop weniger macht.

Was soll ein Gamer dazu sagen? Seht her, ich hab beim Zocken 4 Kerne die hätte ich mir auch sparen können? So eine Art Intel HD Graphics 2.0?

Am Ende vom Tag dient das nur dazu dass Ryzen 3 und Ryzen 5 CPUs mit dem Schrott verwässert werden und sich AMD die "Gaming" Variante der CPUs mit nur schnellen Cores mit Aufpreisen bezahlen lässt die in keiner Relation stehen.

Im Taskmanager kann man ja jetzt schon sehen, dass die Ryzen CPUs sehr gut runtertakten können und bei wenig Last einzelne Kerne sogar total abschalten. Die Ersparnis indem man einen Krüppelcore die ganze Zeit laufen lässt und den Rest erst einschaltet wenn der überfordert ist, wird sich arg in Grenzen halten. Das sollte sich auch ganz gut testen lassen.
 
Oben Unten