AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß

AMD soll Intel das Feld bei der Entwicklung von Prozessoren im Big-Little-Prinzip nicht alleine überlassen. Die Einführung ist laut jüngsten Gerüchten aber rund zwei Jahre nach Alder Lake geplant; 2024 mit Zen 5. Das ist einerseits genug Zeit, um sich den Erfolg (oder eben nicht) bei Intel anzuschauen; andererseits viel Zeit, sollte Intel damit punkten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß
 
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.
 
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.
Die Zahl des Fertigungsprozesses sagt schon lange nichts mehr über die tatsächliche Größe aus. Das 3nm Die wird nicht wesentlich kleiner als das in 7nm gefertigte.
Mal davon ab, dass Software mit den Kernen auch was anfangen können muss.
 
Vielleicht will man so einen möglichen schlechten Yield beikommen. Ein teildefekter CCD bekommt 4 Kerne gestrichen und in den übrigen 4 werden ein paar Funktionseinheiten abgeschaltet, z.B. AVX o.ä leistungshungrige Teile.
 
Bezweifle den direkten Durchbruch dieser Technologie. Ist wohl eher interessant für stromsparende Laptops, Tablets mit "billigen" Prozessoren.
Auf lange Sicht wird es sicher Bedarf geben an z.B. 8/16 schnellen und 8/16 langsamen Kernen. Aber wenn man sich anschaut wie sparsam schon jetzt Prozessoren arbeiten wenn die runter takten, glaube ich nicht das es so wahnsinnig viel bringen wird. Bis das eine ausgereifte Technologie mit wirklichem Nutzen wird, vergehen noch viele Jahre.
 
Ich frag mich ja was das BigLittle im Desktop bringen soll.

Im Endeffekt hat man eben nur zusätzliche kleine Kerne, die zusätzliche Threads bereitstellen können, wenn die Großen Kerne + SMT nicht nicht mehr reichen.

Aber da brauchste ja auch erstmal ne Anwendung die das nutzt.

Zumal eine Lösung mit z.B. 12C/24T wahrscheinlich immer schneller ist als 8C/16T+4c

Die kleinen Cores sind aus meiner Sicht fürs stromsparen interessant, wenn nur eine Teillast anliegt. Hier steigert man dann die Effizienz was grundsätzlich gut ist.

Aber eine Effizienzsteigerung bei Vollast kann ich da nicht erkennen…
 
Das 3nm Die wird nicht wesentlich kleiner als das in 7nm gefertigte.
Ääähhh nein.
N5 hat eine 45% geringere Fläche als N7 und N3 wiederum eine 42% geringere Fläche als N5.

Oder anders gesagt ein 80 mm^2 großes Chiplet in 7nm wäre in 3nm nur noch etwa 26 mm^2 groß.

AMD könnte in 3nm auf die gleiche Fläche problemlos 16-24 statt 8 Kerne bauen einschliesslich verdoppeltem/verdreifachtem Cache (welcher den meisten Platz belegt) wenn sie das wollten. Da noch vier little - Kerne in ne Ecke zu setzen für stromsparende Kleinlastversorgung ist rein platztechnisch gar kein Problem.
Nur hat eine derartige Kernflut plus Riesencache nur selten einen ausreichenden Nutzen. Der Platz ist viel weniger das Problem als die sinnvolle ausnutzung desselben. Einfach 32 Kerne reinklatschen bringt kaum mehr was aber CPUs die nur 30mm^2 groß sind kriegste kaum sinnvoll verpackt/gekühlt.
 
Zuletzt bearbeitet:
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.
Ich hoffe doch sehr, dass Warhol kommt - würde meine AM4-Plattform gern mit einem Ryzen 6000 ausreizen :D
 
Mh, ich kann nicht ganz glauben, warum AMD mit 3nm nur 8 große und 4 kleine Kerne anbieten soll. Mit 3nm ist massig Platz für bestimmt 16 große und 8 kleine Kerne oder sogar mehr.
Bin jedenfalls erstmal auf das Duell Warhol (wenn er denn kommen mag, Gerüchte sprechen schon von dem Canceln der Zen3+ CPU zugunsten Zen4) vs. Alder Lake.

Die Quelle spricht von einer Zen-5-APU. Bei der derzeitigen Entwicklung des Leistungsbedarfs im Einsteigersegment wäre ein 8+4-Kerner in dem Markt 2024 vollkommen angemessen. Ich glaube zwar nicht, dass AMD so schnell eine komplette zweite Architektur aus dem Nichts erschafft und in ein heterogenes Konzept einfügt, zumal der offizielle Standpunkt noch vor einem Jahr lautete "ist uninteressant, solange keine optimierte Software existiert, die auch mit inhomogenen Befehlssätzen klarkommt". Aber Zen 4 und Zen 5 sollten auch weitere Leistungssteigerungen bei den großen Kernen bringen, sodass eine derartige 8+4-APU locker die vierfache Leistung der bis vor gut einem Jahr (und im Retail-Desktop bis heute ausschließlich) angebotenen Zen+-Quadcores hätte. Mit Faktor vier gegenüber 2019 kann man auch 2025 noch einen Blumentopf gewinnen und umgekehrt gilt es bei einer APU auch immer, genug Ressourcen für die Grafikberechnung bereit zu stellen, ohne Preis- und Powerlimits zu sprengen.

Bezüglich Warhol besagt die Quelle übrigens "... Due to cancellation of Warhol, Zen 3 XT/Refresh will be Ryzen 6000 series, ...". Aber insgesamt ist mir nicht klar, wo die versammelten Aussagen herkommen/wie zuverlässig sie sind. Der Umfang (Architekturen, Konfigurationen, Codenamen, Daten und noch eine Roadmap-Änderung in einem gänzlich anderen Zeitraum) ist für "einen Leaks" enorm und macht misstrauisch. Entweder hat hier jemand viele Informationen, die bislang sehr oft übersehen wurden, zusammengefasst, oder aber es wurde dazugedichtet/mit der eigenen Meinung erweitert.
 
Mal davon ab, dass Software mit den Kernen auch was anfangen können muss.
Genau deswegen wüste ich nicht wie das irgendwie sinnvoll am PC vonstatten gehen soll.
Wenn ich YT / Office und Co mache könnten eigendlich alle Kerne extrem runtertakten aber wenn ich Leistung brauche bringen mir keine "Sempron/ Atom" Kerne @100% was.
Von daher vermute ich wird AMD / Intel den Big-Littel Ansatz für min. 2-3 Generationen als zusätzliche
CPU (APU?) Reihe fahren.

ABER ich lasse mich gerne eines besseren belehren.
Unter dem Strich muss das nur spürbar schneller sein als jezt.
 
Man kann ja gerne einen Versuch im Mobilbereich starten, wo es um jede Minute Akkulaufzeit geht, aber im Desktop will ich Leistung und da habe ich keinen Platz für Pipifaxprozessoren, die nehmen mir nur Platz weg, mehr nicht.
Es spielt einfach absolut keine Rolle, ob ein System im Office 75 oder 80 Watt Gesamtleistung bei einfachen Tätigkeiten verbraucht.
Der sonstige Verbrauch aller anderen Komponenten bestimmt das maßgeblich.
Wer da also die letzten 5 Watt sparen muss, der muss sich erst einmal Gedanken über alle Komponenten im und am PC machen, was überhaupt sinnvoll ist.
Somit könnte alleine bereits das falsche Mainboard die eingesparten Watt schon wieder durch den Mehrverbrauch vollständig auffressen - daher totaler Quatsch mit Soße und reines Marketinggewäsch als neue Verkaufsmasche, um wirkungslosen Kräuterlikör als teures Heilmittel zu verkaufen.
Vernünftige Stromsparmechanismen in Software und Hardware sind völlig ausreichend, wenn z.B. ganze Prozessorbereiche bei Niedriglast komplett abgeschaltet werden können udn die verbliebenen Bereiche bei niedrigem Takt und Spannung relativ effizient für die Arbeit ausreichend schnell arbeiten.
Ich nehme jedenfalls lieber 2 normale Kerne als 4 Kleine, die nach oben hin mehr Leistung bieten und von Anwendungen und Spiele auf jeden Fall ordnungsgemäß angesprochen und vollwertig genutzt werden können.
Es gibt ja auch nichts schlimmeres, wenn später wieder große Diskussionsrunden stattfinden müssen, nur weil die Software und Hardware mal wieder nicht mit dem ganzen Hock-Hack klar kommt.
Also wer das "Smartphone"prinzip toll findet, soll später aber nicht meckern, weil irgendein Spiel oder so dummerweise mit der Hauptlast auf den Winzigkernen rumnudelt und das ganze System demnach schneckenlahm vor sich hinruckelt.
Dazu gab es in den letzten 15 Jahren genug explosiven Stoff in den Foren, bezüglich CCD Nutzung bei den (über)großen Ryzen, oder HT/SMT im Allgemeinen.
Ich glaube nämlich nicht, dass das alles sofort und auf Anhieb alles wunderbar und mit Regenbogenfarben super laufen wird.
Im schlimmsten Fall wird Microsoft langfristig an der Threadverteilung arbeiten und optimieren müssen, und dann natürlich auch bestimmte Windows 10 Versionen vorraussetzen (hallo an die Verweigerer).
Das gilt auch für Linux etc..
Und es kann natürlich auch alle Software und Sielehersteller treffen, falsl man merkt, dass man spezielle Patches in den Code erst noch einbauen muss, weil das nur alleine mit dem Betriebssystem auch nicht vollständig gut funktioniert.
Dafür gibt es ja mehr als genug aktuelle Beispiele, wo Firmwareupdate, Treiberpatches, Spielepatches etc. notwendig sind, damit bestimmte Features udn Funktionen überhaupt aktiviert werden können.
 
Ich frag mich ja was das BigLittle im Desktop bringen soll.
Auch im Desktopbereich wäre eine Stromeinsparung kein Schaden, man muss ja einfach auch sehen, dass diese Chips nicht primär fürs Zocken gedacht sind. Wenn man Backgroundtasks mit niedriger Priorität in kleinere, aber hocheffiziente Kerne auslagern kann wird im Zweifel auch der Bedarf an großen Kernen nicht so schnell steigen. Zeigen viele Smartphones, Tablets und Apples neue Mac-Chips. Ist doch eine schöne Sache, wenn man auf einer kleinen CPU nicht direkt die Frames droppen sieht, nur weil irgendeiner der hundert Game-Launcher gerade im Hintergrund irgendein riesiges Update entpackt.
 
Wenn ichs richtig im Kopf habe waren in den letzten Jahren 80% der neu verkauften Computer: Notebooks und Laptops.

Genau diesen Markt will man damit bedienen. Fehlende Leistung ist dort inzwischen kein Problem mehr, da sie statistisch größtenteils in der Regel eh nur zum Emailschauen und Internetsurfen verwendet werden.
 
Es spielt einfach absolut keine Rolle, ob ein System im Office 75 oder 80 Watt Gesamtleistung bei einfachen Tätigkeiten verbraucht.
Der sonstige Verbrauch aller anderen Komponenten bestimmt das maßgeblich.
Wer da also die letzten 5 Watt sparen muss, der muss sich erst einmal Gedanken über alle Komponenten im und am PC machen, was überhaupt sinnvoll ist.
Bei einem PC ist das so. Schaue aber mal auf die Masse aller PCs und das vorhandene Einsparpotential!
 
Wenn ichs richtig im Kopf habe waren in den letzten Jahren 80% der neu verkauften Computer: Notebooks und Laptops.

Genau diesen Markt will man damit bedienen. Fehlende Leistung ist dort inzwischen kein Problem mehr, da sie statistisch größtenteils in der Regel eh nur zum Emailschauen und Internetsurfen verwendet werden.

Sehe ich auch so.
Dazu noch eine nette Grafikeinheit und fertig ist die APU.
 
Auch im Desktopbereich wäre eine Stromeinsparung kein Schaden, man muss ja einfach auch sehen, dass diese Chips nicht primär fürs Zocken gedacht sind. Wenn man Backgroundtasks mit niedriger Priorität in kleinere, aber hocheffiziente Kerne auslagern kann wird im Zweifel auch der Bedarf an großen Kernen nicht so schnell steigen. Zeigen viele Smartphones, Tablets und Apples neue Mac-Chips. Ist doch eine schöne Sache, wenn man auf einer kleinen CPU nicht direkt die Frames droppen sieht, nur weil irgendeiner der hundert Game-Launcher gerade im Hintergrund irgendein riesiges Update entpackt.

Jap sehe ich auch so.

Was mich eben etwas stört ist, dass dieser Switch auf das Big Little Prinzip auf allen Kanälen irgendwie als das nächste große Ding angepriesen wird.

Aber im Endeffekt braucht uns das als Gamer oder auch jeden anderen der Leistung braucht überhaupt nicht interessieren.

Klar hört es sich erstmal interessant an, aber genauso gut könnten Intel/AMD Verkünden, dass die neuen CPUs künftig im Office Betrieb 50% sparsamer sind.
Würde man es so formulieren würde die News hier wahrscheinlich fast keiner anklicken.

Ich finde die Berichterstattung weckt irgendwie erwartungshaltungen, wo gar keine sein sollten.
Oder gehts echt nur mir so? Kann ja auch sein.. :)
 
Ich finds immer wieder lustig das einige Leute glauben das kleine Kerne am Desktop nix bringen - und dann die selben Leute von Streamen und Rendern während dem Spielen schwafeln.

Genau für solche aufgaben sind die "kleinen" Kerne super. Beim Rendern sind die kleinen leicht mal 100% Effizienter. Die meisten Spiele (und vor allem die meist-gespielten) können noch keine 8 threads voll auslasten, da ist es Sinnvoll die Hauptlast auf den schnellen Kernen laufen zu lassen und der Rest, Hintergrund-tasks und OS auf den Kleinen.
Wer viel Rendern will für den wäre ein 2+16 dann sinnvoll bei weniger Verbrauch als ein 8+0.

Und naja - würde mich leider nicht wundern wenn intel das dann als 18 kerner vermarktet (stimmt aja auch, aber 2+16 zeigt deutlicher das es hier unterscheide gibt).



Problem gibt es derzeit noch bei den Shedulern und das so gut wie überall von einheitlicher Architektur ausgegangen wird - und deshalb die großen Kerne dann nur die selben Instruktionen verwenden dürfen wie die Kleinen. Da gibt es auch noch keinen wirklichen Compiler-Support für gemischte Architekturen, aber mit der Verfügbarkeit von entsprechender Hardware wird sich auch das ändern.
 
Zurück