Ryzen 7000: AMD bestätigt September-Release, Radeon RX 7000 noch 2022

Sapphire Rapids kommt jedoch nochmals später als gedacht, da es aktuell Schwierigkeiten bei der Validierung der CPU und Plattform gibt, statt 3. Quartal 2022 wird es nun wohl das 1./2. Quartal 2023.
Sind das wirklich nur Valdierungsprobleme oder ist bei mittlerweile 12 Steppings und immer noch kein Launch im nächsten halben Jahr, etwas wesentlich Elementareres im Argen?
Es gibt durchaus nachvollziehbare Spekulationen, das etwas mit dem Inter-Kern-Mesh sowie dessen mutmaßliche Verlegung über EMIB nicht wirklich funktioniert.
ES Samples von SRP sollen in Benchmark Suits teilweise schlechter performen als ZEN 2 Server.
 
Zuletzt bearbeitet:
-AM5 soll ähnlich lange wie AM4 unterstützt werden, heißt die erste iteration wird vermutlich keine (Offizielle) Unterstützung für die letzten bekommen.

AMD hat mich schon mit dem 370X und dem 5900X hinterlicht geführt

Du willst ne schnellere CPU? Dann kauf auch ein Neues Board!
Ok mach ich.
Verarscht- Ryzen 5000 läuft jetzt doch auf deinem slten X370 Board
wieder 340€ verschleudert...:ugly:

Das ist wohl Pech.:(

Bei meinem Asus x370 Board läuft der 5600x ohne Probleme mit dem AGESA 1.2.0.7 Bios.

Da AMD mit der AGESA version das offiziell freigegeben hat kannst du dich da nur bei deinem Mainboard Hersteller beschweren.

Also grundsätzlich muss es nicht so sein das mit der neuen Generation am ende die letzte CPU nicht läuft.
 
13900k stock 350W in aida habe ich grad mitbekommen...
Kühlbar mit einer 360er AIO.
Hinzu kommt:

"
From the source himself:

"Zen 4 is still not good for CPU performance sensitive games""
Getestet wurden 3 Games und FSU, aber leider in 1440p, aber in FH5 konnte Zen4 gerade mal zum 12900k aufschließen.

"Because the IPC boost is insufficient, it must rely on the clock boost performance. This is terrible
TDP TDP TDP" (Auch Zen4)

TJ max 115°C bei RPL

Und bzgl Kühler gibts neue standoffs.
 
Das ist wohl Pech.:(

Bei meinem Asus x370 Board läuft der 5600x ohne Probleme mit dem AGESA 1.2.0.7 Bios.

Da AMD mit der AGESA version das offiziell freigegeben hat kannst du dich da nur bei deinem Mainboard Hersteller beschweren.

Also grundsätzlich muss es nicht so sein das mit der neuen Generation am ende die letzte CPU nicht läuft.
Als ich das X570 gekauft habe hat AMD noch dementiert das es Funktionieren würde.
Sonst hätte ich mein Crosshair 6 immer noch. Dafür hatte ich es 2017 gekauft. Vorteile hab ich ja irgendwie keine...X370 zu X570 also keine die Ich für mich innerhalb der letzten 1,5 Jahre bemerkt hätte.... aso doch"1x(wow..)" M.2 Steckplatz mehr und ne leicht andere Farbe...
 
Ich finds sehr gut auch wenn mich Ryzen "7000" nicht so interessiert.
-Erstmal Kinderkrankheiten und ständige Bios Updates um diese auszumerzen
-Alles neu kaufen CPU+Kühler/RAM/Board/Netzteil(wegen ATX 3.0)/ das ist locker schon nen Tausi bei High-Midrange
-AM5 soll ähnlich lange wie AM4 unterstützt werden, heißt die erste iteration wird vermutlich keine (Offizielle) Unterstützung für die letzten bekommen.

Bei mir noch- ne schnelle M.2 als OS Platte so nach 8 Jahren mit der MX100... und ne Neue GPU
Das ist mir zu viel Geldverschwendung, langfristig gedacht.
AMD hat mich schon mit dem 370X und dem 5900X hinterlicht geführt

Du willst ne schnellere CPU? Dann kauf auch ein Neues Board!
Ok mach ich.
Verarscht- Ryzen 5000 läuft jetzt doch auf deinem slten X370 Board
wieder 340€ verschleudert...:ugly:


Oder höhere Temps. in den 90'ern! Wenn das Board es zulässt und alle Kerne bis 4800-4950 @ Stock boostet auch mit größten Luftkühlern...wie bei mir.

Aber ich denke mal das wird AMD klar sein. Und dem entsprechend gegengesteuert haben.
Nur wenn vielleicht sogar noch mit 3DCache bei Zen4 gearbeitet wird habe ich die Befürchtung das der Leistungsvorteil zu Zen3 fast negiert wird.
Aber wer weiß. was die sich da alle so ausbaldowert haben.


Naja, Prozessor Hersteller sind abhängig von guten Boards und viel Auswahl. Der Mainbaord Hersteller fertigt gerne neue Boards, da kommt ihn so eine AM4 Platform in die Quere. Das ist immer so ein Balanceakt. Hab immer viel geld für die Alten Boards + CPU erhalten, bischen draufgelegt und immer die neuste Literation gehabt.

ZEN4 muss ich mir mal anschauen wenn die Jungs/ von PCGH/ Gamers Nexus und ggf noch IgorsLab ihn unter die Lupe genommen haben.

Würde Anfang nächstes Jahres auf DDR5 umsteigen. Sonst hol ich mir nen 5950x / 5900x wieder zum Arbeiten und Spielen.
 
Laut Gerüchten kommt da nichts:

AMD wäre ja auch blöd, den Fehler von Intel nochmal zu machen.
Lol, entweder deinerseits eine erneute Demonstration des Confirmation Bias oder aber du verstehst tatsächlich nicht, was solche Firmen antreibt und mit welchem Auftrag deren Marketingabteilungen betraut sind?
Der Artikel ist vom Nov '20 und bereits Mitte 2020 pfiffen es die Spatzen von den Dächern, dass Intel's nächster, großer Wurf mit heterogenen Kernen daherkommen wird. Was hätte AMD hier sagen sollen, da man natürlicherweise von der Fachpresse diesbezüglich ausgefragt wurde? Etwa "Ja, heterogene Architekturen sind der nächste Schritt im CPU-Design, jedoch werden wir nichts innerhalb der nächsten 30 Monate zu diesem Thema beizutragen haben"? Das wäre zwar korrekt gewesen, ist aber nichts, was man in der Form und auf diese Art kommunizieren sollte zumal es einzig dem Hauptkonkurrenten Auftrieb gegeben hätte. Entsprechend hat man sich hier schlicht ausweichend geäußert (ebenso bspw. vergleichbar zum Thema Raytracing seit Mitte 2018).
Mal vollkommen abgesehen davon, dass du auch wichtige Kernaussagen schlicht ignoriertst (also wohl doch min. ein Confirmation Bias), denn hier wird explizit Joe Macri zitiert, der erklärt, dass unterschiedliche Kernarchitekturen sehr wohl Vorteile auf dem PC bringen können, sich jedoch das Hintertürchen offenhielt mit "aber erst wenn das OS und der Scheduler damit umgehen können". D. h. man kann vorerst ein Nein erklären und den Eindruck vermeiden einen kommende Entwicklung verpasst zu haben ohne später als "Lügner" dazustehen, denn im Nachhinein kann man ja immer auf diese zusätzliche, zumeist überlesene Nebenbedingung verweisen, wobei die Presse das Thema schon jetzt nicht mehr aufgegriffen hat, weil es hier zumeist kein nennenswertes Langzeitgedächnis gibt.
Darüber hinaus hast du dich aber auch gleich selbst in doppeltem Sinne an der Nase herumgeführt, denn AMD hat schon längst bestätigt, dass es kleinere und effizientere Kerne im 1HJ23 mit Zen4c geben wird, erstmals beim Cloud-Server Bergamo, denn den braucht AMD dringend, da Genoa absehbar gegen die spezialisierten ARM-Designs nicht gewinnen kann und man will schließlich weiter wachsen und nicht gleich von vorne herein einen wichtigen Markt aufgeben müssen.

Wozu BIG.little, wenn AMDs Zen-Kerne schon beides in einem sind?
[...] Wait, die sind bei AMD eh schon alle E mit P....
Sind sie eben nicht. Wie jedes Design sind die auf einen bestimmten SweetSpot hin optimiert, darüber und darunter fällt die Leistung bzw. Effizienz ab. So etwas wie die Eierlegendewollmilchsau, die in jedem Lastszenario optimal performt, gibt es auch im Halbleiterdesign nicht.
Und AMD kommt nicht umsonst mit so etwas wie Zen4c im 1HJ23 ums Eck, weil man eben nicht einen 500 W-Cloud-Server auf den Markt werfen will, der der ARM-Konkurrenz preislich und dann auch noch technisch unterlegen wäre.

Genau dafür gibt es ja heterogene Designs, eben damit man unterschiedliche SweetSpots für unterschiedliche Lastszenarien hat und diese durch eine geschickte Verteilung auf die Ausführungseinheiten optiomal zur Geltung bringen kann.
Etwas, bei dem bspw. bei Intel's Hybrid Technology übrigens noch Luft nach oben hat, da es erst der erste Wurf ist und bspw. bisher kaum optimierte Software existiert. Aktuell übernehmen die Lastverteilung die CPU und der OS-Scheduler nach dem best guess-Prinzip., d. h. wenn der Entwickler hier seine Ausführungspfade gezielt ausweist, wird die Hardware zukünftig absehbar noch etwas besser ausgenutzt werden.

[...] Davon ab ist big.LITTLE nicht gleich big.LITTLE. Wenn AMD irgendwann mal Zen6 mit Zen5 kombiniert, ist da nicht einmal im entferntesten irgendwas "LITTLE" dran. :ugly:
Nein ist es tatsächlich nicht, denn "big.LITTLE" ist ein Trademark von ARM, nicht mehr und nicht weniger. Heterogene oder asymmetrische CPU-Designs werden jedoch schon seit min. Anfang der 2000er untersucht, auch im PC- und Serverbereich. Beispielsweise gibt es hierzu ein interessantes Papier von Kumar et. al. aus 2005. Einige Passagen daraus lesen sich als kämen sie direkt aus der heutigen Intel-Marketingabteilung zu Alder Lake, d. h. die haben das Rad nicht neu erfunden sondern das ist schon extrem lange in der Industrie in der Evaluierung und brauchte nur in unterschiedlichen Marktsegmenten unterschiedliche Gegebenheiten um schließlich zur Anwendung kommen zu können. ARM bspw. griff das Thema schließlich erst Ende 2011 mit seiner ersten Implementation in Form der relativ simplen Cluster-Migration auf.

kleine Kerne waren bei Smartphones einfach ein Mittel damit man jedem Müll Handy den Aufdruck "Octa-Core" verpassen konnte. Das ging nur mit kleinen Kernen, weil der Platz einfach begrenzt war.
Nein, genaugenommen war es eigentlich umgekehrt. Der Mobilbereich musste per se stromsparend sein und war damit klar leistungsbeschränkt. Der Markt giert jedoch über die Jahre nach immer mehr Leistung (auch für neue Anwendungszwecke) zumal es auch vertriebstechnisch schwer ist, den nächten Upgrade-Zyklus zu rechtfertigen, wenn es keine technischen Innovationen gibt. *)
Da wir, wie jeder weiß, auch heute nicht mit 50 Ah-Smartphones rumlaufen (aus sicherheitstechnischer Sicht ist das sicherlich auch gut so :-D), bleiben die Energieressourcen beschränkt und es ist problematisch mehr Leistung zu realisieren ohne die allgemeine Betriebszeit, insbesondere unter sehr unterschiedlichen Workloads stark einzuschränken. Entsprechend verbesserte man die Energieeffizienz der üblicherweise kleineren, stromsparenden Kerne weiter und fügte performante Hochleistungskerne hinzu, die jedoch zwangsweise deutlich mehr Energie ziehen und im weiterhin vielfach auftretenden Niedrig- bis mittleren Lastlastbereich zwangsweise deutlich ineffizienter sind als die kleinen Kerne.
Nicht anderes macht Intel hier derzeit auch und AMD ab 2023 mit Zen4c und ebenso später mit dem bereits angekündigten Zen5c. Dass das Design Intel zusätzlich entgegenkommt bei der Wafer-Fläche und auch beim absoluten Stromverbrauch ist selbstredend ein Zugewinn für sie, schmälert aber in keinster Weise den grundsätzlichen technischen Mehrwert dieser Designs.

*) Zu der Zeit hätte man sich vielleicht noch mit bspw. den Verbesserungsmöglichkeiten Display und Kamera begnügen können, aber spätestens heute ist auch dieser Weiterentwicklungspunkt komplett ausgereizt, da 400 ppi und 40 MPixel auch schon längst erreicht sind. (Mal ganz abgesehen davon, dass die Verarbeitung derartiger, damit verbundener Datenmengen dennoch auch einer höheren Prozessorleistung bedarf.)

**) Das der eine oder andere bei einem konkreten Produkt auch mal (intern) eher das Marketing mit mehr Kernen vor Augen gehabt haben mag, wird sicherlich vorgekommen sein, rein aus technischer Sicht erfüllen diese Designs jedoch sehrwohl ihren Zweck und im allgemeinen Consumer-PC-Mark ist die Spanne der Lastszenarien ähnlich breit gefächert wie auf Smartphones und Tablets von 100 %-Vollast im Dauerbetrieb bis hin zum Quasi-Idle, so bspw. beim Schreiben einer Diplomarbeit oder aber dem Videoschauen, bei dem man sich gleichermaßen spezialisierter Hardware bedient, hier hochspezialisierter Videodecoderhardware, die weitaus effizienter ist, als wenn man hier die großen CPU-Kerne rechnen lassen würde.
Nichts anderes demonstrierte ja auch Alder Lake bereits relativ erfolgreich. Beispielsweise der 12900K ist im CB R23 MT schneller als ein 5950X (ohne PBO, mit PBO ist letzterer gerade mal 3 % schneller, trotz 16 "echter" Kerne ;-)) und im Gaming handelt es sich grundsätzlich um eine der derzeit besten Gaming-CPUs und die E-Cores sorgen hier zudem für sehr gute min. FPS-Werte und das obwohl derzeit noch kein Titel auf diese Hardware hin optimiert ist, d. h. es wird zukünftig absehbar gar noch etwas besser werden.


Unterm Strich wird Raptor Lake daran kranken, dass man den Fertigungssprung nicht mitmachen kann und auf einem 7nm-Fertigungsäquivalent weiterfertigen muss, da Intel 4 erst ab Ende des Jahres in die Fertigung überführt wird. Für die meisten Consumer-Workloads wird das eher eine untergeordnete Rolle spielen, dagegen im hochdichten Server wird das schon ein handfestes Problem werden, das man mit anderen technischen Features zu kompensieren versuchen wird, wobei schlussendlich jedoch auch in der kommenden Iteration für Intel die deutlich höheren Fertigungskapazitäten am Ende wohl "das Eisen aus dem Feuer holen" werden müssen, da AMD noch längst nicht einen so großen Bedarf bedienen kann, da bei TSMC alle möglichen Hersteller um die begehrten, hochmodernen Nodes konkurrieren.

Der nächste interessante Meilenstein wird im 1HJ23 AMDs Bergamo sein, wenn man mehr dazu erfährt, wie AMD mit Zen4c die Kerne schrumpfen und die Energieeffizienz steigern will (und wie viel IPC dafür geopfert wird) und dann im 2HJ23 Intel's Meteor Lake, der dann prozesstechnisch (und wahrs. auch Packaging-technisch) auf Augenhöhe oder gar mit minimalem Fertigungsvorteil gegen Zen4 (mit V-Cache) antreten wird.
Sofern nicht erneut irgendwelche Execution-Probleme zum Jahreswechseln hin bei Intel auftauchen, dürften es die mobilen Zen4-Ableger bereits im 1HJ23 relativ schwer gegen den mobilen Meteor Lake haben, was dann auch (unter Vorbehalt) das Ende des Fertigungsrückstandes (vorerst im Consumer-Segment) bei Intel einläuten wird, sodass dann tatsächlich rein Package/SoC-technische und architektonische Designentscheidungen über das bessere Produkt entscheiden werden.

Als Consumer, sonfern man keine besonderen Anforderungen hat, erscheint auf dem Desktop zum Jahreswechsel die AM5-Plattform die interessantere zu sein. Raptor Lake dürfte primär für Upgrader interessant sein oder für Anwender, die sich nun einmal eine neue Plattform kaufen und dann gedenken auf dieser Hardwarebasis die nächsten Jahre unverändert weiterzuarbeiten (abseits eines möglichen späteren GPU-Upgrades), da die kommende 700er-Plattform bei Intel nach aktuellem Stand keine Upgrademöglichkeit auf Meteor oder Arrow Lake bieten wird.
Man darf aus wirtschaftlicher Sicht zudem gespannt sein, wie Intel sich das vertriebstechnisch zurechtgelegt hat. Wird Meteor Lake-S eher schon tendenziell zur Jahresmitte '23 hin erscheinen und Raptor Lake eher ein kurzes Dasein bescheren oder wird man doch erst zur Holiday Season, quasi 2 Jahre nach Alder Lake mit dem komplett neuen Desing auf dem Desktop-Markt veröffentlichen? - Und was macht AMD, insbesondere, wenn die V-Cache-Modelle auch schon Ende 2022 erscheinen sollen? Wird man das ganze Jahr 2023 über "nichts Neues" auf dem Desktop und damit gegen Meteor Lake anbieten könne, da Zen5 erst in 2024 erscheinen soll? Fragen über Fragen ... :-)
 
Zuletzt bearbeitet:
Da will man wohl schnell noch etwas verkaufen, bevor Intel und Nvidia mit ihren neuen Architekturen alles in den Boden stampfen
ich wurde für einen weniger kritischen Kommentar verwarnt...
also wirst du wohl recht haben/haben sollen.

Its done when its done, dann können wir immer noch schauen was Ryzen 7000 auf dem Kasten hat, und ich glaube soooo schlecht sieht es für AMD nicht aus.
 
Beim Gaming ziehen die CPU's ja sowieso nicht mal im Ansatz ihre TDP's aus der Steckdose, über 100W ist schon schwer zu erreichen und alles darüber gibt es höchstens in Benchmarks oder beim Rendern etc.
Selbst wenn die GPU nie limitieren würde, was normalerweise ja der Fall ist, sind die Spiele einfach nicht darauf optimiert die CPU zu 100% auszulasten, erst recht keinen 12 Kerner wie den 7900X oder die ganzen E-Cores von Intel.
Ergo ist mir als "Gamer" der maximale Stromverbrauch meiner CPU unter Volllast relativ egal, da sowieso limitiert. Wichtiger ist was sie im Idle so verbraucht und wie Effizient sie ist.

Stock läuft mein 5900X in Games wie Hunt Showdown locker auf über 100 Watt. Glaube Spitze waren 135 Watt.
 
Was Intel betrifft, kann man wohl ohne Übertreibung sagen, dass die schon tot sind, nur zu faul, um um zu fallen.
Big Little ist ein Witz und wird mit Raptot Lake enden, denn was nützten immer mehr schwache kerne gepaart mit Ineffizienz Kernen!?
ach das ist ja der amd jünger wieder mit seiner propaganda....
1. Intel hat schon noch weitaus größere finazielle möglichkeiten als amd....
2. big little ist kein witz.... (bevor der 5800x3d kam war alder lake klar effizienter...mit tests belegt)

einfach nur armselig was du hier betreibst....
wenn du das wenigstens immer sachlich betreiben würdest aber die propaganda die du hier immer betreibst ist schon lächerlich und peinlich zu gleich
Nur weil man noch mit chiplet arbeitet, heißt das nicht, dass es kaum Änderungen an der Architektur gab, das Gegenteil ist der Fall!
sieht man bisher an den leaks ;) höherer verbrauch nicht so hohe steigerung also bitte jetzt redest du die sache wieder schön aber bei anderen dann kritisieren....
nimm doch mal die rote brille ab....
Aha, sowie von 14nm auf 10nm?



Dafür hätte ich mal gerne einen Beleg?
jop denn fakt ist das intel mit alder lake effizienter ist auch wenn du das nicht waahr haben willst....
hast doch selber einen 12900k ;)
ich wurde für einen weniger kritischen Kommentar verwarnt...
also wirst du wohl recht haben/haben sollen.

Its done when its done, dann können wir immer noch schauen was Ryzen 7000 auf dem Kasten hat, und ich glaube soooo schlecht sieht es für AMD nicht aus.
bei mir in uhd sind es meist 40 bis 70 watt mit einem 12900k bei 5,1ghz allcore
 
Zuletzt bearbeitet:
Nein, genaugenommen war es eigentlich umgekehrt. Der Mobilbereich musste per se stromsparend sein und war damit klar leistungsbeschränkt. Der Markt giert jedoch über die Jahre nach immer mehr Leistung (auch für neue Anwendungszwecke) zumal es auch vertriebstechnisch schwer ist, den nächten Upgrade-Zyklus zu rechtfertigen, wenn es keine technischen Innovationen gibt. *)
Da wir, wie jeder weiß, auch heute nicht mit 50 Ah-Smartphones rumlaufen (aus sicherheitstechnischer Sicht ist das sicherlich auch gut so :-D), bleiben die Energieressourcen beschränkt und es ist problematisch mehr Leistung zu realisieren ohne die allgemeine Betriebszeit, insbesondere unter sehr unterschiedlichen Workloads stark einzuschränken. Entsprechend verbesserte man die Energieeffizienz der üblicherweise kleineren, stromsparenden Kerne weiter und fügte performante Hochleistungskerne hinzu, die jedoch zwangsweise deutlich mehr Energie ziehen und im weiterhin vielfach auftretenden Niedrig- bis mittleren Lastlastbereich zwangsweise deutlich ineffizienter sind als die kleinen Kerne.

hier ist das "Problem" visuell aufbereitet. Abgenommen ich hätte eine Berechnung die zu erledigen wäre, dann ist das der Pfad den die Berechnung zurücklegt. Von der Schnittstelle des RAMs durch alle Caches zum Kern und das Ergebnis wieder bis ganz zurück (und dann eigentlich noch einemal vom RAM Controller durch die CPU zum PCIe Bus damit man das Ergebnis speichern kann und einmal zu einem anderen PCIe Bus, damit es angezeigt werden kann).

Für jeden Millimeter den das Signal zurücklegt müssen Transistoren schalten, das kostet immer Strom. Bis unsere Berechnung im Kern angelangt ist, haben wir schon so viel Strom verballert, dass die Art des Kerns das Kraut nicht mehr fett macht. Dazu kommt, dass der Scheduler hoffentlich nicht mitten in der Berechnung merkt, dass der kleine Kern Hilfe braucht, weil das Ergebnis eine Nachberechnung verursacht für die der kleine Kern zu klein dimensioniert ist. Denn dann müssen wir umkopieren. Das kostet wieder Strom.

Was die Stromsparkerne unterstellen ist ja immer Folgendes. Anstatt einen großen Kern bei relativ unrentablen 25% Leistung laufen zu lassen, habe ich einen kleinen Kern der die Aufgabe bei 66% seiner nominellen Leistung in der gleichen Zeit macht und in der Summe für weniger Energie. Das ist die Idee. Indem man mit unterschiedliche Kerne hat, kann man immer den nehmen der näher am Maximum des Wirkungsgrad ist und deswegen spart man Energie. Total logisch, total nachvollziehbar, aber total nicht messbar. Weil das schmutzige Geheimnis der IT ist, dass die meiste Energie gar nicht beim eigentlichen Rechnen draufgeht, sondern beim Daten hin und herschieben.

Aus genau diesem Grund werden CPUs bei Prime95 noch mal einen Zacken heißer als bei Cyberpunk, weil Prime95 passt in jeden Cache und muss nicht ständig Daten rein und rauskopieren, da laufen die Rechenwerke mal wirklich auf 100%. Wollte man also wissen, ob der Intel wirklich Stom spart, dann müsste man Prime95 auf einem Stromsparkern 1.000.0000 Primzahlen errechnen lassen und den Strom messen. Dann die gleiche Anzahl Primzahlen in der gleichen Zeit auf einem großen Kern ausrechnen, aber Vorsicht,der muss die gleiche Menge in der gleichen Zeit berehnen, nicht schneller, nicht langsamer. Wenn dann auf dem Stromzähler mehr kW/h stehen, dann funktioniert das System. Aber die Mühe macht sich keiner, weil jeder weiß was da rauskommt. Aber das initiale Argument klingt halt logisch wenn man nicht im Detail betrachtet was in der CPU passiert und das ist genug. Weil der Bonus-Effekt ist, dass man sagen kann man hätte mehr Kerne, hat sich diese Unsinn halt durchgesetzt für den Moment.

Aber ein Blick auf Grafikkarten sollte uns zeigen was davon zu halten ist. Dort werden schließlich nicht 8+8 Rechenkerne verbaut, sondern 10.000 Cuda Cores. Da ist selbst in Laptops noch niemand auf die absurde Idee gekommen zu sagen wir verbauen da mehrere Typen um Strom zu sparen. Warum? Weil der Kunde nicht herget und sagt "der Chip hat mehr Kerne deswegen ist er besser". Da schauen die Kunden auf die Benchmarks und dann bleiben wir wieder bei homogenen Designs.
 

Anhänge

  • path.jpg
    path.jpg
    3,6 MB · Aufrufe: 8
Ich bin echt gespannt und warte freudig auf den Release. Meine CPU tuts noch, aber über Bewegung am Markt bin ich immer dankbar :-)
Hätte gerne nen 5800x3d, das ist aber gerade nur "Haben Wollen".
 
Wenn da was dran sein sollte, dürfte Nvidia noch Bittsteller bei AMD (Genoa) werden.
Intel belügt einfach jeden, die Presse, die eigenen Aktionäre und sogar Geschäftspartner.
Ich komme aus dem Screenshot machen gar nicht mehr raus in den letzten Tagen. Gönnt mir doch mal ne Pause! :D
Getestet wurden 3 Games und FSU, aber leider in 1440p, aber in FH5 konnte Zen4 gerade mal zum 12900k aufschließen.
Nein, oh, doch! Wer hätte das gedacht. :ugly:
 
Lol, entweder deinerseits eine erneute Demonstration des Confirmation Bias oder aber du verstehst tatsächlich nicht, was solche Firmen antreibt und mit welchem Auftrag deren Marketingabteilungen betraut sind?

Ich lese zwar grundsätzlich keine chatstar Beiträge, aber gerade du mit deinem extremen intel Bias solltest bei sowas eigentlich die Füße stillhalten.

Der Artikel ist vom Nov '20 und bereits Mitte 2020 pfiffen es die Spatzen von den Dächern, dass Intel's nächster, großer Wurf mit heterogenen Kernen daherkommen wird. Was hätte AMD hier sagen sollen, da man natürlicherweise von der Fachpresse diesbezüglich ausgefragt wurde? Etwa "Ja, heterogene Architekturen sind der nächste Schritt im CPU-Design, jedoch werden wir nichts innerhalb der nächsten 30 Monate zu diesem Thema beizutragen haben"? Das wäre zwar korrekt gewesen, ist aber nichts, was man in der Form und auf diese Art kommunizieren sollte zumal es einzig dem Hauptkonkurrenten Auftrieb gegeben hätte.

Der Artikel mag zwar alt sein, jedoch wenn du mal AMD zu diesem zuhörst, wirst du feststellen, dass sie einen ganz anderen Weg wie intel anvisieren, aber bei dir wissen wir ja, sobald intel was macht, ist es automatisch der nächste große Wurf...
AMD möchte mit jeder CPU das volle Featureset unterstützen, was ich für richtig halte, denn nur so können Befehlsatzwerweiterungen sich auch durchsetzen und wenn man sich dann ihre Roadmap und ihre Aussagen anschaut macht das Ganze ja auch Sinn, für verschiedene Einsatzgebiete auch verschiedene CPUs anzubieten. Ist ja im Prinzip ähnlich wie in ihrer Semicustomsparte mit den Kunden Sony, Microsoft, Steam, die ein Produkt für ihre Bedürfnisse brauchen.
Daher ist es nur folgerichtig, dass AMD dies im Datacenterbereich auch anbietet. Die einen brauchen möglichst viele Kerne, der nächste viel Cache, wieder der nächste eine Mischung aus beidem usw. und genau das geht jetzt AMD mit Zen4 und 5 an und parallel auch für den Desktop mit den Modellen mit extra Cache.
Jedoch ist stand heute eben nicht bekannt, dass AMD es so wie intel machen wird und unterschiedliche Kerne "vermischen" wird, was auch gegen ihren Ansatz bei Zen3+ sprechen würde, denn da haben sie ja gezeigt, dass sie äußerst effizient sein können.
Bleibt daher spannend abzuwarten, wie es sich weiter entwickelt.


Darüber hinaus hast du dich aber auch gleich selbst in doppeltem Sinne an der Nase herumgeführt, denn AMD hat schon längst bestätigt, dass es kleinere und effizientere Kerne im 1HJ23 mit Zen4c geben wird, erstmals beim Cloud-Server Bergamo, denn den braucht AMD dringend, da Genoa absehbar gegen die spezialisierten ARM-Designs nicht gewinnen kann und man will schließlich weiter wachsen und nicht gleich von vorne herein einen wichtigen Markt aufgeben müssen.

Intel bräuchte da noch wesentlich dringender etwas ;-)
Aber ansonsten habe ich das oben bereits erläutert, man bietet für jeden Einsatzweck jetzt entsprechend optimierte Hardware an, ihr beide könnt euch natürlich noch weitere darüber streiten wie ihr es nennen wollt, für mich ist das einfach customized IP.


Einige Passagen daraus lesen sich als kämen sie direkt aus der heutigen Intel-Marketingabteilung zu Alder Lake, d. h. die haben das Rad nicht neu erfunden sondern das ist schon extrem lange in der Industrie in der Evaluierung und brauchte nur in unterschiedlichen Marktsegmenten unterschiedliche Gegebenheiten um schließlich zur Anwendung kommen zu können. ARM bspw. griff das Thema schließlich erst Ende 2011 mit seiner ersten Implementation in Form der relativ simplen Cluster-Migration auf.

AL ist eher aus der Not geboren, da intel sonst keine Möglichkeit hatte den Corecount effizient und kostengünstig zu erhöhen. Bei den Servern wirst du das so aber nicht sehen, da man einen Typ CPU Kern haben möchte. Daher hast du das bei Sapphire Rapids ja auch nicht, sondern es werden nur die großen Kerne verwendet.

Nicht anderes macht Intel hier derzeit auch und AMD ab 2023 mit Zen4c und ebenso später mit dem bereits angekündigten Zen5c. Dass das Design Intel zusätzlich entgegenkommt bei der Wafer-Fläche und auch beim absoluten Stromverbrauch ist selbstredend ein Zugewinn für sie, schmälert aber in keinster Weise den grundsätzlichen technischen Mehrwert dieser Designs.

Zen4C ist ein auf die im Datacenterbereich anfallenden Anforderungen hin optimierter Zen4. Laut den Interviews wurden die Anforderungen die es dort gibt in das Design eingearbeitet. Deswegen würde ich grundsätzlich eigentlich eher so wie bei der Semi Custom Sparte von speziell angepassten Kundendesigns sprechen, weil das Ziel von AMD wird es hier sein nicht so günstig wie möglich zu produzieren, sondern dem Kunden das Beste Produkt zu bieten, damit ordentlich Cash in die Kasse gespült wird.

Unterm Strich wird Raptor Lake daran kranken, dass man den Fertigungssprung nicht mitmachen kann und auf einem 7nm-Fertigungsäquivalent weiterfertigen muss, da Intel 4 erst ab Ende des Jahres in die Fertigung überführt wird. Für die meisten Consumer-Workloads wird das eher eine untergeordnete Rolle spielen, dagegen im hochdichten Server wird das schon ein handfestes Problem werden, das man mit anderen technischen Features zu kompensieren versuchen wird, wobei schlussendlich jedoch auch in der kommenden Iteration für Intel die deutlich höheren Fertigungskapazitäten am Ende wohl "das Eisen aus dem Feuer holen" werden müssen, da AMD noch längst nicht einen so großen Bedarf bedienen kann, da bei TSMC alle möglichen Hersteller um die begehrten, hochmodernen Nodes konkurrieren.

Schön, dass du weißt wie viel Kapazitäten sich AMD bei TSMC für die Zukunft gesichert hat...
Und wie du selbstredend bei intel wieder annimmst, dass alles sauber nach Plan läuft. Dass Sapphire Rapids massiv verspätet ist, hast du mitbekommen? Ich bezweifle auch sehr, dass wir den Refresh davon dann schon kurz darauf in 2023 sehen werden, es wird eher 2024 werden und dann kann man sich mit Zen5 rumschlagen...
Steht dann 256 vs 60 Kerne.


Sofern nicht erneut irgendwelche Execution-Probleme zum Jahreswechseln hin bei Intel auftauchen, dürften es die mobilen Zen4-Ableger bereits im 1HJ23 relativ schwer gegen den mobilen Meteor Lake haben, was dann auch (unter Vorbehalt) das Ende des Fertigungsrückstandes (vorerst im Consumer-Segment) bei Intel einläuten wird, sodass dann tatsächlich rein Package/SoC-technische und architektonische Designentscheidungen über das bessere Produkt entscheiden werden.

Weshalb sollte AMD da ein Problem haben? Die aktuellen Zen3+ mir RDNA2 laufen doch schon sehr gut... Mobile sehe ich keinen der beiden Hersteller weit in Front oder abgeschlagen.
 
Zurück