CPUs 2023: Raptor Lake mit Refresh und Ryzen 7000 X3D mit max. 8 Kernen [Gerüchte]

Einen 7800X3D wird es wohl so nicht geben, wenn sich das Gerücht als richtig herrausstellt, das der 7800X ein 10 Kerner wird. Dann wird es wohl eher der 7700X3D.
 
Der ist doch nur hier um zu sticheln und die Diskussion zu stören, solche Beiträge von ihm findest du vermehrt auf der ersten Seite bei solchen Artikeln.
Er vertritt eben genau die gegenteilige Ansicht.
Das ist völlig legitim.

Finde es an der Stelle auch äußerst fragwürdig, dass die Moderation da nicht mal einen Riegel vorschiebt, weil was bringt das denn außer, dass ein neuer Flamewar vom Stappel getreten wird? Und immer mit den gleichen Personen als Auslöser...
Die Moderation schiebt auch bei optimistischen pro AMD Postings keinerlei Riegel vor, gleiches Recht für alle würde ich sagen.

Dass es die 3D Variante nur für den 8 bzw. 6 Kerner geben wird, ist wie Dave schon sagte der einzigst sinnvolle Schritt, da Spiele durch das + an Level 3 Cache einiges an Leistungsgewinn erzielen und man bei zwei DIEs wieder das Problem mit dem Interconnect hat.
Seit wann ist denn diese Erkenntnis gereift? War es nicht noch vor kurzem so, dass AMD´s Chiplet Design der absolute Brüller ist und es sinnvoll ist für die Zukunft auf mehr als 8 Kerne zum Zocken zu setzen und jeder der etwas anderes sagte nicht sachlich argumentierte?
Wo bleibt denn nun die Skalierung?
 
Ein schnellerer Intel macht keinen Sinn, aber ein schnellerer AMD?

Grundsätzlich schneller, ist immer besser. Ich hoffe das AMD diesmal wirklich auch einen 6 Kerner mit 3D Cache bringt. Ansonsten sehe ich auch gerne noch schnellere Intel 6 Kerner kommen. Für mich reicht das allemal, da ich an meinem Privatrechner vorzugsweise nur Zocke.
nee so war’s nicht gemeint. Aber ich hoffe der 3D wird n Effizienzwunder. Sollte Intel mal gegensteuern - so meinte ich’s
 
Er vertritt eben genau die gegenteilige Ansicht.
Das ist völlig legitim.

Nö ist es eben nicht, da der Ton die Musik macht und wenn man nur da ist um zu stänkern oder um ein Zitat aus CB aufzugreifen, dass es ja nicht angehen kann, dass jemand seine HW schlecht macht, so ist die Intension klar erkennbar und die ist nicht auf eine vernünftige Konversation ausgerichtet.

Die Moderation schiebt auch bei optimistischen pro AMD Postings keinerlei Riegel vor, gleiches Recht für alle würde ich sagen.

So ein Kommentar wundert mich ehrlich gesagt von dir auch nicht im geringsten. Es ist ein himmelweiter Unterschied, ob man etwas gegenüber positiv/optimistisch eingestellt ist oder ob man einfach nur rumstänkern möchte.

Man könnte ja auch einfach sagen, dass man es aus Grund xy sehr enttäuschend findet, dass nicht auch die großen Modelle mit 3Dcache kommen. Sollte dann nur insich stimmig sein und fürs Gaming macht es, wie Dave bereits aufgezeigt hat einfach keinen Sinn.

Seit wann ist denn diese Erkenntnis gereift? War es nicht noch vor kurzem so, dass AMD´s Chiplet Design der absolute Brüller ist und es sinnvoll ist für die Zukunft auf mehr als 8 Kerne zum Zocken zu setzen und jeder der etwas anderes sagte nicht sachlich argumentierte?
Wo bleibt denn nun die Skalierung?

Mit sachlich argumentieren scheinst du es offensichtlich auch nicht zu haben oder wieso vermischt du absichtlich Tatsachen miteinander, um eine von dir präferierte Sicht auf die Dinge zu erzeugen die nachweislich falsch ist.

Aber fangen wir von vorne ein, weshalb hat AMD das Chiplet Design eingeführt?
Richtig, um Leistung besser hochskalieren zu können.
Wo wird diese Leistung benötigt bzw. für welchen Sektor haben sie so ein Design auferlegt?
Richtig für den HPC Bereich, um dort jetzt CPUs mit bis zu 96 Kernen bei günstigen Herstellungskosten anbieten zu können.
Hatte dies auch Vorteile für den Clientsektor?
Ja, denn AMD konnte ohne weiteres bis zu 16 Kerne auch im Clientbereich anbieten und das mit nur einer einzigen Fertigungsmaske. Also finanziell doch ein recht cleverer Schritt.
Bringt dieses Design auch Nachteile mitsicher?
Definitiv, durch die Interchipkommunikation entstehen Latenzen, die nicht jeder Anwendung/Spiel schmecken. Da vor allem Spiele daraus einen Nachteil ziehen, hatte man bei Zen3 schon nur den 5800er mit 3Dcache ausgestattet und macht dies jetzt bei Zen4 wieder. Man umgeht also aktiv ein Problem ihres gewählten Ansatzes, um dadurch das maximale an Gamingperfomance zu erzielen.
Wo ist also dein Problem damit?
Du bist genauso wie der andere Kollege nicht in der Lage sich konstruktiv mit einem Thema auseinander zusetzen und folglich, weiß man auch, was man von deinen Beitragen halten kann.
Betrachtet man es nüchtern, macht es einfach keinen Sinn den 16 Kerner mit 3Dcache auszustatten und ihn als Gaming CPU zu positionieren, alleine schon hinsichtlich des Preises...
 
[...] Wie gesagt: 3D-Cache-Modelle werden explizit für Gaming designt [...]
Eigentlich eher nicht, sondern das Design ist primär ein "Mitverwertung" der Fertigung, die vorrangig HPC als Zielmarkt hat, da AMD den Cache für spezielle HPC-Workloads benötigt bzw. ansonsten einige lukrative Nischen nicht sinnvoll bedienen könnte.

Das 3D-Cache nur für Ein-Chiplet-CPUs Sinn macht war doch schon lange bekannt...
Nein, eigentlich nicht, den AMD selbst hatte hier Mitte letzten Jahres zur Vorstellung der V-Cache-Modelle explizit seine HighEnd-SKUs angekündigt und nicht etwa einen "schnöden" 8-Kerner. ;-) Als Demonstrationsobjekt wurde ein gepimpter 12-Kerner vorgestellt.

Hier und auf CB haben große Teile der Community ZEN4(X3D) schon als Sieger ernannt [...]
Am Ende wird das mit hoher Wahrscheinlichkeit aber auch zutreffen, d. h. wenn der V-Cache sich auf Zen4 im Gaming ähnlich leistungsfördernd verhält wie auf Zen3, denn ersterer hat bereits das lokale Cache-Subsystem etwas ausgebaut, sodass noch abgewartet werden muss wie viele zusätzliche Prozentpunkte der Cache dieses Mal beisteuern kann. Zudmindest soll laut AMD nun der Takt nicht unter dem zusätzlichen Die leiden müssen (wobei das vermutlich auch schon bei Zen3 nicht wirklich der Fall war, sondern eher nur eine Marketingaussage).


Darüber hinaus wird man abwarten müssen, was Intel in 2023 mit Raptor Lake und Meteor Lake vorhaben wird und wie sie die Produkte zueinander ausrichten wollen.
Einerseits wird Meteor Lake aufgrund des Tile-basierten Aufbaus zweifellos eine teueres Consumer-Produkt für Intel. Insofern darf man bspw. spekulieren, ob die "nur" 6 P-Kerne (soweit bisher kolportiert) schlicht einer vorläufig effizienteren Fertigung geschuldet sind. Die zwei Kerne weniger dürften im Consumer-Segment der Konkurrenzfähigkeit vorerst nicht wirklich schaden, man kann aber das Core-Tile etwas kleiner auslegen und im besten Fall entwickelt Intel für Meteor Lake gar lediglich ein einziges Die/Tile mit 6+16 Kernen.
Eine weitere Frage bleibt bzgl. des Reifegrades des Intel 4 mit massiver EUV-Nutzung. Hier ist aktuell noch unklar ob der Prozess taktechnisch bereits vom Start weg mit Intel 7 mithalten kann? Ausgeschlossen ist das nicht, gesichert aber ebensowenig. Da Meteor Lake-S voraussichtlich erst Richtung Jahresende kommen wird, wird hier möglicherweise gar eine aktuellere Prozessiteration zum Einsatz kommen als noch die am Ende diesen Jahres in die Produktion überführte Fertigung. Letzten Endes ist Intel 4 für die Firma weitestgehend nur ein Übergangsprodukt, da man mit einer weiteren Iteration bei Intel 3 ankommen will, das in 2024 für die Server- und Arrow Lake-CPUs sowie für die IFS-Kunden genutzt werden soll.
Ein paralleler Raptor Lake-Refresh mit vielleicht pauschal +100 oder +200 MHz mehr (?) auf Basis eines nochmals weiteroptimierten Intel 7 um das Consumer-Produktangebot in der zweiten Jahreshälfte komplementierne zu können wäre zumindest nicht unplausibel.
 
Zuletzt bearbeitet:
Oh ja auf den 7000 X3D warte ich schon sehnsüchtig ☺️


8/16 Threads mit 3D Cach und 5,5Ghz wird bestimmt noch mal einen ordentlich Schub geben beim Gaming.

Und da die AM5 Plattform so neu ist wird es auch noch den ein oder anderen Nachfolger dafür geben - eine zukunftsfähige Investition.

Und Mals schauen wenn die Fertigung noch etwas kleiner wird eventuell auch mal einen 10 oder 12 Kerne Prozessor mit einem Die
 
Das 3D-Cache nur für Ein-Chiplet-CPUs Sinn macht war doch schon lange bekannt...
Ja, wegen der Latenzen.
Deshalb würde ich mir von AMD bald einen 16 Kerner CCD wünschen ;)
Oder von INtel ein 3d-Cache-Modell mit höherer Effizienz
Nenn mir ein Szenario, wo sich ein Upgrade von deinem 5800X3D lohnt.
Vielleicht eine Geforce 4090, die sei ja manchmal CPU Limitiert...
Sah man etwa bei eurem Test, besonders deutlich wirds nochmal hier, dass das ein bisschen was bringen kann, etwa falls man VR oder High-FPS @FHD oder WQHD als Ziel hat


Und hier der FOkus auf die 2 Top-Prozessoren von Intel/AMD, wobei schade ist, dass der X3D nicht dabei ist
 
Zuletzt bearbeitet:
nee so war’s nicht gemeint. Aber ich hoffe der 3D wird n Effizienzwunder. Sollte Intel mal gegensteuern - so meinte ich’s
Wenn ich beim 13600k schaue, ist die Leistrung pro Frame gar nicht so schlecht. Sowieso nicht, sobald man schnelleren Ram verwendet.

Aber ja, wäre schön wenn ein 7600X3D und ein 7700, oder 7800X3D wieder richtige Effizienzmosnter werden und da wäre es wirklich ganz nett, wenn Intel da auch etwas zu beibringt an Konkurrenz.

Der 12400F war mit schnellem Speicher auch eine super sparsame und schnelle CPU.

Ich bin gespannt was noch alles so kommt, wenn beide Hersteller alle CPUs der Generation veröffentlicht haben.
 
Das sehe ich anders. Angesichts der hohen Preise für Highend-Hardware soll diese zukunftstauglich sein. Mögen acht Kerne 2022 und 2023 ausreichend sein, so ist Hardware bei mir mindestens vier Jahre im Einsatz. Da sollten es für die kommenden Jahre 12 Kerne sein, um auch nach 2023 für alles gewappnet zu sein.
Da ich gerade von einem 3950X auf den 5800X3D gewechselt habe kann ich dir sagen, dass 8 Kerne auch in vier Jahren noch locker ausreichen werden. Zumal nicht mal eine neue Konsolengeneration ansteht.

Spar dir das Geld für mehr Kerne, das hätte ich selbst auch tun sollen. Es sei denn du arbeitest mit deinem Gaming-Rechner auch, dann kann es sinnvoll sein.
 
Das sehe ich anders. Angesichts der hohen Preise für Highend-Hardware soll diese zukunftstauglich sein. Mögen acht Kerne 2022 und 2023 ausreichend sein, so ist Hardware bei mir mindestens vier Jahre im Einsatz. Da sollten es für die kommenden Jahre 12 Kerne sein, um auch nach 2023 für alles gewappnet zu sein.
Weil die Entwickler ja auch so gut auf vielen Kernen programmieren können ^^
Die meisten sind doch schon für 6 kerne zu faul. Also werden deine 8 kerne locker bis 2030 reichen ^^
 
"Neue Gerüchte aus dem CPU-Markt zeichnen ein eher bescheidenes Jahr 2023. Die erste Überraschung ist, dass Meteor Lake nun gar keine Rolle mehr für einen Release im kommenden Jahr spielen soll. Stattdessen habe Intel einen Refresh von Raptor Lake geplant, der an sich bereits eine Evolution von Alder Lake ist."
Also bleibt der LGA 1700 sogar ein drittes Jahr erhalten?
Wenn ja, gut so.
 
Nein, eigentlich nicht, den AMD selbst hatte hier Mitte letzten Jahres zur Vorstellung der V-Cache-Modelle explizit seine HighEnd-SKUs angekündigt und nicht etwa einen "schnöden" 8-Kerner. ;-) Als Demonstrationsobjekt wurde ein gepimpter 12-Kerner vorgestellt.
...der es ja nicht ohne Grund nicht zur Marktreife geschafft hat. Hat schon seinen Grund, das es so etwas wie ein PoC ("Demonstratinsobjekt") gibt.

Ja, wegen der Latenzen.
Deshalb würde ich mir von AMD bald einen 16 Kerner CCD wünschen ;)
Oder von INtel ein 3d-Cache-Modell mit höherer Effizienz
Was einen großen Vorteil der Chiplets wieder (zumindest in Teilen) neutralisieren würde: kleinere Chips, bessere Ausbeute.
 
Zurück