lucky1levin
BIOS-Overclocker(in)
Ich Lache
Bei Intels Refs handelt es sich ebenfalls um ein X3DCache
Bei Intels Refs handelt es sich ebenfalls um ein X3DCache
Stimmt genau!Warum sollte AMD diese knapp 15 Prozent beim "X3D" opfern? Eine reine Gaming-CPU braucht auch 2022/2023 nicht mehr als acht Kerne.
Das wussten doch 90% des Forums noch bis vor kurzem anders.Warum sollte AMD diese knapp 15 Prozent beim "X3D" opfern? Eine reine Gaming-CPU braucht auch 2022/2023 nicht mehr als acht Kerne.
Er vertritt eben genau die gegenteilige Ansicht.Der ist doch nur hier um zu sticheln und die Diskussion zu stören, solche Beiträge von ihm findest du vermehrt auf der ersten Seite bei solchen Artikeln.
Die Moderation schiebt auch bei optimistischen pro AMD Postings keinerlei Riegel vor, gleiches Recht für alle würde ich sagen.Finde es an der Stelle auch äußerst fragwürdig, dass die Moderation da nicht mal einen Riegel vorschiebt, weil was bringt das denn außer, dass ein neuer Flamewar vom Stappel getreten wird? Und immer mit den gleichen Personen als Auslöser...
Seit wann ist denn diese Erkenntnis gereift? War es nicht noch vor kurzem so, dass AMD´s Chiplet Design der absolute Brüller ist und es sinnvoll ist für die Zukunft auf mehr als 8 Kerne zum Zocken zu setzen und jeder der etwas anderes sagte nicht sachlich argumentierte?Dass es die 3D Variante nur für den 8 bzw. 6 Kerner geben wird, ist wie Dave schon sagte der einzigst sinnvolle Schritt, da Spiele durch das + an Level 3 Cache einiges an Leistungsgewinn erzielen und man bei zwei DIEs wieder das Problem mit dem Interconnect hat.
nee so war’s nicht gemeint. Aber ich hoffe der 3D wird n Effizienzwunder. Sollte Intel mal gegensteuern - so meinte ich’sEin schnellerer Intel macht keinen Sinn, aber ein schnellerer AMD?
Grundsätzlich schneller, ist immer besser. Ich hoffe das AMD diesmal wirklich auch einen 6 Kerner mit 3D Cache bringt. Ansonsten sehe ich auch gerne noch schnellere Intel 6 Kerner kommen. Für mich reicht das allemal, da ich an meinem Privatrechner vorzugsweise nur Zocke.
Er vertritt eben genau die gegenteilige Ansicht.
Das ist völlig legitim.
Die Moderation schiebt auch bei optimistischen pro AMD Postings keinerlei Riegel vor, gleiches Recht für alle würde ich sagen.
Seit wann ist denn diese Erkenntnis gereift? War es nicht noch vor kurzem so, dass AMD´s Chiplet Design der absolute Brüller ist und es sinnvoll ist für die Zukunft auf mehr als 8 Kerne zum Zocken zu setzen und jeder der etwas anderes sagte nicht sachlich argumentierte?
Wo bleibt denn nun die Skalierung?
Eigentlich eher nicht, sondern das Design ist primär ein "Mitverwertung" der Fertigung, die vorrangig HPC als Zielmarkt hat, da AMD den Cache für spezielle HPC-Workloads benötigt bzw. ansonsten einige lukrative Nischen nicht sinnvoll bedienen könnte.[...] Wie gesagt: 3D-Cache-Modelle werden explizit für Gaming designt [...]
Nein, eigentlich nicht, den AMD selbst hatte hier Mitte letzten Jahres zur Vorstellung der V-Cache-Modelle explizit seine HighEnd-SKUs angekündigt und nicht etwa einen "schnöden" 8-Kerner. Als Demonstrationsobjekt wurde ein gepimpter 12-Kerner vorgestellt.Das 3D-Cache nur für Ein-Chiplet-CPUs Sinn macht war doch schon lange bekannt...
Am Ende wird das mit hoher Wahrscheinlichkeit aber auch zutreffen, d. h. wenn der V-Cache sich auf Zen4 im Gaming ähnlich leistungsfördernd verhält wie auf Zen3, denn ersterer hat bereits das lokale Cache-Subsystem etwas ausgebaut, sodass noch abgewartet werden muss wie viele zusätzliche Prozentpunkte der Cache dieses Mal beisteuern kann. Zudmindest soll laut AMD nun der Takt nicht unter dem zusätzlichen Die leiden müssen (wobei das vermutlich auch schon bei Zen3 nicht wirklich der Fall war, sondern eher nur eine Marketingaussage).Hier und auf CB haben große Teile der Community ZEN4(X3D) schon als Sieger ernannt [...]
Nenn mir ein Szenario, wo sich ein Upgrade von deinem 5800X3D lohnt.Oh ja auf den 7000 X3D warte ich schon sehnsüchtig ☺️
Ja, wegen der Latenzen.Das 3D-Cache nur für Ein-Chiplet-CPUs Sinn macht war doch schon lange bekannt...
Vielleicht eine Geforce 4090, die sei ja manchmal CPU Limitiert...Nenn mir ein Szenario, wo sich ein Upgrade von deinem 5800X3D lohnt.
Bezweifel ich das so hoher takt mit Zuzatz Cache möglich ist.und 5,5Ghz
Wenn ich beim 13600k schaue, ist die Leistrung pro Frame gar nicht so schlecht. Sowieso nicht, sobald man schnelleren Ram verwendet.nee so war’s nicht gemeint. Aber ich hoffe der 3D wird n Effizienzwunder. Sollte Intel mal gegensteuern - so meinte ich’s
Da ich gerade von einem 3950X auf den 5800X3D gewechselt habe kann ich dir sagen, dass 8 Kerne auch in vier Jahren noch locker ausreichen werden. Zumal nicht mal eine neue Konsolengeneration ansteht.Das sehe ich anders. Angesichts der hohen Preise für Highend-Hardware soll diese zukunftstauglich sein. Mögen acht Kerne 2022 und 2023 ausreichend sein, so ist Hardware bei mir mindestens vier Jahre im Einsatz. Da sollten es für die kommenden Jahre 12 Kerne sein, um auch nach 2023 für alles gewappnet zu sein.
Nenn mir ein Szenario, wo sich ein Upgrade von deinem 5800X3D lohnt.
Als Gamer sind mehr als 8 Kerne auch in 5 Jahren noch nicht Thema.Da sollten es für die kommenden Jahre 12 Kerne sein, um auch nach 2023 für alles gewappnet zu sein.
Weil die Entwickler ja auch so gut auf vielen Kernen programmieren können ^^Das sehe ich anders. Angesichts der hohen Preise für Highend-Hardware soll diese zukunftstauglich sein. Mögen acht Kerne 2022 und 2023 ausreichend sein, so ist Hardware bei mir mindestens vier Jahre im Einsatz. Da sollten es für die kommenden Jahre 12 Kerne sein, um auch nach 2023 für alles gewappnet zu sein.
Und paar sind in der Zeit stehen geblieben die nur 2-4 Kerne nutzen.Die meisten sind doch schon für 6 kerne zu faul.
Also bleibt der LGA 1700 sogar ein drittes Jahr erhalten?"Neue Gerüchte aus dem CPU-Markt zeichnen ein eher bescheidenes Jahr 2023. Die erste Überraschung ist, dass Meteor Lake nun gar keine Rolle mehr für einen Release im kommenden Jahr spielen soll. Stattdessen habe Intel einen Refresh von Raptor Lake geplant, der an sich bereits eine Evolution von Alder Lake ist."
...der es ja nicht ohne Grund nicht zur Marktreife geschafft hat. Hat schon seinen Grund, das es so etwas wie ein PoC ("Demonstratinsobjekt") gibt.Nein, eigentlich nicht, den AMD selbst hatte hier Mitte letzten Jahres zur Vorstellung der V-Cache-Modelle explizit seine HighEnd-SKUs angekündigt und nicht etwa einen "schnöden" 8-Kerner. Als Demonstrationsobjekt wurde ein gepimpter 12-Kerner vorgestellt.
Was einen großen Vorteil der Chiplets wieder (zumindest in Teilen) neutralisieren würde: kleinere Chips, bessere Ausbeute.Ja, wegen der Latenzen.
Deshalb würde ich mir von AMD bald einen 16 Kerner CCD wünschen
Oder von INtel ein 3d-Cache-Modell mit höherer Effizienz