News Ryzen 9000 mit 3D V-Cache: Start bereits im September, sagt eine "sehr zuverlässige Quelle"

Ohne 3D Cache kommt bei mir keine Cpu mehr rein. Einfach Bombe die Teile.
Welche Rolle spielt eigentlich der 5800x3d , welcher vor 6 Monaten noch eifrig empfohlen wurde? Die CPU ist dann doch sehr schnell gealtert. Der geringe Takt war einfach der Tod.

Vielleicht nehme ich nur noch AMD Prozessoren ohne 3dCache, da fallen die Anwendungsleistungen mit der Zeit nicht so krass ab.
 
Mich dünkt AMD zieht die X3D Prozessoren auf den Herbst vor, da man sonst gegen Arrow Lake zu schlecht abschneiden würde. Die 15% was die non X3D als ES so drauflegen wird natürlich nicht reichen.
Die Bandbreite der Mehrleistung von Zen 5 ist in Spielen aber außerordentlich problematisch, teilweise ist man langsamer als Zen 4 und teils auch 30% schneller. Je nachdem was in Spielen gefragt ist. Latenz oder Durchsatz.
Welche Rolle spielt eigentlich der 5800x3d , welcher vor 6 Monaten noch eifrig empfohlen wurde? Die CPU ist dann doch sehr schnell gealtert. Der geringe Takt war einfach der Tod.
Nicht der geringe Takt, sondern der 3DCache altert und wird "langsamer", da die Dinger relativ heiß werden.
Im Grunde ist der 5800X3D gar nicht mehr wirklich schneller als der 5800X.
Im Frametime Index sind es "nur" noch 19%.
 
Zuletzt bearbeitet von einem Moderator:
Welche Rolle spielt eigentlich der 5800x3d , welcher vor 6 Monaten noch eifrig empfohlen wurde? Die CPU ist dann doch sehr schnell gealtert. Der geringe Takt war einfach der Tod.

Vielleicht nehme ich nur noch AMD Prozessoren ohne 3dCache, da fallen die Anwendungsleistungen mit der Zeit nicht so krass ab.
Gut getrollt ist halb gewonnen.
5800X3D gar nicht mehr wirklich schneller als der 5800X.
Was ein Quatsch. :lol:
 
@ Eszter,

kennt man doch inzwischen das Gerede ;)
Natürlich zugespitzt. Bei den AVG sind es 30%.
Aber ich bin gespannt, wenn ihr die Gaming Benchmarks seht, bzw. die Blicke von Dave wenn er sie auswerten darf.
Die Allgemeine Gaming- Performance dürfte so bei einem 13600K liegen.
 
Zuletzt bearbeitet von einem Moderator:
Wird der SMT Wegfall im Multicore Benchmark nicht auch Nachteile mit sich bringen ?
Ich meine mich zu erinnern dass SMT quasi einen Kern mit 75% seiner Leistung imitiert hat, ohne dabei den Physikalischen Verbrauch eines Extra Kerns zu haben.
(...)
Nein.
Kleiner quick and dirty Kurs SMT:
CPUs arbeiten prinzipiell, also immer, seriell. Das bedeutet, eine Aufgabe nach der anderen. So war es immer. Irgendwann wurden CPUs so schnell, dass man den Eindruck hatte vieles würde gleichzeitig passieren. Hat aber nie gestimmt.
Dann kamen CPUs mit SMT (damals HT genannt). Bei Einkernern bedeutet das ganz einfach, dass die CPU in der Lage ist nach aussen hin, also Richtung Software, anzugeben sie sei zwei CPUs.
Wenn also 2 Aufgaben zu vergeben waren, konnte er beide "annehmen" und musste der Software mit der zweiten Aufgabe nicht sagen, sie müsse warten.

Jetzt ein entscheidender Punkt:
Wenn die beiden Aufgaben jeweils nur wenig Rechenleistung benötigen, kann die CPU tatsächlich beide gleichzeitig, also parallel statt seriell, bearbeiten. Dabei teilt sie im einfachsten Fall Aufgabe 1 50% Rechenleistung zu und Aufgabe 2 ebenfalls.
Vielleicht würde eine der Aufgaben schneller gehen, wenn mehr Rechenleistung zugewiesen wäre, bspw. 80%. Aber der grosse Vorteil war die Reaktionsfreudigkeit. Aufgabe 1 kann bspw. die Umwandlung eines Videos sein, Aufgabe zwei das Öffnen des Startmenüs. Ohne SMT kann ein Einkerner das nur nacheinander, benötigt Aufgabe 1 also eine Weile, hängt der PC aus Sicht des Benutzers, weil das Startmenü sich erst nach Aufgabe 1 öffnet.
Mit SMT läuft Aufgabe 1 minimal langsamer, dafür kann nebenbei das Startmenü geöffnet werden.

Entscheidend ist, wenn eine Aufgabe 100% der Rechenkapazität braucht, also eine Echtzeitanwendung wie zum Beispiel ein Spiel, ist auch nichts für einen virtuellen zweiten Thread übrig. SMT kann also etwa beschleunigen, wenn 2 Aufgaben vorhanden sind aber keine von beiden 100% der Leistung braucht.
Bei Mehrkernern läuft es prinzipiell genauso, nur dass durch echte CPU Kerne tatsächlich eine parallele Bearbeitung möglich ist. Ein Kern kümmert sich um Aufgabe 1 und einer auf Aufgabe 2. Da man die Leistung des zweiten Kerns sowieso nicht zur Beschleunigung des ersten Kerns nutzen kann (Wenn Aufgabe 1 auf Kern 1 läuft, kann Kern 2 nicht helfen, die Aufgabe lässt sich nicht weiter teilen). Kern 2 kann aber andere Aufgaben gleichzeitig übernehmen. Das sind im Normalfall eben so kleine Aufgaben wie das Startmenü zu öffnen. Dazu noch SMT und eine intelligente Lastverteilung und es können mit zwei Kernen quasi 4 Aufgaben gleichzeitig (parallel) erledigt werden.

Mit mehr Kernen setzt sich das natürlich fort.
Jetzt das Fazit: Wenn eine CPU zu 100% ausgelastet ist, also jeder Kern 100% seiner Rechenlast auf eine nicht weiter teilbare Aufgabe konzentriert, bringt SMT nichts mehr. 100% sind halt 100%, mehr Leistung ist nicht rauszuholen.
Moderne CPUs haben inzwischen so viele Kerne, dass Anwendungen es aber immer seltener schaffen jedem Kern eine Aufgabe zuzuweisen. Viele Aufgaben lassen sich nämlich nicht einfach parallelisieren. Man stelle sich einen Menschen vor, der eine Banane schält. Hilft es, wenn zwei Leute helfen? Kaum, es gibt einfach keine Aufgabe für sie. 20 Menschen würden die Banane nicht zwanzig mal schneller schälen*.
Also stehen eh Leute, oder um zurück zu CPUs zu kommen, Kerne, unbeschäftigt rum. Wenn aber eh immer öfter ein echter Kern übrig ist um anfallende kleine Aufgaben zu erledigen, braucht man immer seltener virtuelle Kerne. Insofern wird SMT immer unwichtiger.
Nochmal "etwas" kürzer:
SMT sorgt nur für eine bessere Verteilung der Aufgaben, kann aber kein Quäntchen mehr Leistung aus einer CPU holen. Die Leistung ist fix, nur die Effizienz in der Abarbeitung der Aufgaben kann erhöht werden.

*Tatsächlich kann man sich Gedanken machen und findet sicher eine Arbeitsabfolge, in der 2 oder 3 zusätzliche Menschen die Aufgabe, Banane schälen, schneller lösen. Aber irgendwann ist auch dieses Potential erschöpft, spätestens bei 50 Menschen oder so findet man auch bei schlauestem Überlegen keine Methode mehr die zusätzlichen Hände in mehr Effizienz umzusetzen. Genau das wird mit Aufgaben in Programmen auch gemacht, man überlegt sich was man irgendwie von einem anderen Kern erledigen lassen kann. Aber ebenso wie bei der Banane ist auch hier irgendwann Schluss, irgendwann helfen mehr Hände/Kerne nicht mehr.
Ein anderer, damit zusammenhängender Fall ist schlechte Mehrkernoptimierung. Da macht man sich genau diese Gedanken nicht sondern lässt jede Banane von einem Menschen schälen. Statt wenigstens jedem einen "Kern" beiseitezustellen der die Schale wegwirft, damit schneller wieder mit dem Schälen der nächsten Banane begonnen werden kann. Das wäre das Paradebeispiel für eine Aufgabe die man parallelisieren kann, wo es aber nicht getan wurde.

Ich hoffe das war jetzt alles nicht zuviel und völlig Banane 🍌.
 
Zuletzt bearbeitet:
Die Website heißt Club386, nicht Club385. Wäre euch wohl aufgefallen würdet ihr die Quellen checken von den Seiten, von denen ihr abschreibt. In der Originalnews liest sich das mit der "sehr zuverlässigen Quelle" ganz anders:
There was a level of confidence behind our source’s words, and they’re trustworthy enough to put stock into. That said, familiarity with how nebulous AMD’s launch schedules are urges taking this with a pinch of salt. Nothing’s confirmed until you have a sample in your hand as dates can easily change.
"Die Aussage der Quelle ist glaubwürdig genug" wird also von videocardz mit "Sehr zuverlässige Quelle" übersetzt. Peinlich. Ihr übernehmt das einfach mal so. Noch peinlicher. Die Sätze danach suggerieren auch, dass das alles noch lange nicht sicher ist.
 
Wieso? 6 Kerner reichten bisher für alle meine Aufgaben aus. Alle ca. 3 Jahre ein neuer 6 Kerner und ich habe ausreichend Leistung für meinen Bedarf. Warum soll ich da für einen 8 Kerner bezahlen. Die Kohle steck ich lieber in eine stärkere GPU oder nen neuen Monitor.
Die "Kohle " sind vielleicht 30 Euro mehr. Ich bitte dich.
Für 6 Kerne wird's langsam eng,außerhalb von Spielen,da ist dann DEIN Anwendungsbereich halt anscheinend nicht drunter.
Bezweifle sehr stark dass du in 5 Jahren immer noch 6 Kerne hast.
 
Bezweifle sehr stark dass du in 5 Jahren immer noch 6 Kerne hast.
Naja, die Welt dreht sich eben weiter, sonst hätte ich heute noch 4 Kerne.

Bisher hatte ich aber maximal 6. Was in 5 Jahren ist, werde ich dann sehen. Vielleicht wird's auch beim nächsten Upgrade schon ein 8 Kerner. Ich lass mich überraschen.

Die "Kohle " sind vielleicht 30 Euro
Oder aber auch 50 bis 60. Zumindest aktuell bei den Ryzen 7000.

außerhalb von Spielen,
Jupp, genau mein Anwendungsgebiet.
 
Hm mit glück bekomme ich nächstes Jahr wohl mein Laptop mit meinem Wunsch Prozessor echte 16Kern x3d. Dann kann ich mich 10 Jahre lang wieder zurücklehnen. (Evtl sogar länger). Mein 10 Jahre alter 4Kerner läuft sicher auch noch 5 Weitere Jahre.
 
Für was ?
So langsam ist dann auch mal gut mit 6 Kernen.
Am Ende gab es die Diskussion schon seit den Ryzen der ersten Generation. Bisher haben die 6 Kerner fast immer ausgereicht. Wenn ich mein Ziel verfolge jede Generation auf einen kleinen Prozessor aufzurüsten, dann habe ich lieber einen aktuellen 6-Kerner als einen 8-Kerner der älteren Generation oder einen 12 Kerner (z.B. 5900X).
 
Von gar nicht mehr wirklich schneller auf 30% binnen eines Postings, nicht schlecht. :lol:

Hier scheinen echt viele Clowns zu frühstücken, aber amüsant ist es allemal.
Zum teil aber auch ziemlich traurige Clowns.....

Meine 1080Ti ist bestimmt jetzt auch nur noch ne GTX 1060.
Weil die 7 Jahre lang bei 150% Powertarged/ 1970Mhz ohne Temperatur bedingtes runtertakten zwischen 80-90°C lief und zwar fast durchgängig am Anschlag. Der Hotspot lag bei um 100°C...Vielleicht ist es auch nur noch ne GTX1030. Deswegen musste ich jetzt auch ne neue kaufen.... Obwohl sie noch Tadellos funktioniert
 
wenn das stimmt tut mir intel richtig leid
das wars doch dann komplett oder?
so ähnlich wie bei den grakas, wo nvidea amd komplett im griffig hat

Unwahrscheinlich. Bei GPUs gibt es eigentlich nur Leistung ja/nein, aber kaum Differenzierung. Im CPU-Segment existieren mehr Lücken und aktuell bedient Intel z.B. alle, die eine Spiele-CPU unterhalb des 7800X3D suchen, eine Anwendungs-CPU unterhalb des 7900X oder einen Allrounder unterhalb des 7950X3D. Wenn Arrow Lake nicht komplett verkackt, dann sollten diese Segmente auch in Zukunft offenstehen – und gerade dass AMD so launcht, wie sie launchen, spricht sehr stark dafür dass ARL doch irgendwas richtig macht. AMD scheint selbst die Mainboard-Partner überrumpelt zu haben und drückt jetzt binnen 4-7 Monaten zwei CPU-Ausbaustufen in den Markt, mit denen sie in der Vergangenheit 4-7 Quartale bestritten haben. Irgendwas muss denen Druck machen und eins ist sicher: Raptor Lake und Meteor Lake sinds nicht, M4, Lunar Lake und Snapdragon X im Desktop auch nicht.

Wie ich schon letzte Woche zu den Mainboards postete:
Die CPUs wurden so kurzfristig vom eigentlich erwarteten, in Sachen Aufmerksamkeitskonkurrenz mit Intel naheliegenden Termin im Herbst nach vorne verlegt, dass die Mainboard-Partner nicht mehr reagieren konnten? Also entweder hat AMD tierisch Schiss vor Arrow Lake oder aber noch einen richtig fetten Konter (= Granite Ridge X) gegen selbigen in der Schublade.
Either way: :banane: :banane: :banane:

Her mit den Dingern. Nur hoffentlich nicht in der gleichen Woche, in der Intel uns die Samples von Arrow Link schickt :ugly:

Mein primärer Grund so einem "hab ich auf ner Messe gehört"-Gerücht zu glauben:
Es gibt keine Intel-Launches ohne AMD-Störfeuer.
Und nachdem AMD den normalen Ryzen 9000 deutlich vor den Intel-Launch gelegt hat...

Wird der SMT Wegfall im Multicore Benchmark nicht auch Nachteile mit sich bringen ?

Das müssen Tests zeigen. Prinzipiell sind die großen Intels seit längerem stark Power limitiert und für Arrow Lake werden sogar gesenkte MTPs gemunkelt. Da die P-Cores einfach mal idelnd in der Ecke rumstehen zu lassen, könnte am oberen Ende des Portfolios relativ wenig Auswirkungen haben. Zumal die neuen E-Cores ja scheinbar alles andere als klein und minimalistisch werden.

Die i5- und vor allem i3-Nachfolger stehen aber auf einem anderen Blatt. Da hat die Gerüchteküche ein dickes, fettes Erklärungsloch. (Meteor Lake? Deutlich mehr E-Cores?)
 
Welche Rolle spielt eigentlich der 5800x3d , welcher vor 6 Monaten noch eifrig empfohlen wurde? Die CPU ist dann doch sehr schnell gealtert. Der geringe Takt war einfach der Tod.

Vielleicht nehme ich nur noch AMD Prozessoren ohne 3dCache, da fallen die Anwendungsleistungen mit der Zeit nicht so krass ab.
Die CPU ist gleich schnell wie damals, es gibt nur Mittlerweile auch günstige Alternativen für Spieler die bereits ein AM4 board haben immernoch eine Empfehlung.
Als neu käufer je nach Anwendung Szenario den Nachfolger oder halt die kleineren Intels.
In Anwendungen war er schon immer etwas schlechter als die anderen 8 Kerner, trotzdem kann man mit ihm Rendern und anders zeugs machen. Nur wer das 90% der Zeit macht sollte halt was anders nehmen.

@Lichtspieler2000
"Mich dünkt AMD zieht die X3D Prozessoren auf den Herbst vor, da man sonst gegen Arrow Lake zu schlecht abschneiden würde. Die 15% was die non X3D als ES so drauflegen wird natürlich nicht reichen."

Wollen wir mal schauen die Alte layer der Intel Schublade höre ich seit Jahren. So richtig krass kam da jetzt noch nichts raus.
 
Nicht der geringe Takt, sondern der 3DCache altert und wird "langsamer", da die Dinger relativ heiß werden.
Im Grunde ist der 5800X3D gar nicht mehr wirklich schneller als der 5800X.
Im Frametime Index sind es "nur" noch 19%.
Stimmt das? Kann der 3DCache altern und an Leistung einbüßen???Kann ich jetzt technisch und logisch nicht nachvollziehen.
 
Zurück