News Ryzen 9000X3D: AMD optimiert 3D V-Cache mit neuen Treiber

Jeder Cache ist irgendwann voll. Und er bringt eben nicht bei jedem Spiel etwas -> Speichertransferrate und/oder geringere Zugriffszeit sinnvoll.

MfG
Raff
Das heißt wir brauchen beim Zen 6 16 Kerner mit 16 Core CCD nicht einfach nur 3D Cache, wir brauchen den doppelt so groß wie bisher ♥
 
Jo, immer druff. :D Allerdings skaliert das nicht linear (doppelter Cache = nicht ansatzweise doppelt so geil). Gibt's so eine Grafik eigentlich auch für CPUs?


MfG
Raff
 
War das nicht so das mir der Treiber bei einem Single CCD nichts bringt? Sprich 7800x3d.
Ich habe den Deinstalliert, weil der ständig im Hintergrund Ressourcen gefressen hat.
 
Die einzige Lösung ist eine Single CCD Lösung. Im Idealfall mit 16 Kernen.
Welche Spiele Profitiren von mehr als 8 Kernen so das der Aufpreis gerechtfertigt ist ?


Ich hoffe das die neuen X3D Modell mehr Takt bekommen als die Vorgänger.

Ich bin von einen 7600X auf den 7800X3D gegangen und habe bei viele meinen Spielen keine Verbesserung gemerkt.

Omsi2, Euro Truck Simulator 2, LOTUS sind so spiele die von CPU Takt Profitieren.

Microsoft Flight Simulator ist das einzige Spiel was ich habe von der X3D was gebracht hat.
 
Intel löst das Ganze um Längen eleganter.
Da bin ich bei dir.
Wenn ein Stück Software sich so derbe in das System einnistet dass sie es ohne Windows Neuinstallation quasi unmöglich macht auf eine andere CPU zu wechseln ist das Stück Software schlicht Müll (ja, es gibt Mittel und Wege das ganze über die Registry einigermaßen gerade zu bügeln, aber richtig sauber und komfortabel ist das nicht). Dafür gehört AMD geteert und gefedert.
Da nicht. Die CPU funktioniert ja auch ohne diesen und spezielle Software für eine bestimmte CPU-Sorte installiert der Ottonormaluser für gewöhnlich nicht, nur um dann andere CPUs zu verbauen. Fürs benchen ist es total mistig aktuell, aber für Endanwender gar kein wirkliches Thema und ich vermute einfach, AMD hat den für letztere geschrieben.
Dass AMD sich den Vorwurf gefallen lassen muss, ja. geteert und gefedert? Ist mMn kindisch bzw. etwas drüber.

Edit
Du beziehst dich hier halt auch auf das Verhalten des Treibers an sich, ich mich auf die Aussage zur verringerten Spieleleistung, die Dave getätigt hat.
Sind halt alle Dual-CCD-Ryzen langsamer in allen Spielen :ka:
Wenn 0,3% Unterschied zum schnellsten Spieleprozessor von AMD, dem 7800X3D alles sind, dann ist das in meinen Augen zu vernachlässigen. Die Art wie der bei Umbauten am System ärgert, hat mit der Aussage zur Leistung nichts zu tun.
 
Zuletzt bearbeitet:
Beim 7800X3D sollte der rein gar nichts ändern. Wie denn auch? Der ist dafür da die Prozesse aufs richtige CCD zu lenken. Wenns nur eins gibt, sollte sich das erledigt haben.
 
Aus dem Grund hatte ich meinen 7950X3D nach 2 Wochen zurück geschickt und mir den 7800X3D gekauft. Allerdings fühle ich mich mit dem 8 Kerner irgendwie nicht mehr richtig wohl. Ich hab irgendwie keine Ahnung was ich machen soll.
Das hört sich ja schon dezent verzweifelt an.
Kannst du überhaupt noch Zocken, geschweige denn Arbeiten?
Glaub so richtig Arbeiten kann man erst ab 20 Threads, darunter starten die Programme erst garnet :D:ugly:
 
Ich habe auch mit dem 7950X3D keine Probleme, wenn ein Game nicht auf dem Cache CCD läuft, weil es z.B: der GameBar noch nicht bekannt ist sag ichs ihr halt, dass das ein Spiel ist und starte das Game neu.

Wichtig ist auch die Datenbank für die Gamebar aufbauen zu lassen, das macht Windows aber nur wenn der Rechner idle ist (und man muss es nach einem Chipsatz Treiber Update wieder machen)... von Hand geht das dann in einem Terminal über folgenden Befehl, das dauert dann ca 15 Minuten in denen man nichts am Rechner machen sollte:

cmd /c start /wait Rundll32.exe advapi32.dll,ProcessIdleTasks

Am schlimmsten sind die Leute die zur Optimierung der Performance empfehlen die Gamebar etc abzuschalten, das ist mit einem 2 CCD X3D halt echt eine schlechte Idee außer man will selbst mit ProcessLasso o.ä. die Kerne zuweisen :D
 
Der Treiber beeinflusst auch Kleinigkeiten, hatte es mal kurz in Spielen getestet, mit aktivem Treiber hatte ich tatsächlich etwas bessere Frametimes (weil die Last scheinbar besser verteilt wurde auf die einzelnen Kerne - quasi das was bislang der Powerplan von Windows machte).

Ob diese paar % im CPU Limit dann dem Nutzer helfen, kA muss jeder selbst entscheiden, ich habe den Treiber aktiv und bislang keine negativen Einflüsse gehabt (mangels 7950X3D - und ich wechsel auch nicht von einem 2 CCD Chip auf einen mit nur 1 CCD wieder zurück -> dort sind die Probleme am stärksten).
 
Zuletzt bearbeitet:
Ein Bug ist zu beheben. Ob man jetzt selbst von ihm betroffen ist oder ob einem das nicht wichtig erscheint, ist da erstmal egal.

Nachdem ich das erste mal davon gelesen habe, bin ich im Netz über verschiedene Aussagen gestolpert. Teilweise sprach man da auch von einem Verlust von 10 - 15%.
Mag dem einen egal sein. Dem anderen nicht.
Verschenken braucht man es aber so oder so nicht.


War das nicht so das mir der Treiber bei einem Single CCD nichts bringt? Sprich 7800x3d.
Ich habe den Deinstalliert, weil der ständig im Hintergrund Ressourcen gefressen hat.

Sollte technisch korrekt sein.
Aber „Ressourcen fressen“?
Und deswegen „sollte“:

7800X3D mit dem 3D Cache Treiber...
Gibt's da auch mal mehr als nur Vermutungen, niemand scheint wirklich zu wissen was Sache ist?

Ist nämlich auch richtig.
Mit einem CCD braucht man ja nichts steuern.
Anderseits findet man auch da beim 7800x3d Aussagen, das mittels Treiber und Gamebar die Prios für Spiele richtig gelegt werden sollen.
Wohl vergleichbar mit der BIOS Einstellungen fürs CCD (Cache/Driver/Freq)

Aber so was handfestes von AMD bei dem sie auch mal schreiben was denn wie überall benötigt wird, habe ich bisher nicht finden können.
Brauchen die Dienste? Welche dann alles?

Also macht man am Ende das einzig vernünftige:
Man setzt keine komischen uTube Tweaks im OS um und wenn der Chipssatztreiber den 3D Treiber mit installieren will, dann macht man das artig mit. Irgendwie ist AMD ja der Meinung dass er auch beim 7800x3d drauf gehört.
 
Der Chipsatz-Treiber sorgt bei Ryzen-CPUs generell für ein besseres Energie-Management, was die Leistung in Spielen erhöhen kann. Den sollte man immer installieren, auch bei einem 7800X3D natürlich. Bedenkt nur, dass sich bei installiertem X3D-Prozessor dann der Core Parking Bug auf das System schleicht. Wechselt ihr danach auf eine Dual-CCD-CPU, dann werden alle Kerne in CCD 2 beim Spielen geparkt. Abhilfe schafft dann nur eine Windows-Neuinstallation.
 
Wo steckt eigentlich @PCGH_Dave, wenn man mal flott geprüft haben möchte, ob der neue 3D V-Cache Performance Optimizer auch bei Ryzen 7000X3D und 5000X3D was bringt? :D
Und vor allem möchte der dumme Anwender (ich doch niiicht <zwinker> ^^) hier wissen, ob die reine Installation reicht <check>, oder ob man dann noch etwas machen muss?
Wird da ein Tool oder so mitinstalliert, dass man dann laufen lassen muss?
Ich habe einen 5800X3D auf Am4 X570.
Danke für ne kurze Info für alle.
 
Jeder Cache ist irgendwann voll. Und er bringt eben nicht bei jedem Spiel etwas -> Speichertransferrate und/oder geringere Zugriffszeit sinnvoll.

Beim 5800X3D war es noch so, dass es da nahezu keinen Unterschied gemacht hat, ob man den mit absolut gurkigen DDR4 2133 und Latenzen aus der Hölle oder dem besten Übertakter RAM betrieben hat. Der Unterschied lag im schlimmsten Fall bei ein paar Prozent, nicht mehr. Deshalb war die CPU auch sehr sympathisch.
 
Wenn ein Stück Software sich so derbe in das System einnistet dass sie es ohne Windows Neuinstallation quasi unmöglich macht auf eine andere CPU zu wechseln ist das Stück Software schlicht Müll (ja, es gibt Mittel und Wege das ganze über die Registry einigermaßen gerade zu bügeln, aber richtig sauber und komfortabel ist das nicht). Dafür gehört AMD geteert und gefedert. Intel löst das Ganze um Längen eleganter.
Wieso willst du auf einen 16 Kerner umsteigen, wenn 99,9% der Spiele eh nur 8 Kerne wollen udn AMD prozessoren somit in der regel schnelelr laufen, wenn die 2te CCD, der langsamer ist,d eshalb vorsorglich abeim Spielen ausgeschaltet wird, damit die volle Leistung des schnellen Caches auch tatsächlich genutzt werden kann?

Intel löst das übrigens äußerst schäbig.
Die E-Cores sind in Spielen sehr langsam und nehmen den P-Cores nur unnötig den Strom weg.
Mit der falschen CPU und dem falschen TDP-Limit sinkt die Geamtleistung des Systems mitunter drastisch.
Es kann sich manchmal also durchaus lohnen bei Intel die E-Cores zu deaktivieren, damit die P-Cores auch die angedachten Boostwerte überhaupt erreichen können.
Vor allem diese 65W Dinger sind auch so schon nicht in der Lage die volle Leistung zu bringen.
Intels prinzip geht also nur auf, wenn man im BIOS absichtlich die Handbremse löst.
Thema ineffiziente Wattschleuder, Thema langfristige OC Kernschmelze (bei den x700ern udn x900ern siehe Berichte).

Man kann das also mit unterschiedlichen Augen sehen, ob was gut oder schlecht ist.
Ob man für bestimmte Vorteile dann auch Nachteile in Kauf nimmt, oder nicht.

Yes! Druff damit, neustarten, fertig.
Vielen Dank :-)
 
Jeder Cache ist irgendwann voll.
Wäre schlimm, wenn nicht. ;)
Jo, immer druff. :D Allerdings skaliert das nicht linear (doppelter Cache = nicht ansatzweise doppelt so geil). Gibt's so eine Grafik eigentlich auch für CPUs?
Wäre vermutlich noch mal weniger aussagekräftig. Es kommt immer drauf an, wie groß der Datensatz ist, auf den zugegriffen wird und wie die Zugriffe auf denselben verteilt sind. Aus dem Bauch raus ist könnte vor allem letzteres bei Grafikberechnung deutlich homogener sein.
Ich bin von einen 7600X auf den 7800X3D gegangen und habe bei viele meinen Spielen keine Verbesserung gemerkt.
Wie viele dieser Spiele waren vorher CPU-limitiert?
Beim 5800X3D war es noch so, dass es da nahezu keinen Unterschied gemacht hat, ob man den mit absolut gurkigen DDR4 2133 und Latenzen aus der Hölle oder dem besten Übertakter RAM betrieben hat. Der Unterschied lag im schlimmsten Fall bei ein paar Prozent, nicht mehr. Deshalb war die CPU auch sehr sympathisch.
Naja, mehr Cache heißt weniger Zugriffe auf den RAM heißt die Geschwindigkeit vom RAM hat weniger Einfluss, aber halt nicht keinen. Und es ist ja von vornherein nicht so, dass RAM spielentscheidend ist.
 
Naja, mehr Cache heißt weniger Zugriffe auf den RAM heißt die Geschwindigkeit vom RAM hat weniger Einfluss, aber halt nicht keinen. Und es ist ja von vornherein nicht so, dass RAM spielentscheidend ist.
Beim Pentium 4 war er das mitunter. Erinnert sich noch jemand? Start mit RDRAM, der war jedoch teuer, also folgte ein Chipsatz mit SDR-Kompatibilität ... und das ohnehin IPC-schwache Gerät kam gar nicht mehr aus dem Quark. :ugly:

MfG
Raff
 
Beim Pentium 4 war er das mitunter. Erinnert sich noch jemand? Start mit RDRAM, der war jedoch teuer, also folgte ein Chipsatz mit SDR-Kompatibilität ... und das ohnehin IPC-schwache Gerät kam gar nicht mehr aus dem Quark. :ugly:

Dann kam Northwood und hat es mit dem doppelten Cache geradegebogen. Da lief das ganze auch mit SD RAM akzeptabel und dann kam sowieso DDR1.

Aber insgesamt war RD RAM schon ein faszinierendes Stück Technik. PC 1066 hatte den gleichen Realtakt, wie DDR5 8533MT (533MHz) und das vor über 20 Jahren! Ist sogar in meiner PS3 verbaut, genau wie der Cell Chip, ein anderes faszinierendes Stück Technik. Beides sind ein gutes Beispiel, dass Innovation nichts bringt, wenn sie nichts abliefern kann (da würde nur noch eine GPU mit HBM fehlen und die PS3 wäre perfekt)
 
Zuletzt bearbeitet:
Zurück