News Ryzen 9000X3D: AMD optimiert 3D V-Cache mit neuen Treiber

Welche Ressourcen soll das denn fressen?
Bei mir läuft's völlig unauffällig im Hintergrund und zieht quasi Null.
Keine Probleme mit einem komplett installierten Chipsatztreiber.
Aber „Ressourcen fressen“?
Und deswegen „sollte“
Ich muss das mal kurz richtig stellen.
Was ich damit meine ist das lauter kleine Programme im Hintergrund laufen. Zusammen können die schon ordentlich fressen. Zuletzt ist der Adobe Reader rausgeflogen weil sich der Autoupdater hat nicht deaktivieren lassen.
Was sich auch zum Beispiel mit dem Taskmanager (nach Cpu Last geordnet) beobachten lässt, ist das diese Programme immer wieder hochkommen. Wie in einer Lavalampe.
Was zur Folge hat das Kerne ständig boosten und nicht in den Idle gehen, da sie ständig angesprochen werden.
Und am Ende hat man statt 0,2~0,4% Hintergrund Last bei Idelnden Kernen, 2~4% mit boostenden Kernen.
Das liegt dann aber nicht unbedingt nur an einem sondern vielen Hintergrundprogrammen.
 
Beim Pentium 4 war er das mitunter. Erinnert sich noch jemand? Start mit RDRAM, der war jedoch teuer, also folgte ein Chipsatz mit SDR-Kompatibilität ... und das ohnehin IPC-schwache Gerät kam gar nicht mehr aus dem Quark. :ugly:
Ich kann mich an keinen einzigen Rechner in meinem Umfeld mit RDRAM erinnern. Zwischen meinen beiden ersten Rechnern lag nicht viel Zeit und das waren ein P3 mit SDR und ein P4 mit DDR. Waren aber auch beides preisleistungsstarke Komplett-PCs und so was gab es vermutlich einfach nicht mit RDRAM.
PC 1066 hatte den gleichen Realtakt, wie DDR5 8533MT (533MHz) und das vor über 20 Jahren!
Naja, die einzige Nische, für die das nützlich war, waren Systeme, die wenig, aber dafür schnellen Speicher brauchten. In allen anderen Szenarien war das nur Verschwendung.
Ist sogar in meiner PS3 verbaut, genau wie der Cell Chip, ein anderes faszinierendes Stück Technik. Beides sind ein gutes Beispiel, dass Innovation nichts bringt, wenn sie nichts abliefern kann (da würde nur noch eine GPU mit HBM fehlen und die PS3 wäre perfekt)
Für mich ist der Cell-Prozessor in der PS3 hauptsächlich ein gutes Beispiel dafür, dass Sony seinen Entwicklern gegenüber scheinbar sadistisch veranlagt war und dass man selbst mit Hardware, die sich höchstens mittelmäßig gut für einen Anwendungszweck eignet, gute Ergebnisse erzielen kann, wenn man nur genug Arbeit reinsteckt. Aber faszinierend sind die Entwicklungen, die in dieser Zeit stattgefunden haben, schon. Ich bin aber trotzdem froh, dass heutige Hardware sich ähnlicher ist, so dass sich die Spiele besser portieren lassen.
 
Was sich auch zum Beispiel mit dem Taskmanager (nach Cpu Last geordnet) beobachten lässt, ist das diese Programme immer wieder hochkommen.
1718267779667.png


Machste wohl was falsch :D

Und Windows Dienste deaktivieren ist einfach unsinn, da die, welche nicht aktiv genutzt werden auch inaktiv bleiben.
Deaktivieren kann sogar viele negative Auswirkungen haben (Fehlererkennung usw.).
 
@OptimiertesSpielen

Ich kann dir nur vorschlagen dich von solchen Sorgen zu lösen und die alten Computerbild Artikel zu begraben.
Schlankheitskuren bewirken in modernen OS meistens genau das Gegenteil von dem was man will: Weniger Leistung dafür mehr Verbrauch.

Ist ein Unterschied ob deine Maus zwei Koffer zum Treiber mitinstalliert und die Software dir ungewollt überall mitquatscht oder ein MS Dienst einfach seine Arbeit macht.
 
Beim 5800X3D war es noch so, dass es da nahezu keinen Unterschied gemacht hat, ob man den mit absolut gurkigen DDR4 2133 und Latenzen aus der Hölle oder dem besten Übertakter RAM betrieben hat. Der Unterschied lag im schlimmsten Fall bei ein paar Prozent, nicht mehr. Deshalb war die CPU auch sehr sympathisch.
Was?! Wer behauptet denn sowas?!

Zwischen 2133 und optimiertem RAM liegen welten, auch bei einem 5800x3D. Das können mal eben 30% und mehr sein. Das sind beinahe 2 CPU Generationen.

Beim 7800x3D hat Dave 33% mehr avg fps gegenüber default gemessen und sogar 38% mehr P1 fps. Und gerade die P1 fps steigen bei x3Ds besonders stark an. Das ist beim 5800x3D nicht anders.

@Darkearth27 hat bestimmt noch irgendwo Benchmarks von seinem alten 5800x3D rumliegen.
Ansonsten mal in den Community Benchmark zum CP2077 8 Kern Fiasko schauen, der 5800x3D mit RAM OC hat die Default 7800x3Ds komplett zerlegt. Und wir reden hier vom 58x3D der als Serie 3200 MT/s hat während der optimierte bei 4000 MT/s lag. Du schlägst auch noch 2133 MT/s vor, das ist nochmal mehr als der 3200->4000 MT/s sprung.

Warum hält sich dieses faktisch falsche Gerücht nur so hartnäckig?

Wie lautet noch gleich Brandolinis Gesetz: „Das Widerlegen von Schwachsinn erfordert eine Größenordnung mehr Energie als dessen Produktion.“
 
Zuletzt bearbeitet:
Daher sind wir auch immer so beschäftigt.

(Mit dem Beweisen, nicht mit dem Schwachsinn. Bevor einer lustig wird. :P)
Ich wechsel eh demnächst auf den 58x3D, dann schreib ich in den Semesterferien einen Community Artikel zu dem Thema.
Gefühlt jeder zweite behauptet sowas, weil irgendwelche "Tech Influencer" ohne Plan von CPU/RAM sowas verbreiten.
Aber du kennst das ja...

Sollte eigentlich spätestens seit dem RAM OC Artikel widerlegt sein...
Aber dort ist ja kein 5800x3D, "wo das noch so war" :ugly:
 
Anhang anzeigen 1462301

Machste wohl was falsch :D

Und Windows Dienste deaktivieren ist einfach unsinn, da die, welche nicht aktiv genutzt werden auch inaktiv bleiben.
Deaktivieren kann sogar viele negative Auswirkungen haben (Fehlererkennung usw.).
Das ist die Detail Liste die du da Zeigst.
Den Extrem Fall hatte ich mal mit meinem 7700k da sind die Kerne wie verrückt rum gesprungen und haben sich gar nicht mehr beruhigen wollen.
Und ich deaktiviere nicht wahllos Dienste. Nur die die ständig starten ohne das ich jemals davon etwas genutzt hätte. Und nicht Systemkritisch ist. Zum Beispiel muss nicht die Corsair App im Hintergrund laufen nur weil ich eine Tastatur davon habe. Einmal programmiert und fertig.
 
Ja natürlich ist das die Detailansicht, nach CPU Last sortiert, genau das was du beschrieben hast, nur eben nicht optisch dargestellt.

Denn der Taskmanager alleine kann schon 3% Last erzeugen, wenn er Grafiken abbilden soll (KANN!).
 
Zuletzt bearbeitet:
Warum hält sich dieses faktisch falsche Gerücht nur so hartnäckig?
Weil du über den Tellerrand auf die normalen Nutzer schauen musst.
Die lesen dann nämlich solche Artikel mit solchen Benchmarks bei uns:

1718273589164.png


Manuelles Timing-Tuning inklusive der Widerstände trennt erst die Spreu vom Weizen. Du weißt ja selbst, dass XMP nichts wert ist, was die obigen Zahlen beim 5800X3D beweisen. Nicht jeder möchte drei Monate lang seinen RAM optimieren, wie ich das gemacht habe :D
 
Ja natürlich ist das die Detailansicht, nach CPU Last sortiert, genua das was du beschrieben hast, nur eben nicht optisch dargestellt.

Denn der Taskmanager alleine kann schon 3% Last erzeugen, wenn er Grafiken abbilden soll (KANN!).
Von der Detailliste habe ich nicht gesprochen. In der siehst du nicht wenn Programme immer wieder starten.
Zuletzt der Autoupdater von Adobe.
Hat regelmäßig Ruckler im Spiel ergeben. Alle 2-3 min.
Also Taskmanager auf und plop das war er dann auch.
Pdf-Xchange ist auch ein gutes Programm und lässt auch bearbeitung zu. ^^
 
Weil du über den Tellerrand auf die normalen Nutzer schauen musst.
Die lesen dann nämlich solche Artikel mit solchen Benchmarks bei uns:

Anhang anzeigen 1462309
Ihr seid schuld!!! :ugly:

Manuelles Timing-Tuning inklusive der Widerstände trennt erst die Spreu vom Weizen.
Natürlich.

Manuell ist der gain bei non-x3D aber größer als bei x3Ds. Das verhältnis des Gains bleibt ähnlich.
Daher ist es egal ob XMP oder optimiert, x3Ds profitieren immer schlechter als non-x3D, aber definitiv nicht "homöopatisch wenig" wie es gerne behauptet wird.

Als hypothetisches Beispiel bei Greedfall:
Statt 4% bekommt der x3D mit manuellen Settings halt 10%. Der 5800X statt 12% dann halt 22%.

Aber da lassen wir uns mal überraschen wenn ich einen 58x3D mein Eigen nenne und den Community Artikel schreibe.

Nicht jeder möchte drei Monate lang seinen RAM optimieren, wie ich das gemacht habe :D
Muss man ja auch nicht, wie du selbst weißt.
98% bekommt man innerhalb von 5-10 Minuten Timings eintippen und 3-6std Stabilitätstest, was man bei XMP/EXPO eh machen sollte. Also effektiv 5-10 minuten Mehraufwand gegenüber "XMP enable".

Die letzten 2% sind dann nur in m^n minuten machbar, mit m=24-teststunden pro tag und n=anzahl der Timings plus anzahl der widerstände durch die teststunden pro tag.
(bsp: 8 std, 20 timings, 10 widerstände -> 32768 minuten -> 22d 18std)

Und ja, ich habe mir gerade wirklich eine Formel überlegt.:lol:

Edit: und nein, die Formel funktioniert nicht wirklich, weil sie exponentiell abhängig von der Testdauer ist, was keinen Sinn macht ^^

Edit 2: Sinnvoll wäre m*n/2 in tagen mit m=24-teststunden pro tag und n=anzahl der Timings plus anzahl der widerstände durch die teststunden pro tag.
Dann wäre es als Beispiel mit 8std, 20 timings, 10 widerstände: 3,75*16/2 = 30 tage
oder mit 4std, 20 timings, 10 widerständen: 7,5*20/2 = 75 tage
 
Zuletzt bearbeitet:
Glaubst du dass das irgendein „normaler“ User wirklich macht? Da wird XMP aktiviert und um Stabilität wird sich erst gekümmert wenn tatsächlich mal ein Spiel abstürzt und selbst dann erst wenn das häufig passiert.
ich sagte nicht, dass der "normale User" das macht, sondern dass man das machen SOLLTE ;)
Man sollte auch nicht seine Zigaretten aufn Boden werfen, trotzdem macht das der "normale User"

Erstmal wird das wohl unter „Spiel ist instabil“ abgeleckt.
Klassiker.
 
Edit: und nein, die Formel funktioniert nicht wirklich, weil sie exponentiell abhängig von der Testdauer ist, was keinen Sinn macht ^^

Edit 2: Sinnvoll wäre m*n/2 in tagen mit m=24-teststunden pro tag und n=anzahl der Timings plus anzahl der widerstände durch die teststunden pro tag.
Dann wäre es als Beispiel mit 8std, 20 timings, 10 widerstände: 3,75*16/2 = 30 tage
oder mit 4std, 20 timings, 10 widerständen: 7,5*20/2 = 75 tage

Ach was sollen wir da lange rum rechnen, sagen wir einfach:
Wenn du dir heute einen 7800x3d kaufst, dann bist du fertigt wenn der 9x00x3d verfügbar ist :P
 
Ach was sollen wir da lange rum rechnen, sagen wir einfach:
Wenn du dir heute einen 7800x3d kaufst, dann bist du fertigt wenn der 9x00x3d verfügbar ist :P
Sofern man 100% will, ja :lol:

Aber für den "gehobenen User" reicht auch eins der Presets. Eintippen, testen, zocken.

Gibt immerhin mehr Performance bei gleichem Takt als JEDEC->XMP/EXPO.
 
Ein Optimierer, also etwas was an schlechtem versucht es weniger schlecht zu machen, tja, ich bleibe dabei, CPUs wo nur die Hälfte der Kerne den zusätzlichen Cache hat werde ich weiter meiden.
Wird wohl wieder nur der 9800X3D die einzig empfehlenswerte CPU werden.
 
Dafür gehört AMD geteert und gefedert. Intel löst das Ganze um Längen eleganter.
Was löst Intel denn besser? Die haben das Problem nicht, weil sie aktuell gar keinen Zusatzcache haben. Sie lösen ihr Problem vieleicht besser (E-Cores / P-Cores Lastverteilung) das will ich gar nicht abstreiten. Allerdings ist das Problem was Dave aufregt (was ich an seiner Stelle verstehen kann) doch kein Problem der Praxis! Denn wer wechselt ständig seine CPUs? Niemand und wenn dann keine Neuinstallation stattfindet, naja, der ist halt auch selber schuld. Jedes Stücke neue Hardware (selbst eine olle SSD) bedingt bei mir schon seit jeher ein clean Install. Aber du gehörst auch zur Fraktion online Update und bügelst Win11 einfach über Win 10 drüber?
Ein Optimierer, also etwas was an schlechtem versucht es weniger schlecht zu machen, tja, ich bleibe dabei, CPUs wo nur die Hälfte der Kerne den zusätzlichen Cache hat werde ich weiter meiden.
Wieso?

Der 3D Cache ist grds. positiv und wenn dir 8 Kerne reichen solltest du eh immer auf den 8 Kerner setzen! Wenn du 16 Kerne brauchst ist 3D Cache eine Option, mehr nicht. In stark parallelisierbaren Workloads gibt es Threadripper mit Cache auf allen Kernen, die Latenzen werden in solchen Workloads eher keine Rolle spielen.
 
Zurück