Sammelthread AMD Ryzen

Sammelthread
Ich weiß nicht mehr weiter.
Dachte die Cpu hat einen weg wegen dem Cpu Over Temperature Fehler und den angeblichen 5000000 Grad.

Und eben begrüßte mich der Bildschirm mit der Meldung "Cpu Over Temperature"
Temps sind zwar unter Cinebench R20 bei ca. 90 Grad aber das ist ja normal bei dem 5800x.

Kann defekter Ram der Auslöser sein oder das Netzteil?
 

Traut sich da jemand ran? :D

Ich werde das sicherlich in irgend einer Form nutzen, sobald der letztes Jahr bestellte 5900X in diesem Jahr noch eintreffen sollte.

Meinen als Bronze klassifizierten 3700X konnte ich aber schon mit Hilfe der alten Version noch ein gutes kleines Stück optimieren, aber das reicht vorläufig auch.
 
Der Beitrag ist aber nicht von Igor selbst, sondern ein Gastbeitrag von "Xaver Amberger (skullbringer)"
die letzte version hat er aber sogar in nem viedeo empfohlen, wie toll das doch wäre.
am ende war und ist das einfach unnützer müll.....

und wenn man das video von der bauer zu igor sieht rundet das das bild von diesem mehr als seltsamen typen ziemlich gut ab.
 
@Birdy84

Du hattest doch letztens nach Clockstretching gefragt.
Hier mal ein sehr deutliches Beispiel.

(CTR 2.0 RC3)
1612405098449.png

Ist 100% nach Anleitung erfolgt. (Bis auf die manuelle Änderung der Limits auf die Stock Werte von 142/95/140 im Tool)
Also keine Ahnung warum er vorschlägt man solle irgendwas an der Spannung ändern..
 
Zuletzt bearbeitet:
Guten Morgen.

Ich hab mich die letzten beiden Tage mal mit LLC und dem Curve Optimizer beschäftigt.
MB= Gigabyte Aorus Pro V1 / Bios 13a
CPU= 5600X
Vorab noch... ich habe bei meinem System PPT TDC EDC von 76/60/90 auf 88/80/110 angehoben.

Getestet habe ich immer mit CB23 Multi und manchmal auch Single.
Zwischendurch immer nur 2 Durchläufe, am Ende dann 10 Minuten.
AC Valhalla war mein Testspiel
PC für längere Zeit auf Idle
Homeoffice

LLC auf Hoch sind die gleichen Spannungswerte wie auf Automatik.
D.h. Turbo gibt unter Volllast etwas mehr Spannung und Mittel etwas weniger als Automatik/Hoch.

Mit dem CurveOptimizer habe ich mich bis auf -25mV allcore runtergearbeitet - Alles O.K.
Danach noch LLC auf Mittel - Alles O.K.
Dann Spannung allcore auf -30mV - Kurz vor Ende beim 10Min-Multi von CB23 ist CB eingefroren.

Mein 24/7 Einstellungen sind nun also LLC wieder auf hoch und den Optimizer zurück auf -25mV allcore.
Gemeinsam mit den PPT TDC und EDC Einstellungen bewegt sich der CPU-Takt im Multi von CB23 jetzt im Bereich von 4550 - 4600 MHz.
Werte sind im Multi ~ 11500 und im Single ~ 1530.
(Multi ist zuvor mit dem neuen Bios 13a, ohne Optimierungen, runter auf 10400 gefallen)

Ich könnte zwar jetzt noch einzelne Kerne testen und ev. beim einen oder anderen noch auf -30mV runtergehen, aber die paar Promille Leistungsgewinn spar ich mir.
Natürlich ginge auch noch PPT TDC und EDC erhöhen, aber mir passt es so.

Vielleicht nehme ich mir die nächsten Tage noch meinen RAM zur Brust, mal schauen. (2x16GB Ballistix 3600 CL16)
 
@Birdy84

Du hattest doch letztens nach Clockstretching gefragt.
Hier mal ein sehr deutliches Beispiel.

(CTR 2.0 RC3)

Ist 100% nach Anleitung erfolgt. (Bis auf die manuelle Änderung der Limits auf die Stock Werte von 142/95/140 im Tool)
Also keine Ahnung warum er vorschlägt man solle irgendwas an der Spannung ändern..

Joa da liegt zu wenig Spannung an würde ich sagen xD
 
Kann nicht sein, wird doch sogar empfohlen, durch das Tool, es zu verringern..

Aber ja natürlich liegt da zu wenig Spannung an. Wollte nur mal demonstrieren, wie man clock stretching besonders gut erkennen könnte.

Aber das hat das ctr Tool bei vielen so geschafft, auch in der ersten Version.
 
Durch einen mutmaßlichen Corona-Fall auf Arbeit hatte ich jetzt ein wenig Zeit übrig und habe auch noch etwas herumgespielt. Das Ergebnis ist beeindruckend und ernüchternd zugleich: Beeindruckend deshalb, weil PBO wirklich extrem wirksam ist, wenn man ihm manuell einen Rahmen setzt und ernüchternd, weil es jede händische Optimierung an Sinn (und teilweise an Spaß) verliert.

Der langen Rede kurzer Sinn: PBO aktiviert und mittels cTDP die "ideale" Verbrauchsobergrenze für die jeweilige CPU durchzuprobieren führt mit Unterschieden im Nachkommabereich anscheinend zu den selben Ergebnissen bei Takt- und Leistungsaufnahme wie komplett manuelle Einstellungen oder Curve-Optimierung.

Bei meinem 5600X war es eine cTDP von 80 Watt, die dafür gesorgt hat, dass PBO auf allen Kernen 4,6 (+/- 0,075) Ghz anlegt.
Wie strikt die cTDP eingehalten wird, könnte vom Board abhängig sein, auf meinem B550-A Pro ist es eine harte Grenze. Die Temperatur bleibt dann auch mit Dauerstress bei entspannten 60°C mit einer 240er-Wakü.

Bei 65 Watt, also der offiziellen TDP, ist bei ca. 3,7 Ghz all-core und ca. 4,8 Ghz single-core Schluss.

Das single-core Ergebnis ändert sich übrigens auch mit mehr TDP-Spielraum kaum, schwankender Spitzenwert waren hier 4,85 Ghz, was aber ganz ordentlich ist.
Wie zu erwarten, treibt Singlecore-Stress die Temperatur hoch, da kam ich schnell an die 80°C, egal mit welcher TDP. Das Limit ist hier bekanntermaßen nicht die Kühler-Kapazität, sondern die Wärmeleitung ab Heatspreader aufgrund der verringerten Übergabefläche.

Interessant: Die geringstmögliche cTDP von 45 Watt erlaubt immer noch 3,7 Ghz all-core, jedoch "nur" noch 4,2 Singlecore. Außerhalb von synthetischen Singlecore-Stresstests reicht der Kühler bei dieser Einstellung einen Urlaubsantrag ein.

Beim Zocken äußert sich das bei mir gar nicht, denn meine RTX 2060 kann man auch mit einem versuchsweise auf Stromsparen getrimmten Vermeer nicht CPU-limitieren. Hier würden mich praktische Vergleichswerte von Besitzern stärkerer Grafikkarten sehr interessieren. :stick::)
 
Alles ausprobiert, es kommt leider zum selben Fehler. F12 wurde auch installiert und mit Load optimized Defaults getestet, auch hier kommt es weiterhin zum Fehler. Auffallend ist, dass das System jetzt häufiger im Idle abstürzt, was in letzter Zeit (mit LLC auf High) nicht mehr aufgetreten ist.



Naja, ich versuche die Systemstabilität zu testen.... Ich werde Windows nochmal auf einer älteren SSD neuinstallieren, um die Samsung 970er ausschließen zu können.

Ansonsten wurde bereits die Grafikkarte ausgetauscht, der RAM in verschiedenen Kombinationen getestet. Es kam immer wieder beim Starten von AC Origins zum Absturz.

Hm, das klingt dann nach Hardware-Defekt auf seiten CPU o. Mainboard, wenn das mit F12-Bios und Defaults nicht sauber läuft. Btw, im Luxx-Forum haben wir erstmal gelernt, dass "Load Optimzed Defaults" fürs saubere Zurücksetzen der UEFI-Einstellungen bei GB-Boards nicht ausreicht! Man muss einen CMOS-Clear + "Load Optimzed Defaults" durchführen (mach ich normalerweise nur vor und nach dem Flashen).

Das kann ich bestätigen und habe es auch schon mehrfach empfohlen. Mache es immer so, nachdem ich mal testweise noch Settings im AMD CBS-Menu gefunden habe, die hätten zurückgesetzt sein müssen.

Also ich habe auch einen CMOS-Reset zusammen mit "Load Optimzed Defaults" durchgeführt. Leider stürzte das System immer noch beim Starten von AC Origins ab.

Zusätzlich habe ich noch eine andere SSD angeschlossen und ein frisches Windows aufgesetzt. Auch hier kommt es zu Abstürzen beim Starten von AC Origins (Fehlercode 41, wie immer....). Eine Sache war jedoch auffällig: AC Origins lief wieder 10 Minuten flüssig bis ich selbst das Spiel beendet habe. Anschließend wollte ich das System neustarten, bei welchem folgender Bluescreen aufgetreten ist: Reference_by_Pointer. Im Ereignis-Log war trotzdem nur die ID:41 eingetragen. Nach dem Bluescreen verfiel das System aber wieder in das alte Muster, sprich im Idle mehr oder weniger stabil, beim Starten von AC Origins Absturz.

Ich gehe mal nicht davon aus, dass es am Spiel selber liegt, daher werde ich mal heute Gigabyte und/oder AMD wegen einer Retoure anschreiben....

 
Auf welcher Spannung lohnt es sich für einen höheren FLCK drauf zu treten ?
vllt geht ja noch was
Weiß jetzt nicht 100% ob ich es richtig verstanden habe, aber mein FCLK = Infinity-Fabric läuft auf 1900MHz stabil mit einer SoC-Voltage von 1125mV. Bis 1200mV gilt als sicher, wobei niedrigere Werte zu bevorzugen sind und hohe Werte offenbar auch zu Problemen führen können. Natürlich musst du auch gucken ob dein RAM dann den "IF-Takt*2" packt, also in diesem Fall 3800MHz. Hier musst du dann mit der Spannung und eventuell mit den Timings ebenfalls raufgehen, bis es stabil läuft. Es zahlt sich bei Ryzen jedoch stark aus das IF zu übertakten.
 
@ Mahoy:

Wenn ich es richtig verstanden habe, hast du einfach PBO aktiviert und dann per cTDP eine gewünschte Leistungsobergrenze in W festgelegt.
Sollte ja im Prinzip aufs gleiche rauskommen wie wenn ich PBO aktiviere und bei PPT die W-Obergrenze eintrage.

Wobei PPT beim 5600X standardmäßig auf 76W ist und nicht auf 65.
Daher war deine Multileistung bei deinen Tests so niedrig.
Umgekehrt natürlich ist 80W nur um 4W mehr, was dir jedoch schon zu einem guten Takt verholfen hat.

Bei meinem Gigabyteboard wird der Takt im Multi gefühlt mit jedem neuen Bios weniger.
Std waren beim 13a ~ 4200 MHz in CB23.
Der Sprung auf 88W hat schon mal einen schönen Schub gebracht und mit UV sind ca. noch einmal 100MHz draufgekommen und natürlich eine Spur weniger Verbrauch und Temps im Alltag.


Ich habe eine 2080ti und spiele in WQHD.
Bis jetzt war noch kein einziges meiner Spiele CPU limitiert.
Mein Sohn steht sogar in Warezone auf den limitierten 142FPS an.
 
Wenn ich es richtig verstanden habe, hast du einfach PBO aktiviert und dann per cTDP eine gewünschte Leistungsobergrenze in W festgelegt.
Sollte ja im Prinzip aufs gleiche rauskommen wie wenn ich PBO aktiviere und bei PPT die W-Obergrenze eintrage.
Ja, das ist egal. Zu beachten ist lediglich, dass cTDP im Regelfall PPT "überstimmt". Wenn man die cTDP offen (bzw. bei manchen Boards auf "Auto") lässt, ist das aber kein Problem.

Mir ging es darum aufzuzeigen, dass man mit der simpelsten Einstellung so ziemlich dasselbe erreichen kann, ohne die erweiterten CPU-Einstellungen auch nur anschauen zu müssen. Für uns hier ist das eher uninteressant, weil um jedes Mhz mehr bei jedem Watt weniger gekämpft wird (Ich habe mir meine händisch ermittelten Werte auch notiert und dann wieder eingetragen ... :D), aber wenn man Anfragen zu "Ryzen-OC für Dummies" beantworten will, kann man das im Hinterkopf behalten.
 
Ob mit 4000mhz auf dem ram mit einem Fclk von 2000 ...ergo Teiler 1-1

oder

4400mhz auf den ram und Fclk 1200 ...ergo Teiler 2-1 macht in 3d benches so gut wie keinen messbaren Unterschied bei mir
 
Du bekommst 2000MHz auf dem IF stabil?? Haste mal einen Screenshot?
Viele sind froh, dass 1800MHz stabil laufen und 1900MHz sind normalerweise Top-End.

Und klar, IF 1200MHz ist natürlich völlig benackt. Das IF sollte man nicht asynchron und schon gar nicht auf halber Geschwindigkeit laufen lassen.
 
Hallo, bin jetzt vom Rayzen 9 3900X auf den Rayzen 7 5800X gewechselt, dachte er ist besser. Würde es keinem empfehlen, wenn dann gleich auf den 5950X. Er läuft mit 4850Mhz im Boost und 4575Mhz all core und kommt mit der Latency auf 56,8ns bei 4x 3800! aber im allgemeinen ist der 3900X vom gefühl her besser gewesen !
 

Anhänge

  • Screenshot 2021-02-03 163607.png
    Screenshot 2021-02-03 163607.png
    708,8 KB · Aufrufe: 25
  • Screenshot 2021-02-04 142912.png
    Screenshot 2021-02-04 142912.png
    296,5 KB · Aufrufe: 18
  • Screenshot 2021-02-04 231109.png
    Screenshot 2021-02-04 231109.png
    578,9 KB · Aufrufe: 13
  • Screenshot 2021-02-04 234848.png
    Screenshot 2021-02-04 234848.png
    695,8 KB · Aufrufe: 23
Der 3900X hatte ja 2 Chiplets und damit die doppelte RAM-Bandbreite (schreibend), wie ist denn das bei Ryzen5000? Sind die CPUs mit einem CCX immer noch benachteiligt? Oder hat sich das alles jetzt geändert? Hätte eigentlich vermutet ein 5800X ist deutlich besser.

EDIT:
Sehe es gerade. Die Bandbreite scheint immer noch halbiert zu sein. Man muss schon sagen, vom RAM her hat der 5800X eine bessere Latenz. Ich habe 4 Riegel am Laufen, weiß nicht ob das dies irgendwie beeinflusst. Die ganzen Cache-Werte und der MEM-Write-Wert ist aber scheinbar besser beim 3900X. (???)

aida.png
 
Zuletzt bearbeitet:
Zurück