Upgrade i9 9900k (10900k) oder Ryzen 9 3900X

Was hast du mehr erreicht und mit welcher Spannung?
Hast du allcore mit 4,6 GHz oder gar 5 GHz erreicht? Denn der 3900X hat ja ein Turbo Boost von bist zu 4,6 GHz auf einzelne Kerne.
 
Cinebench R20 MultiCore:

Stock + PBO: 7237pkt

CCX OC + PBO ausgeschaltet: +7900pkt

Bei 100% Belastung laufen die Kerne bei 1.35V folgend:
Kern 1-3: 4.5GHz
Kern 4-6: 4.475GHz
Kern 7-12: 4.375GHz

... die letzten 100MHz auf 1 Kern kann ich mir Sparen.

... Desweiteren probiere ich heute mal wo ich im CCX OC hinkomme mit 1.375V und 1.4V. Da wird bestimmt +4.6GHz, auf zumindest den ersten 3 Kernen drinnen sein^^
 
Einzelne Kerne bringt dir aber nichts wenn alle Kerne belastet werden, denn dann taktet der Prozessor auf alle Kerne mit etwa den selben Takt. Mit Stock sehen wir in Idle auch einzelne Kerne die bis auf 4,5 GHz gehen und unter Last im Spiel geht der Prozessor nur noch auf 4250-4300 MHz.

In Cinebench gehen alle Kerne auf 100% und da werden dann auch alle Kerne versuchen das max. zu bringen.
Ganz davon abgesehen das ein Prozessor mit Cinebench nicht stabil sein muss. Dazu müsste schon Prime95 oder gar LinpackXtreme verwendet werden und hier geht es dann richtig in die Leistungsaufnahme rein wo die Temperatur des Prozessors oder der Spannungswandler limitieren könnte.
 
Einzelne Kerne bringt dir aber nichts wenn alle Kerne belastet werden, denn dann taktet der Prozessor auf alle Kerne mit etwa den selben Takt.

Falsch. Das ist bei Intel so. Bei AMD ist dies nicht so, und dass kann ich dir gerne anhand eines HWMonitor Screenshots währenddessen R20 im Hintergrund läuft Beweisen.
Wenn du bei AMD z.B. sagst:
Kern 1-3: 4.5GHz
Kern 4-6: 4.475GHz
Kern 7-12: 4.375GHz

... dann laufen die einzelnen Kerne im MultiCore Stress Test auch auf diesen gesetzten Taktraten, und nicht auf den 4.375GHz.

Hier einmal nen Reddit Link wo du das auch sehen kannst, anhand den dort gezeigten Screenshots: TY der8auer for per CCX OC recommend! MASSIVE boost in performance! (pics) : Amd

Mit Stock sehen wir in Idle auch einzelne Kerne die bis auf 4,5 GHz gehen und unter Last im Spiel geht der Prozessor nur noch auf 4250-4300 MHz.

Das ist durch PBO der fall^^
 
Ich weiß schon was du meinst, denn AMD legt nicht auf alle Kerne ein bestimmten festen Takt wie bei Intel an, dennoch wird auch hier versucht auf alle Kerne das Maximum zu erreichen. Was du versuchst ist aber der Turbo Boost und der liegt erst an wenn nicht alle Kerne ausgelastet sind.

Mit PBO wird im Prinzip ein allcore versucht und daher hat damit dann ein Turbo Boost nicht mehr viel gemeinsam. Die Intel Boards haben hier auch ein Option um allcore ohne den Muliplikator nutzen zu können.

Aber ist schon richtig was du machst, hätte ich den Prozessor unter meine Finger würde ich auch versuchen was möglich ist und so auch das verhalten des Prozessors besser kennen zu lernen.
 
Zuletzt bearbeitet von einem Moderator:
... und der liegt erst an wenn nicht alle Kerne ausgelastet sind.

(Vielleicht habe ich das jetzt falsch verstanden, aber: ) Die Taktraten die ich oben in Text geschrieben habe, liegen sehr wohl auch in Szenarien an wo die CPU zu 100% ausgelastet ist, und das durchgehend.

Mit PBO wird im Prinzip ein allcore versucht und daher hat damit dann ein Turbo Boost nicht mehr viel gemeinsam. Die Intel Boards haben hier auch ein Option um allcore ohne den Muliplikator zu nutzen zu können.

Genau. PBO versucht einen AllCore OC wo sich die Kerne im Idle dann auch "Schlafen" legen können.

Aber ist schon richtig was du machst, hätte ich den Prozessor unter meine Finger würde ich auch versuchen was möglich ist und so auch das verhalten des Prozessors besser kennen zu lernen.

Wie gesagt, nehm mir all das bitte nicht böse, ich meine es auch Definitiv nicht so^^
 
Wie auch immer, zumindest kannst es nicht mit OC was mit Intel geht vergleichen.

Mehr möchte ich dazu auch nicht sagen, da ich mich nicht zu weit aus dem Fenster lehnen möchte. Denn immerhin haben wir zwar den Prozessor und etwas ein Blick hatte ich hierzu auch, aber da es sich nicht um mein System handelt kann ich nur begrenzt Erkenntnisse dazu sammeln.

Mir ist halt bekannt das der Turbo Boost nur dann anliegt wenn nicht alle Kerne ausgelastet werden und das bezieht sich auch auf den 3900X mit dem 4,6 Ghz die hierzu mit angegeben werden.
 
Was leider vom Thread Ersteller nicht hervorgeht, ist auf welcher Hz Zahl er Spielen will oder seinen Monitor betreibt.

Aber was fakt ist:
Wenn er einen 60Hz Monitor hat und diesen dann logischerweise auf 60Hz cappt, wird er selbst mit einer 3080 0% mehr oder bessere Frames gegenüber dem 9900K oder 10900K haben.

MEIN CCX OC 4.5GHz 3900X hat gegen MEINEN OC 5.1GHz 9900K um 10pkt. im Cinebench R20 SingleCore Bench verloren, was niemals 15-20% sind.




Desweiteren hat mein 4.5GHz 3900X im Time Spy Extreme (4K-Benchmark) um 9 Punkte Insgesamt gegen meinen 5.1GHz 9900K verloren, weil ich meine GraKa im 3900X System momentan nicht OC betreibe (beides die gleiche 1080Ti!)
Hier der Link zum 3900X TimeSpy Extreme (Non-OC GPU): NVIDIA GeForce GTX 1080 Ti video card benchmark result - AMD Ryzen 9 3900X,ASUSTeK COMPUTER INC. ROG CROSSHAIR VIII HERO (WI-FI)
Hier der Link zum 9900K TimeSpy Extreme (OC GPU): NVIDIA GeForce GTX 1080 Ti video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)

Auch das, sind keine 15-20% "überlegenheit" die du dir da Erträumst.

Und: Selbst wenn er einer derjenigen ist, die einen 120/144Hz 4K Monitor haben, wäre er mit dem 3900X nicht schlechter dran, da egal ob 3900X/9900K oder 10900K in 4K, alle drei 144Hz ohne Probleme schaffen und das Limit trotzdessen weiterhin die Grafikkarte sein wird, selbst mit einer kommenden 3080.

Edit: Ich bin vom 9900K zum 3900X umgestiegen, da ich als Softwareentwickler die MC Leistung benötige.
Könntest du mal in WQHD/UHD Ingame Benchmarks zeigen? :)
 
Könntest du mal in WQHD/UHD Ingame Benchmarks zeigen? :)

Von welchem Spiel...?

Ich habe in meinem Beitrag 2 Links hinzugefügt, dass eine mit dem 3900X im 4K Benchmark und vom 9900K im 4K Benchmark. 4K ist UHD.

Im TimeSpy Extreme Benchmark wird die GPU zu 100% belastet, desweiteren gibt es dort noch einen CPU only Benchmark, reicht das nicht?

Das Ergebnis ist meiner Meinung nach Eindeutig, und dass kannst du dir auch gerne noch einmal auf YT in Benchmarks von Seriösen YouTubern bestätigen lassen.
 
Von welchem Spiel...?

Ich habe in meinem Beitrag 2 Links hinzugefügt, dass eine mit dem 3900X im 4K Benchmark und vom 9900K im 4K Benchmark. 4K ist UHD.

Im TimeSpy Extreme Benchmark wird die GPU zu 100% belastet, desweiteren gibt es dort noch einen CPU only Benchmark, reicht das nicht?

Das Ergebnis ist meiner Meinung nach Eindeutig, und dass kannst du dir auch gerne noch einmal auf YT in Benchmarks von Seriösen YouTubern bestätigen lassen.

Wenn ich mich nicht verlesen habe, hast du TimeSpy probiert. Schön und gut, aber total irrelevant. Ich bin bei weiten kein Intelianer oder sowas - aber wenn machst du Ingame Benchmarks. Die typischen Verdächtigen in 2 und 4k. Alles Stocked, nicht OC.
 
Wenn ich mich nicht verlesen habe, hast du TimeSpy probiert. Schön und gut, aber total irrelevant. Ich bin bei weiten kein Intelianer oder sowas - aber wenn machst du Ingame Benchmarks. Die typischen Verdächtigen in 2 und 4k. Alles Stocked, nicht OC.

Leider werde ich dich da Enttäuschen müssen.

1. Weiß ich mit "Die Typischen Verdächtigen" leider immer noch nicht welche Spiele du meinst, geschweige denn das ich Sie besitzen müsste zum Testen (Ich habe mir keine der neuen Triple-AAA Titel gekauft. Kein BF5, kein CoD, ...)

2. Ist TimeSpy nicht Irrelevant. Es wird von normalen Usern, von Benchmarkern oder auch Extreme Overclocker benutzt und geschätzt. Und Ja, selbst die Benchmarks da sind "Ingame Benchmarks".

3. Betreibe ich meinen 9900K im OC und meinen 3900X im OC, und das wird auch so bleiben. Ich habe mir keine "K" CPU gekauft um Sie auf Stock laufen zu lassen, da hätte ich mir gleich den 9900 oder 9900F Kaufen können. Nein, Danke.
3.1 Würde der 3900X mit 3200MHz RAM laufen, der 9900K nur mit 2666MHz. Das wäre "Stock". Natürlich die beiden CPUs mit Werkseinstellungen.

4. Bin ich auch kein Itelianer oder AMDlianer aber jedem, wirklich jedem sollte klar sein das in Spielen bei 4K die CPU keinen Unterschied mehr macht, da Sie immer im GPU Limit hängen wird, auch mit einer vielleicht kommenden RTX 3080. Guck mal hier: YouTube i3 9100F (ca. 72€ bei Geizhals) vs. i9 9900K (ca. 535€ bei Geizhals) - Was kommt raus? Der i3 macht genauso viele, und genauso gute Frames wie der ca. 460€ teurere i9. Und das bei 4C/4T vs 8C/16T mit jeweils einer RTX 2080Ti.
4.1 Will der Threadersteller zu einem größeren %-teil eine CPU mit der er auch Arbeiten kann (Anwendungssoftware), und da ist der 3900X dem 9900K deutlich überlegen, und er wird ebenfalls auch dem 10900K überlegen sein. Und: Egal ob du 1080p oder 4K hast, die Leistung der Anwendungssoftware hängt immer von der CPU ab, und da ist es egal ob 1080p oder 4K, der 3900X wird in beiden Auflösungen da den entscheidenden Vorteil in der Anwendungssoftware haben. PCGH hatte dazu mal Benchmarks, hier: https://www.pcgameshardware.de/Ryze.../Ryzen-7-3700X-Benchmark-Review-1293361/2/#a2 Scroll ein wenig herunter, dann siehst du da 7-Zip, Hanbrake 1.10, Adobe Lightroom Classic CC 2018 und Cinebench R15. Bei 7-Zip, Hanbrake 1.10 und Adobe Lightroom Classic CC 2018 ist "less" (weniger) besser und bei Cinebench R15 "more" (mehr). Bei 7-Zip und Adobe Lightroom Classic CC 2018 deklassiert selbst der Ryzen 3700X den 9900K, geschweige denn vom 3900X. Bei Handbrake landet der 9900K nur gaaaaaaanz knapp vor dem 3700X, aber noch viel weiter hinter dem 3900X. Selbst in Cinebench R15 deklassiert der 3700X sowie der 3900X den 9900K im Multicore Benchmark. Lediglich im Singlecore Benchmark gewinnt der 9900K gegen beide um genau 6 Punkte. Stock. :)

5. Habe ich keine Lust, und auch keine Zeit ca. 20 Benchmarks für beide/je CPU in meiner Freizeit durchzuhauen, geschweige denn wie bei 1. Geschrieben, dass ich die Spiele zum Testen auch besitzen/kaufen müsste.
5.1 Besonders da es im Internet, genauso wie auf YouTube bereits genug seriöse Quellen für so etwas gibt, die damit auch Geld verdienen so etwas zu Testen/Benchmarken und das auch mehr oder weniger als tägliche "Arbeit" machen, was bei mir nicht der Fall ist. Ich opfer Zeit & Geld für 20 Benchmarks und... Achja.. kein Geld & verlorene Freizeit.

6. Werde ich mich aus diesem Thread zurückziehen, da eigentlich alles gesagt ist was gesagt werden musste/sollte.
6.1 Wenn es dir gut tut und dich in deiner Aussage bekräftigt oder bestätigt, bezeichne mich gerne als jemanden der vor "Beweisen" weg läuft, wobei ich definitiv mehrere Quellen und Aussagekräftige Berichte angeführt habe, und dass auch solche sind, selbst wenn du das nicht anerkennen willst.
 
Zuletzt bearbeitet:
Leider werde ich dich da Enttäuschen müssen.

1. Weiß ich mit "Die Typischen Verdächtigen" leider immer noch nicht welche Spiele du meinst, geschweige denn das ich Sie besitzen müsste zum Testen (Ich habe mir keine der neuen Triple-AAA Titel gekauft. Kein BF5, kein CoD, ...)

2. Ist TimeSpy nicht Irrelevant. Es wird von normalen Usern, von Benchmarkern oder auch Extreme Overclocker benutzt und geschätzt. Und Ja, selbst die Benchmarks da sind "Ingame Benchmarks".

3. Betreibe ich meinen 9900K im OC und meinen 3900X im OC, und das wird auch so bleiben. Ich habe mir keine "K" CPU gekauft um Sie auf Stock laufen zu lassen, da hätte ich mir gleich den 9900 oder 9900F Kaufen können. Nein, Danke.
3.1 Würde der 3900X mit 3200MHz RAM laufen, der 9900K nur mit 2666MHz. Das wäre "Stock". Natürlich die beiden CPUs mit Werkseinstellungen.

4. Bin ich auch kein Itelianer oder AMDlianer aber jedem, wirklich jedem sollte klar sein das in Spielen bei 4K die CPU keinen Unterschied mehr macht, da Sie immer im GPU Limit hängen wird, auch mit einer vielleicht kommenden RTX 3080. Guck mal hier: YouTube i3 9100F (ca. 72€ bei Geizhals) vs. i9 9900K (ca. 535€ bei Geizhals) - Was kommt raus? Der i3 macht genauso viele, und genauso gute Frames wie der ca. 460€ teurere i9. Und das bei 4C/4T vs 8C/16T mit jeweils einer RTX 2080Ti.
4.1 Will der Threadersteller zu einem größeren %-teil eine CPU mit der er auch Arbeiten kann (Anwendungssoftware), und da ist der 3900X dem 9900K deutlich überlegen, und er wird ebenfalls auch dem 10900K überlegen sein. Und: Egal ob du 1080p oder 4K hast, die Leistung der Anwendungssoftware hängt immer von der CPU ab, und da ist es egal ob 1080p oder 4K, der 3900X wird in beiden Auflösungen da den entscheidenden Vorteil in der Anwendungssoftware haben. PCGH hatte dazu mal Benchmarks, hier: https://www.pcgameshardware.de/Ryze.../Ryzen-7-3700X-Benchmark-Review-1293361/2/#a2 Scroll ein wenig herunter, dann siehst du da 7-Zip, Hanbrake 1.10, Adobe Lightroom Classic CC 2018 und Cinebench R15. Bei 7-Zip, Hanbrake 1.10 und Adobe Lightroom Classic CC 2018 ist "less" (weniger) besser und bei Cinebench R15 "more" (mehr). Bei 7-Zip und Adobe Lightroom Classic CC 2018 deklassiert selbst der Ryzen 3700X den 9900K, geschweige denn vom 3900X. Bei Handbrake landet der 9900K nur gaaaaaaanz knapp vor dem 3700X, aber noch viel weiter hinter dem 3900X. Selbst in Cinebench R15 deklassiert der 3700X sowie der 3900X den 9900K im Multicore Benchmark. Lediglich im Singlecore Benchmark gewinnt der 9900K gegen beide um genau 6 Punkte. Stock. :)

5. Habe ich keine Lust, und auch keine Zeit ca. 20 Benchmarks für beide/je CPU in meiner Freizeit durchzuhauen, geschweige denn wie bei 1. Geschrieben, dass ich die Spiele zum Testen auch besitzen/kaufen müsste.
5.1 Besonders da es im Internet, genauso wie auf YouTube bereits genug seriöse Quellen für so etwas gibt, die damit auch Geld verdienen so etwas zu Testen/Benchmarken und das auch mehr oder weniger als tägliche "Arbeit" machen, was bei mir nicht der Fall ist. Ich opfer Zeit & Geld für 20 Benchmarks und... Achja.. kein Geld & verlorene Freizeit.

6. Werde ich mich aus diesem Thread zurückziehen, da eigentlich alles gesagt ist was gesagt werden musste/sollte.
6.1 Wenn es dir gut tut und dich in deiner Aussage bekräftigt oder bestätigt, bezeichne mich gerne als jemanden der vor "Beweisen" weg läuft, wobei ich definitiv mehrere Quellen und Aussagekräftige Berichte angeführt habe, und dass auch solche sind, selbst wenn du das nicht anerkennen willst.

Na, wenn du keinerlei Triple A hast, dann brauchst du auch keine Benchmarks zu machen. Und ja, Ingame Benchmarks sind um einiges wichtiger als irgendwelche vorgefertigten Timespy Marks! :D Jedes Spielemagazin testet so.

Der 9100F läuft auf 100% Auslastung und der 9900K bei 30-40%. Auch hier wieder nur FullHD. Da sind wir wohl beim GPU Limit.


Habe nie bestritten dass der AMD CPU besser zum Arbeiten ist. Würde ich momentan auch so kaufen! Meine Aussage, zu der ich immer noch stehe - ab WQHD gibs größere FPS Unterschiede zwischen 3900X und 9900k/10900k. Möchte mich mit dir gar nicht streiten, alles entspannt! :)


Beweise kann ich dir gerne geben. Hier sogar nur (!) ein 9700k OC vs. 3900X OC YouTube
Hier 9900k stock vs 3900x stock auch in WQHD, da sinds aber bei ihm nur an die 3-10% YouTube
 
Du erzählst wirklich den größten Unsinn aller Zeiten!

Um so höher die Auflösung, um so geringer die Unterschiede bei den CPUs, weil die GPUs mehr leisten müssen.
Deshalb macht PCGH 720p CPU Tests bei den Games, um die Unterschiede zu benchen und bencht nicht mit 1440p oder 4K, weil dort so ziemlich alle modernen CPUs gleich performen, weil die Grakas limitieren.
Das solltest du mal verstehen, bevor du solche Unsinns Posts loslässt!

Es gibt gerade mal eine Hand voll Spiele wo die GPU dermaßend limitiert dass nichts mehr geht. Das wird hier öfters als Ausrede benutzt, ich weiß :D Außerdem gibt es meistens immer unterschiede. Aber ist okay! :D 5-10 FPS sind ja in 2-3 Jahren kein Thema, wenn die CPU veraltet ist.
 
direkt:
Es ist egal, welchen du von beiden nimmst. In rund 50 Spielen ist der Intel auf Standardtakt durchschnittlich auf Ultra jeweils 1-2 FPS schneller. Beim Spielen kommt es halt auf die Grafikkarte an. Intel hat in Spielen die Nase vorn und wenn du übertaktest, InSpectre benutzt und HT ausstellst hast du dort am Ende mehr Leistung... Um "jegliches" Spiel auf 60 FPS@4K@Ultra zu betreiben reicht die Leistung der 2080 Ti, leider immer noch nicht aus. Dazu wäre es angebracht auf PCIE Ampere zu warten. Da du hauptsächlich zockst würde dort mein Hauptaugenmerk sein, denn da merkt man es eben immer. Niemand sitzt beim Arbeiten, encodieren usw. vor dem PC und glotzt stumpf einen Timer an, da muss man ja schon völlig Banane sein �� - außerdem kommt es dort auf die Optimierungen des Programms an, somit ist es bei der Leistung beider Prozessoren unerheblich, zu welchem man greift, da man Zeitunterschiede in der Regel nicht wahrnimmt, wenn man seine Zeit richtig einteilt und nutzt. Anstatt auf das encodieren eines Videos zu warten und stumpf den Monitor anzustarren, kann man lesen, Videos schauen, spielen, trainieren etc. Das geht nicht schneller oder besser mit mehr oder weniger Kernen und Spielen wird durch Hyperthreading sogar langsamer.

Insofern kann ich nur sagen, nimm das was du als Gesamtsystem günstiger bekommst (Tagespreise, Angebote etc. anschauen), wenn du es gerade benötigst, aber wenn du die Zeit hast warte bis die RTX 3000 Serie da ist und bis dahin gibt's bestimmt auch noch schnellere Prozessoren. Das wäre aktuell die intelligenteste Wahl. 4-5 Monate gehen verdammt schnell vorbei.
 
Eigentlich wollte ich mich aus dem Thread hier zurückziehen, aber ich wollte dann doch noch einmal eines klarstellen bevor ich mich komplett hieraus zurückziehe:

Der 9100F läuft auf 100% Auslastung und der 9900K bei 30-40%. Auch hier wieder nur FullHD.

Ja, richtig, der 9100F läuft zwar auf bis zu 100% Auslastung und der 9900K nur zwischen 30-40% ABER NICHT IN FULLHD! Im Videotitel steht ganz klar 4K und wenn du das Video aufmerksam gesehen hast wirst du in den Spielen auch jeweils die Auflösungseinstellung 3840x2160p (4K) sehen! Da sind wir wieder beim 4K GPU Limit, und wäre der 9100F kein 9100F sondern ein 3900X, würde es genauso aussehen, da der 3900X definitiv mehr Leistung bereithält als der 9100F.

Möchte mich mit dir gar nicht streiten, alles entspannt! :)

Das will ich auch nicht, glaub mir. :)

Beweise kann ich dir gerne geben. Hier sogar nur (!) ein 9700k OC vs. 3900X OC YouTube
Hier 9900k stock vs 3900x stock auch in WQHD, da sinds aber bei ihm nur an die 3-10% YouTube

Das sind zwar schöne, und Nette Beweise, was du aber leider außen vorlässt, ist das das alles Benchmarks von der Zeit sind wo Ryzen 3000 ganz frisch auf den Markt kam und AMD noch mit heftigen BIOS/Performance Problemen zu kämpfen hatte, und eine neue AGESA Version gefühlt alle 2 Wochen raus gekommen ist. Mittlerweile sind wir bei AGESA 1.0.0.4 bzw. bei MSI Mainboards bereits 1.0.0.5 und von damals zu jetzt hat sich in der Performance eine menge getan. Und Ja, dass betrifft auch WQHD und 4K.

Ich habe (falls du Interesse hast) hier noch einmal ein aktuelles "Gaming" Benchmark Video in FullHD (1920x1080) von vor ca. 1 Monat, i9-9900K vs. Ryzen 7 3700X (mit den jeweils zu der Zeit aktuellen BIOS Versionen von Intel & AMD!) wo man zwar definitiv an manchen stellen einen Gaming Vorteil für Intel sieht (bestreite ich Ja auch nicht das Intel da in manchen Szenarien immer noch im Gaming leicht die Nase vorne hat, lediglich zum Arbeiten, was der Threadersteller auch an erster stelle machen will, ist der 3900X besser), aber der Ryzen ist ehrlich gesagt kaum bis garnicht schlechter. Hier das Video: YouTube

Jetzt würde ich mich aber ehrlich gerne komplett zurückziehen... Es ist wie bereits gesagt, alles gesagt was gesagt werden musste.
 
Zuletzt bearbeitet:
Natürlich ist der 3900X fürs Arbeiten klar im Vorteil, der hat ja auch 4 Kerne mehr die sich besonders in diesem Szenarium von Vorteil zeigen. Was Gaming angeht ist der Unterschied zwar vorhanden, aber so gering das kein 3900X damit schlechter da stehen würde. In einer Tabelle als Skizze sehen solche Unterschiede immer gut aus, was real aber nicht mehr so ausschlaggebend sein wird.

Habe selbst einen 9900K und auch wenn ich mit meinem System voll zufrieden bin habe ich mein Sohn bei seinem Umbau auch zu AMD geraten. Mein Sohn hat sich daher auch für den 3900X entschieden, da er fürs Geld 4 Kerne mehr dazu bekommt und er neben Gaming auch oft Videos bearbeitet.
 
Oh Gott, so viele Antworten und ich hab mich nicht mehr gemeldet :heul::heul: (mir ist leider privat was dazwischen gekommen)

Erst einmal vielen lieben Dank für die ganzen Ratschläge :hail: Diese haben nun dazu geführt, dass ich nach so vielen Jahren
dann tatsächlich doch zu AMD gewechselt habe.
Was auch ein weiterer ausschlaggebender Punkt für die Entscheidung war - wurde hier auch von einem User erwähnt - dass für die nächste Ryzen-Generation kein neuer Sockel benötigt wird, anders wie bei Intel, wo der 1200-Sockel ja nur für die eine 10-Generation vorhanden sein soll.

Es ist nun der Ryzen 9 3900X in Kombination mit einem Asus ROG X570 E-Gaming geworden.
Die Leistung in Spielen ist wie erwartet nicht gestiegen, aber der Renderprozess mit beispielsweise Premiere ist ja mega krass :what: Von ca 5 Stunden Renderzeit auf eine gute Stunde gesunken :banane:

Was mir nur ein bisschen komisch vorkommt ist, warum mein RAM (Corsair Vengeance 2x16 GB 3200MHz) Standartmäßig nur als 2166er erkannt wird. Wenn ich dann im BIOS dieses D.O.C.P. aktiviere und den RAM auf 3200Mhz stelle, startet der PC mehrere Male neu und das BIOS setzt sich zurück. Ich kann den maximal mit 2800 MHz starten...Egal, ist eh der falsche Thread :p

Also ich bin top Zufrieden mit dem Ryzen und danke euch allen für die vielen Tipps und Ratschläge :hail::hail::hail:
 
Zuletzt bearbeitet:
Eine gute Wahl. Allerdings liegst du in einem Punkt falsch: Die 11. Generation der Core-Prozessoren, Rocket Lake, wird auch noch auf Sockel 1200 lauffähig sein bzw. diesen überhaupt erst vollständig unterstützen. Die Sache mit dem Arbeitsspeicher ist eigentlich komisch. Hast du das aktuellste BIOS geflasht? Denn 2 Riegel sollten eigentlich ohne Probleme mit DDR4-3200 laufen, vor allem mit Zen 2. :hmm:
 
Wir haben letztens bei uns auch den 3900X auf einem Gigabyte Board verbaut und bei uns laufen 3200 MHz auch problemlos.
 
Zurück