Kampfpreis: Ryzen 9 3900X ab 429 Euro

Naja, wir werden dieses Jahr noch Zen3 bekommen und wenn sich die Gerüchte (wobei viele davon schon ehr nah an Fakten sind) bewahrheiten, könnte für uns Gamer nochmal ein Riesensatz nach vorne sein. Daher muss das nicht zwangsläufig die Aussage sein, denn das Jahr ist noch lang.

Andererseits wird Zen3 dann Sackgasse und Ende Gelände sein, also als Neuanschaffung ist Zen3 mMn nicht empfehlenswert. Also WENN schon ZEITNAH eine Neuanschaffung geplant ist, dann wäre genau jetzt ggf. wirklich ein guter Zeitpunkt, solange Corona noch nicht voll durchgeschlagen hat (die Lieferengpässe und hohen Preise einiger Produkte werden noch kommen) und man hat dann wenigstens noch etwas länger was vom neuen System mit Zen3 als Aufrüstoption in 2021, wenn sich eine attraktive Gelegenheit bietet so wie jetzt hier die €429.- für den 3900X.
Ansonsten ist jeder, der zur Zeit hardwaremäßig vernünftig aufgestellt ist, ja gut beraten, Zen3 zu überspringen und bis zu AMDs nächstem Sockel bzw. auf Intels 7nm zu warten... und auf DDR5, auch wenn das am Anfang kaum etwas ausmachen wird, aber DDR4 ist jetzt schon quasi EOL.
 
Zuletzt bearbeitet:
429 € ? Oha...da muss mich mich aber wirklich jetzt zusammenreißen, um die (Maus-) Finger nun stillhalten zu können.:ugly:
 
Hatte ich auch schon überlegt, aber die Vernunft hat gesiegt *seufz*
Ich hatte am WE einen 3700X bestellt und der wird jetzt am WE verbaut. Ich wollte meinem batagten X370 dann doch keinen 3900X zumuten :-)
Bis zum Ryzen 4000 wird der 8-Kerner allemal ausreichen. Eher könnte dann "Big Navi" die nä. Aufrüstoption werden.
Gruß T.

Ich zock mit meinem 3700X auf X370 z. B. Star Citizen (verteilt die Last recht gleichmäßig auf alle Kerne) und streame es gleichzeitig in guter Qualität (x264 slow 6000er rate 720 60p). Erreiche da so zwischen 50-70% Auslastung.
Geht aber auch 1080p medium und ähnliche Kombinationen. Also Dampf hat die CPU schon... Denke der wird später auch prima als Stream-PC für 4K taugen, sollte das mal "Standard" werden. :daumen:
 
Der 3900x hat auch den größeren Cache im Vergleich zu 3700x und 3800x. War für mich der wichtigere Grund gegenüber den 4 Zusätzlichen Kernen.
 
...hilft einem natürlich nur, wenn man ein neues System aufbaut und nicht schon ein Mainboard vorhanden ist.

Bei mir hat bisher jedes neue System ein neues Board bekommen. Ich verkaufe immer die alte Kombination aus CPU und Board und normal auch Ram. Man will ja etwas neues.

Wen interessiert denn Takt?

Die meisten Spiele. Wird auch immer so bleiben. Hoher Takt, oder hohe Leistung pro Takt in Spielen wird immer wichtig bleiben.

Immerhin können viele Kerne mittlerweile auch gut helfen und performen.

Aber die 8 Intel Kerne schlagen in 95% der Spiele bisher noch die 12, oder gar 16 Kerne von AMD. Weil Takt wichtig ist.

Ich bin froh darüber das dieses Schlagen nur noch minimal ist und man auch ganz oben eine Alternative hat.

Also bei dem Kampfpreis geht mir ein Intel 10 Kerner für 600 Euro aber sowas am Allerwertesten vorbei... :-P

Wobei ich erst Benchmarks vom 10 Kerner sehen will.

Aber dennoch, bei dem was zu erwarten ist, bleibt der 10 Kerner sehr uninteressant. Dann eher 16 Kerne von AMD.

Aber nur, weil noch zu viele Programmierer zu faul sind sich weiterzubilden und einfach weiterhin DX11 für NVidia Karten optimieren. :(

Puh, den dünnpfiff hört man auch immer wieder. Es wird immer Bereiche in Spielen die sich nicht besser splitten lassen und an der Stelle wird immer nur Takt helfen.

Auch die Nvidia Optimierung ist nur ein Märchen...

Zwei Hersteller bauen zwei Architekturen, die nunmal unterschiedlich sind. Der Einen liegt das besser, der Anderen etwas anderes. War immer so und bleibt immer so. Das sieht man in allen Benchmarks usw. Das hat nichts damit zu tun das alles auf Nvidia, oder Intel optimiert ist.
 
Also wenn dieser noch inoffizielle Sli Mode CFR wirklich Sli wiederbelebn sollte und nun auch eine RTX 2080 TI mit PCIe 3.0 8x bei 16 Lanes durch die CPU mit 3% gebremst wird, machen für ein SLi System entweder mehr Lanes (Skylake X) oder PCIe 4.0 8x bei 16 Lanes (AMD) Sinn. Ich hätte mal wieder Spaß an nem Sli Setup, wenn sich dieser CFR Modus in DX 12 wirklich lohnt. Dann würde ich aber zu PCIe 4.0 tendieren, da diese AMD CPUs schneller in Spielen sind als die Skylake X aufgrund der Mesh Architektur. Für Sli kann PCIe 4.0 in 8x dann bei den neuen Grakas schon einen gewaltigen Unterschied zu PCie 3.0 8x machen, da die RTX 2080 TI ja schon ca. 3% gebremst wird im Kontrast zu PCIe 16x. Dann würde ich für ein Sli Gespann auch meinen i9 9900K weggeben und wahrscheinlich einen Ryzen 3900x holen. Wie gesagt, unter der Voraussetzung, dass dieser CFR Mode wirklich so gut wird und Nvidia diesen offiziell vorstellt. Weiterer Vorteil ist die schnelle Anbindung von NVmes bei AMD. War sonst immer Intel Fan, aber AMD ist ja derzeit eindeutig der Gewinner.
 
Bauch sagt ja, Kopf sagt nein. Mein aktueller Lebensabschnittspartner namens 3700X macht ein verdammt guten Job und wir führen eine sehr harmonische Beziehung...mit der nächsten Generation könnte sich das ändern, Frischfleisch...

Ja, geht mir genauso, vor allem da ich letztes Jahr den 3900X zu keinem vernünftigen Preis bekommen hatte, und so auf den 3700X ausgewichen bin.
Es "juckt", aber andererseits ist es bis Ryzen 4000 nicht mehr lange hin...

mfg
 
Bleibt stark Leute, die Preise werden noch weiter droppen demnächst, aber wie sollen wir das nur packen? Die Nächte werden hart, weil da nun immer 3900X 429€ 3900X 429€ 3900X 429€ im Kopf schwirren wird, da werden wir nicht mehr Schäfchen zählen, sondern sehen den 3900X über den 429€ Zaun springen^^
Ich hab schon einen Ohrwurm, die ganze Zeit flüstert mit der Einkaufsdämon nonstop ins Ohr!

Könnte durchaus so sein...Corona machts möglich...
Dow Jones um 10% eingebrochen, und die Leute geben ihr Geld nun eher für Hamsterkäufe aus... ;)

mfg
 
Du würdest also eine CPU mit einem GHz Takt, der aber von der Architektur den übrigen 5 GHz soweit überlegen ist, dass sie eine höhere Performance in Spielen erreicht, nicht anschauen?

Du interpretierst das aus meiner Aussage?
Natürlich würde ich eine CPU, die mit einer Taktfrequenz von nur einem GHz anderen Prozessoren mit viel höherem Takt überlegen ist, testen (und feiern).

Aber die es gibt es aktuell nicht, zumindest wenn man bei halbwegs aktuellen CPUs bleibt. Dass ein hoher Takt derzeit das Maß der Dinge ist, und auch damals schon war, habe ich mithilfe eines IPC-Vergleichs nachvollziehen können. Zen + liegt sogar teilweise hinter Zen (1) und Kaby Lake ist mit Coffee Lake nahezu gleichauf, bei gleichem Takt. Oder mit anderen Worten: Ein Ryzen 7 2700X ist nur schneller als ein Ryzen 7 1700X, weil er höher taktet. Natürlich greifen da noch einige andere optimierte Mechanismen, aber der Takt ist primär für die Mehrleistung verantwortlich.
Takt ist ein Teil um Leistung zu erreichen, aber eben nicht alles.
Da hast du völlig recht. Die finale Leistung kannst du so berechnen:

Die theoretische Spitzenleistung (Theoretical Peak Performance) eines Rechenknotens ist das Produkt folgender Werte: Taktfrequenz, Anzahl der CPU-Sockel, CPU-Kerne pro Sockel, virtuelle Kerne pro CPU-Kern, Minimalwert der Befehle, die pro Takt angefangen werden können (Anzahl der Rechenwerke geteilt durch die Latenz eines Befehles), Datenworte pro Rechenregister und die numerischen Operationen pro Befehl.
 
Also wenn dieser noch inoffizielle Sli Mode CFR wirklich Sli wiederbelebn sollte und nun auch eine RTX 2080 TI mit PCIe 3.0 8x bei 16 Lanes durch die CPU mit 3% gebremst wird, machen für ein SLi System entweder mehr Lanes (Skylake X) oder PCIe 4.0 8x bei 16 Lanes (AMD) Sinn. Ich hätte mal wieder Spaß an nem Sli Setup, wenn sich dieser CFR Modus in DX 12 wirklich lohnt. Dann würde ich aber zu PCIe 4.0 tendieren, da diese AMD CPUs schneller in Spielen sind als die Skylake X aufgrund der Mesh Architektur. Für Sli kann PCIe 4.0 in 8x dann bei den neuen Grakas schon einen gewaltigen Unterschied zu PCie 3.0 8x machen, da die RTX 2080 TI ja schon ca. 3% gebremst wird im Kontrast zu PCIe 16x. Dann würde ich für ein Sli Gespann auch meinen i9 9900K weggeben und wahrscheinlich einen Ryzen 3900x holen. Wie gesagt, unter der Voraussetzung, dass dieser CFR Mode wirklich so gut wird und Nvidia diesen offiziell vorstellt. Weiterer Vorteil ist die schnelle Anbindung von NVmes bei AMD. War sonst immer Intel Fan, aber AMD ist ja derzeit eindeutig der Gewinner.

Für SLI würde ich nicht auf Ryzen wechseln. Gerade dort kannst du den 9900k voll ausspielen, ansonsten limitiert die CPU einfach früher. War bei mir mit dem 1700x auch so, da hat sich das SLI gelangweilt in manchen Spielen und die CPU hat nicht mal konstant 60 FPS geliefert.
 
Die Engines Laufen ja gut wie sie sind die CPUs haben ausreichend Rechenleistung also alles in Butter DX12 implementierung ist natürlich ein Aufwand, vor allem ein Finanzieller. Der nicht unbedingt nötig ist gemessen am derzeitigen Leistungsstandard der CPUs. Andersherum könnte man unter umständen mehr aufgaben bzw vorhandene Aufgaben erweitern mit DX12.

Willi Tifel hat in einem Video zu DX 12 Ja mal gesagt das Shadow of the Tomb Raider nicht besonders CPU Lastig ist und man eine "Relativ" Langsame CPU haben muss damit sich DX12 Bemerkbar macht.....!!Also von AMD kann er nicht geredet haben:D Nicht CPU lastig nur in "relativ" wenig Szenen der Fall.....:ugly: Also ist der 3900X wohl relativ langsam, und man Merkt den Unterschied Zwischen DX 11 und 12 natürlich nicht in jedem Dorf wo man sich siehe Paititi, zig stunden Aufhält! Die CPU Minimum fps steigen im Internen SotTR Benchmark von 41fps auf 100fps. Die Durchschnittframes von 91fps auf 127fps

Eigener Bench in Paititi von der Schädelhöle nach Links, Absatz runter ins Wasser und unter dem Steinbogen herschwimmen.--Also nicht mal viele Leute o.ä die zu berechnen wären wie am Marktplatz.. Edit. Nicht zu vergessen die frametimes Halbieren sich fast in diesem Beispiel.
Screenshot_2020-13-3_08-59-25_CX_Analysis.png
Also DX12 kann was und sogar einige Programierungsprobleme ausgleichen. Aber verstehen kann ich auch, das nicht jeder seine gut laufende Engine mit viel Zeit und Geld versucht zu verändern und nicht genau weiß wie es am Ende beim Kunden läuft. Mit Faulheit hat es nach meiner Meinung indes wenig zu tun
 
Zuletzt bearbeitet:
Bei mir hat bisher jedes neue System ein neues Board bekommen. Ich verkaufe immer die alte Kombination aus CPU und Board und normal auch Ram. Man will ja etwas neues.
.


Machen sicher einige, aber nicht alle.
Ich kaufe mir eher ein "besseres" teures MB-Board, oft mit Funktionen, die ich am Anfang noch gar nicht einsetze, und habe dieses dann 4-5 Jahre am laufen.
Das X570 habe ich schon deshalb gewählt, damit ich sicher auf Ryzen 4000 updaten kann.
Bei Intel in den letzten Jahren praktisch undenkbar, weil, wenn man schon eine relativ hoch angesiedelte CPU hatte, lohnte ein Update auf die nächste Version nicht, bzw. es stand wieder ein MB-Wechsel an.

Die meisten Spiele. Wird auch immer so bleiben. Hoher Takt, oder hohe Leistung pro Takt in Spielen wird immer wichtig bleiben.

Immerhin können viele Kerne mittlerweile auch gut helfen und performen.

Aber die 8 Intel Kerne schlagen in 95% der Spiele bisher noch die 12, oder gar 16 Kerne von AMD. Weil Takt wichtig ist.
.

Bei einige Spielen (meist DX11 und schlecht MT) ist Intel schneller, aber dann fast immer in FHD, oder 720p. Aber wer spielt denn noch in FHD, oder gar 720p? ;)

In WQHD wirds schon sehr eng, und ab UWQHD und 4K praktisch nicht mehr messbar.
Das mehr "Kerne" mehr hilft, wird sich in Zukunft noch verstärken, auch weil DX11 so langsam doch zu Grabe getragen wird...die neuen Konsolen lassen schön grüssen! ;)

Aber wichtiger ist, warum sollte ich mir einen 8-Kerner für 500€, oder einen 10-Kerner für 600€ kaufen, wenn ich einen 12-Kerner für 430€ bekomme, der "zukunftssicherer" ist (incl. eines noch mit der nächsten CPU-Generation aufrüstbaren Main-Boards), moderner, weniger (kritische) Sicherheitslücken hat (welche bei intel mit bremsenden Windows-Updates gepatcht werden müssen), und der in Auflösungen über FHD praktisch gleich schnell ist?

mfg
 
Die Engines Laufen ja gut wie sie sind die CPUs haben ausreichend Rechenleistung also alles in Butter DX12 implementierung ist natürlich ein Aufwand, vor allem ein Finanzieller. Der nicht unbedingt nötig ist gemessen am derzeitigen Leistungsstandard der CPUs. Andersherum könnte man unter umständen mehr aufgaben bzw vorhandene Aufgaben erweitern mit DX12.

Willi Tifel hat in einem Video zu DX 12 Ja mal gesagt das Shadow of the Tomb Raider nicht besonders CPU Lastig ist und man eine "Relativ" Langsame CPU haben muss damit sich DX12 Bemerkbar macht.....!!Also von AMD kann er nicht geredet haben:D Nicht CPU lastig nur in "relativ" wenig Szenen der Fall.....:ugly: Also ist der 3900X wohl relativ langsam, und man Merkt den Unterschied Zwischen DX 11 und 12 natürlich nicht in jedem Dorf wo man sich siehe Paititi, zig stunden Aufhält! Die CPU Minimum fps steigen im Internen SotTR Benchmark von 41fps auf 100fps. Die Durchschnittframes von 91fps auf 127fps

Eigener Bench in Paititi von der Schädelhöle nach Links, Absatz runter ins Wasser und unter dem Steinbogen herschwimmen.--Also nicht mal viele Leute o.ä die zu berechnen wären wie am Marktplatz.. Edit. Nicht zu vergessen die frametimes Halbieren sich fast in diesem Beispiel.
Anhang anzeigen 1082344
Also DX12 kann was und sogar einige Programierungsprobleme ausgleichen. Aber verstehen kann ich auch, das nicht jeder seine gut laufende Engine mit viel Zeit und Geld versucht zu verändern und nicht genau weiß wie es am Ende beim Kunden läuft. Mit Faulheit hat es nach meiner Meinung indes wenig zu tun
Ich versteh nicht was bei Battlefield 5 schief gelaufen ist. Wenn ich DX 12 einschalte, sinken meine FPS sehr stark.
 
Das mehr "Kerne" mehr hilft, wird sich in Zukunft noch verstärken, auch weil DX11 so langsam doch zu Grabe getragen wird...die neuen Konsolen lassen schön grüssen! ;)

Verstärken wird sich der Effekt sicherlich. Die Frage ist nur wie sehr und bis zu welcher Kernzahl.
Wenn sie Konsolen tatsächlich mit einer Art niedrig getakteten 3700x daher können, dann haben 8-Kerner vermutlich schon deutliche Vorteile ggü 6-Kernern. Ob man bei nur minimaler Hintergrundlast einem spürbaren Effekt durch 12 oder mehr kenne hat... wir werden sehen.
 
Zurück