CPUs: Ryzen 9 3900X erst ab September lieferbar, was macht Intel?

Ja, das verwundert mich nicht. :D

Du hattest auch schon fuer den Threadripper 1950x und auch 2950x kein Szenario, was diese CPU annähernd ausgelastet hat, wieso behauptest du es denn dann immer?
Doch, sogar auf einem Quad-Core. Aber es geht darum, was alles noch so nebenher läuft. .

Was laeuft denn nebenher? Visual Studio?
Ein Spiel unter Directx11, oder wahlweise 12?
Wenn viel parallel geöffnet ist, benötige i h Arbeitsspeicher, aber nicht viel Prozessorleistung.
Für das Kompilieren (meines Projektes im Speziellen) selbst ist eher die Singlecore Leistung wichtig, die der 3900X ja hat. Wie ich ja bereits schrieb, war ich selbst ein wenig verwundert, dass der 9900k da so abgekackt ist.

Na weil das dann nicht an der CPU liegt, sondern etwas anderes das Bottleneck ist.
Wenn du Multithreading Power benötigst wäre es doch unsinnig von einem 2950x auf einen 9900K umzusteigen, denn ein Kompilierungsvorgang bringt in der Realität nicht so viel Zeitersparnis, damit sich das nur ansatzweise lohnt.

Mach doch mal einen Auslastungsscreen, waehrend eines Kompilierungsvorganges.

Ich konnte teilweise nicht einmal mehr vernünftig im Browser scrollen, wenn alles lief, was ich für den Workflow benötige.

Was benötigst du denn alles? Jetzt bin ich aber gespannt.
Also sind letztlich moar cores hier wohl doch besser.

Glaub ich wenig bis gar nicht.
Ich kann das Verhalten von WPF a priori teilweise schlecht einschätzen, also muss ich es häufig testen.

Das kann man nachvollziehen, ergo, brauchst du da vor allem ST Leistung.

Das muss dann einfach schnell gehen. Da nervt tatsächlich jede zusätzliche Sekunde.

Die dir eben nur eine CPU schenkt, die hohe St Leistung bietet und da ist der Profit in Realtime zwischen 2950x, 9900K und 3900X einfach egal. Bei mir laeuft ein i7 mit 2c4t und reicht mir völlig, auch wenn groessere Änderungen erfolgen.
Außerdem kompiliere ich noch andere Sachen, z.B größere C++ Geschichten. CX ist ja nicht das einzige. Da ist der 3900X einfach schneller.

Müssen aber richtig große Projekte sein.
Fuer ein paar Änderungen an den data templates, sprich Visualisierungen deines Tools zu überarbeiten, glaube ich mal gar nicht, dass das irgendwie Performance kritisch wäre.

Und andere Geschichten waren gar nicht Thema.
Ja, ich lege die Dinge offen dar, bin völlig transparent. Mein Code ist auf GitHub einsehbar, da bin ich natürlich für Leute wie dich, die paranoid irgendwas aufdecken wollen, ziemlich angreifbar.

Ist doch absolut Top, aber verarsch hier doch nicht die Users haft mit deinen unoetigen Geschichten von wegen das kostet soviel Leistung. Das ist doch wirklich unnötig.

Ein Benchmarktool ist eine relativ schlanke Geschichte, vor allem dann wenn es mittels OCAT läuft.

Das dauert auf einem 9900k solange und auf einem 3900X solange. Hat einer von euch so ein Beispiel, oder vergleichbar?

Heutige Prozessoren sind so schnell, dass meist alles zur Laufzeit kompiliert werden kann.
Gaussmath wartet fuer einen klassischen Kompilierungsvorgang, schätzungsweise bei seinem Projekt 2 bis 5 Sekunden bis das durchgerattert ist und etwaige Fehler erkannt werden.

Sein 3900X wird von Visual Studio, Division und bisschen Kram mit 24 Threads zu 64% ausgelastet. Mhm... Ich hab auf meinem 6c12 T Ryzen 2600 nicht mal 60%. Aber gut lassen wir das, hat eh keinen Sinn.

Ein kleiner Kompierungsvorgang stoert die Gaming Performance gar nicht in Division und führt auch nicht zu rucklern, ausserdem glaube ich nicht dass er im Gefecht ist, während er Dinge ändert bzw verbessert.

Man kann sogar während The Division Cinebench St laufen lassen ohne irgendetwas zu merken, deshalb funktionieren heute Dinge wie TeamSpeak, Discord, Browser usw alles parallel. Das benötigt bei ausreichenThreads einfach nur RAM und sonst nichts.
 
Zuletzt bearbeitet:
@gaussmath

Du musst dich nicht rechtfertigen, aber die Argumente von Poly decken sich mit meinen Erfahrungen. Klar kann man ne CPU mit ein paar Codezeilen unter Dauerlast setzen, aber außer für Testzwecke wo das gewünscht ist, wüsste ich nicht warum man das tun sollte. Und durch VS, Spiele usw. parallel passiert da auch nicht viel, also da muss es schon mit dem Teufel zugehen.
Deine Auflösung beträgt 3440 x 1440? Kann es sein das du in Division 2 mehr Frames renderst als deine Bildrate hergibt? Falls ja würde ich mal VSync aktivieren, sonst renderst du unnötig Frames ins Nirvana und musst dir noch Tearing geben, da sowieso der Monitor limitiert. Man muss ja nicht CPU und GPU Leistung verschleudern.
 
Moment mal, nur weil der 3800X deine Argumentation zerschlägt?
Du sagst doch selber:



Der 3800X kostet 400€ und der 9900k 485€, heisst also der 9900k ist 21% teurer und bietet nun mal die geringere Anwendungsleistung. Für dich ist es vllt die sinnloseste CPU im Lineup, für die anderen die längste Praline der Welt, ehm meinte natürlich längste Anwendungsbalken^^
Wenn du den 3800X so sinnlos findest, wie erklärst du dir dann, dass sie den 9900k schlägt und dabei kostet der 9900k 21% mehr? Wie schlecht muss dann der 9900k sein (was du aber nicht einsehen willst). In Games ist da auch kaum ein Unterschied.
Aber du hast recht, selbst die sinnloseste CPU im AMD Lineup macht den 9900k nass, was meinste was dann der 3700X für 339€ macht? Der 9900k ist gegenüber dem 3700X satte 43% teurer!
Ach stimmt ja, sollten ja nicht den Preis miteinbeziehen, das willst du ja nicht und den 3800X willst du auch nicht, was willst du dann MAOAM?^^
Du willst das Intel gewinnt auf biegen und brechen, nur das tun sie nicht, da muss ich dich leider enttäuschen :D

Entschuldige wenn ich darauf doch nochmal einsteigen muss.
Das ist so einfach tatsächlich nicht ganz korrekt!

AMD Ryzen 7 3800X Review: Office, Web Browser, and Productivity

Hier kann man gut sehen, das es in erster Linie von den Anwendungen abhängt. Eine Pauschalaussage ist schlicht falsch und das kann eigentlich nur absicht sein, was enttäuschend ist.
Wenn man hier mal gut urch schaut und ehrlich ist, ist es im mittel ein Kopf an Kopf Rennen, zwischen dem 3800X und 9900k in Anwendungen. Mal der Eine, mal der Andere vorne.

In Spielen liegt Intel weiter vorne. Wobei man das Stock gegen Stock fast vernachlässigen kann.

Klar der Preis liegt aktuell mit 404 zu 478 Euro auf Seiten des 3800X. Jetzt könnte man sehen. Anwendungen im Schnitt Patt, in Spielen im Schnitt der Intel bis zu 13% schneller (Je nach GPU Limit).
Also nass, macht der 3800X den 9900k nicht.

Jeder muss schauen, was er für Anwendungen nutzt, genau wie es sinn macht, wenn man nur BF V spielt zum Beispiel auch die Ergebnisse dahin gehend zu prüfen( für die GPUs, zum Beispiel dann besser eine 5700XT, statt einer RTX2080, außer man besteht auf RT)

Wenn jetzt einer einen starken Arbeitsallrounder bauen will, der greift in der Preisklasse des 9900k, besser zum 3900X. Wer nicht arbeitet, oder nur nicht rechenintensiv arbeitet (was die absolute Mehrheit ist) der ist Stand heute mit dem 9900k besser aufgestellt.

Wenn 3900x und 9900k übertaktet werden zum Beispiel entfernt sich der 9900k auf über 20% vom 3900X in Spielen. Natürlich nur im GPU Limit! Was extrem selten so ist.
Ich bin gespannt, wie es zum Beispiel in einem Jahr aussieht, ob dann der 3900X in Spielen noch etwas Boden gut machen kann. Ich persönlich glaube das es dabei bleibt.

Das alles gilt auch nur für die wenigen Extremfälle, in denen ein Nutzer sagt, ich will auf Teufel komm raus die stärkste Spiele CPU. Für alle anderen ist aktuell der R5 3600 die beste Wahl!
 
Wenn 3900x und 9900k übertaktet werden zum Beispiel entfernt sich der 9900k auf über 20% vom 3900X in Spielen. Natürlich nur im GPU Limit! Was extrem selten so ist.
Ich bin gespannt, wie es zum Beispiel in einem Jahr aussieht, ob dann der 3900X in Spielen noch etwas Boden gut machen kann. Ich persönlich glaube das es dabei bleibt.

Das kann der 3900x nicht, weil sich der Abstand durch den Nachfolger der 2080 Ti vergrößert. Gleiches Spiel wie 2018 zwischen vor und nach Erscheinen der 2080 Ti. Beide CPUs haben zwar Reserven, aber beide performen unterschiedlich stark nach oben, was sich ja nicht ändert und dadurch weiter auseinander zieht.
Theoretisch wäre das mit einer PCIe 4.0 GPU anders darstellbar, wenn im PCIe 3.0 Betrieb künstlich gebremst würde. Dann sähe es so aus als würde die CPU aufgrund der Plattform besser performen. Was natürlich zum Nachteil des 9900k wäre. Aber AMD hat keine GPU in der Leistungsklasse einer 2080 Ti, als das man solchen bösen Absichten nachgehen müsste... und Nvidia hätte kein Motiv dazu.
 
Das kann der 3900x nicht, weil sich der Abstand durch den Nachfolger der 2080 Ti vergrößert. Gleiches Spiel wie 2018 zwischen vor und nach Erscheinen der 2080 Ti. Beide CPUs haben zwar Reserven, aber beide performen unterschiedlich stark nach oben, was sich ja nicht ändert und dadurch weiter auseinander zieht.

Gibt es von dir auch Quellen oder sind das einfach nur deine persönlichen Thesen zu dem Thema?
Ich habe mir vor kurzen Benchmarks bei Computerbase angeschaut und der Abstand zwischen Core i7-7700K und Ryzen 1800X ist trotz Wechsel der GPU fast annähernd gleich geblieben.

Ich bin gespannt, wie es zum Beispiel in einem Jahr aussieht, ob dann der 3900X in Spielen noch etwas Boden gut machen kann. Ich persönlich glaube das es dabei bleibt.

1 Jahr ist ein sehr kurzer Zeitraum und in der Zeit wird sich wenig ändern. Interessant finde ich 2-3 Jahre. Bei AMD wird es noch paar Optimierungen geben, neue Spiele erscheinen, vielleicht eine neue deutlich schnellere RTX 3080 Ti, ...
Ich habe mir bisschen die Werte aus der Vergangenheit angesehen und erwarte, dass der Unterschied zwischen Ryzen 3900X und Core i9-9900K in der Zukunft relativ konstant bleibt.
 
Zuletzt bearbeitet:
Ich habe mir vor kurzen Benchmarks bei Computerbase angeschaut und der Abstand zwischen Core i7-7700K und Ryzen 1800X ist trotz Wechsel der GPU fast annähernd gleich geblieben.

Der ist von 5% auf 15% angewachsen.
Genauso wirds sämtlichen Zen 2 CPUs gehen. Der 9900K wird sich etwa 25% vor den 3900X setzen, mit gleichem RAM, stock sind es bei CB aktuell 12%, wird auch mehr werden. 12 Kerne werden auch in 2 Jahren nicht wirklich skalieren.

1 Jahr ist ein sehr kurzer Zeitraum und in der Zeit wird sich wenig ändern. Interessant finde ich 2-3 Jahre. .

In 2 bis 3 Jahren wird der 6c6t erstmal an Leistung verlieren.
Bis der 12 Kerner signifikant profitiert dauert sicherlich 5 Jahre, bis dort wird der 9900K wohl schneller bleiben.
 
Gibt es von dir auch Quellen oder sind das einfach nur deine persönlichen Thesen zu dem Thema?
Ich habe mir vor kurzen Benchmarks bei Computerbase angeschaut und der Abstand zwischen Core i7-7700K und Ryzen 1800X ist trotz Wechsel der GPU fast annähernd gleich geblieben.



1 Jahr ist ein sehr kurzer Zeitraum und in der Zeit wird sich wenig ändern. Interessant finde ich 2-3 Jahre. Bei AMD wird es noch paar Optimierungen geben, neue Spiele erscheinen, vielleicht eine neue deutlich schnellere RTX 3080 Ti, ...
Ich habe mir bisschen die Werte aus der Vergangenheit angesehen und erwarte, dass der Unterschied zwischen Ryzen 3900X und Core i9-9900K in der Zukunft relativ konstant bleibt.

Ja kann ich dir zum belegen zeigen.

7700k vs 1800x mit 1080 Ti vs 2080 Ti
Compare RTX 2080 Ti vs RTX 2080 Ti vs GTX 1080 Ti vs GTX 1080 Ti - GPUCheck United States / USA

9900k vs 3900x mit 1080 Ti vs 2080 Ti
Compare RTX 2080 Ti vs RTX 2080 Ti vs GTX 1080 Ti vs GTX 1080 Ti - GPUCheck United States / USA

Prozente bitte selber ausrechnen. Ich habe mir jetzt auch nicht die Mühe gemacht von Low nach Ultra zu gehen, einfach weil die Seite sehr träge reagiert, wenn man die Hardware zum vergleichen auswählt. Also nur ultra, wobei man die Url anpassen kann. Heißt also GPU Limit ist immer vorhanden. Unter diesen Aspekten sind die Unterschiede natürlich gering, allerdings gibt es keine Tendenzen die aufzeigen wie eine CPU mit der Zeit schneller wird, im besten Fall fällt die Differenz nicht sonderlich größer aus, aber der Abstand ist dennoch steigend.
 
Schaut euch einfach diese Seite an und dann noch die Seite 3 dort Launch-Analyse AMD Ryzen 3000 (Seite 2) | 3DCenter.org
Noch Fragen?

Ach und es gab mit den neuen Chipsatztreiber (n) noch ein kleinen Performancebump, welcher wohl nicht berücksichtigt wurde, es ist nicht viel aber könnte man ja berücksichtigen Hardware- und Nachrichten-Links des 3./4. August 2019 | 3DCenter.org
Mittlerweile gab es wieder was neues und meine Performance zumindest in CB R15/20 ist erneut angestiegen. Im Schnitt aus mehreren Anwendungen (ausgewertet aus 24 Reviews) ist der 3800X minimalst schneller als der 9900k, nur niemand empfiehlt den, weil der deutlich günstigere 3700X so gut wie genauso schnell ist.
Der 9900k ist über 43% teurer als der 3700X, nochmals dreiundvierzig Prozent! Verbraucht deutlichst weniger (siehe Seite 3 bei der verlinkten Launchanalyse, dann klickt mal auf Computerbase und dann unten auf max AVX Last, da seht ihr einen Unterschied von 86% bei der Leistungsaufnahme zwischen 3700X und 9900k.
Wegen minimal höherer Gamingperformance, was man sowieso nicht merkt (7% Differenz zwischen dem 9900k (ohne 95W Fessel) und dem 3700X in den Frametimes), soll man 43% mehr zahlen? AMD Ryzen 9 3900X, 7 3700X & 5 3600 im Test: Benchmarks in Apps und Games - ComputerBase

Wirklich Leistung holst du aus dem Intel nur raus, wenn du jenseits von 4133MHz RAM taktest mit verschärften Timings, nur wer von den Usern macht das denn eigentlich? Hier ein Beispiel, obwohldas Game auf Intel besser läuft, aber egal Forza Horizon 4 Benchmarkthread - Seite 5 , diese Werte erreiche ich auch mit meinem 3600 für 200€! Also einfach 4000MHz RAM reinpacken und XMP laden reicht nicht.
Ein optimierter 3700X kommt auf ca 230AVG FPS! vs 200 beim 9900k @ 4000MHz RAM XMP, siehe hier 3900X Forza Horizon 4 Benchmarkthread - Seite 8
 
Unter diesen Aspekten sind die Unterschiede natürlich gering, allerdings gibt es keine Tendenzen die aufzeigen wie eine CPU mit der Zeit schneller wird, im besten Fall fällt die Differenz nicht sonderlich größer aus, aber der Abstand ist dennoch steigend.

Diese Daten untermauern deine These nur sehr unzureichend. Wenn du einen Benchmark in 2017 machst und danach den Benchmark mit einer stärkeren Grafikkarte 2019 wiederholst, dann verwendest du nicht die gleichen Treiber, gleiche Windows-Version, ... Eine Grafikkarte aus 2019 wird auch kaum einen Treiber aus 2017 akzeptieren. Selbst die Spiele ändern sich. Außer man spielt alle Spiele 10 Jahre lang und neue Spiele kommen nicht dazu. Neue Spiele (oder Patches) und Zen 2 werden vermutlich etwas bessere Optimierungen erhalten und das kann den Endeffekt ausgleichen. Bei deinem Beispiel liegt das Delta bei ca. 1,6% (7700K vs. 1800X).

Nur als fiktives Beispiel: Der Intel hat in den 2,5 Jahren 1% durch Sicherheitsupdates verloren und der Ryzen hat 1% durch Optimierungen gewonnen, dann haben wir plötzlich ein negatives Delta von 0,7%. Wenn 1-2% Änderungen innerhalb von 2,5 Jahren die Tendenz komplett umdrehen können, dann würde ich von keiner klaren Tendenz sprechen wollen.
 
Gibt es von dir auch Quellen oder sind das einfach nur deine persönlichen Thesen zu dem Thema?
Ich habe mir vor kurzen Benchmarks bei Computerbase angeschaut und der Abstand zwischen Core i7-7700K und Ryzen 1800X ist trotz Wechsel der GPU fast annähernd gleich geblieben.



1 Jahr ist ein sehr kurzer Zeitraum und in der Zeit wird sich wenig ändern. Interessant finde ich 2-3 Jahre. Bei AMD wird es noch paar Optimierungen geben, neue Spiele erscheinen, vielleicht eine neue deutlich schnellere RTX 3080 Ti, ...
Ich habe mir bisschen die Werte aus der Vergangenheit angesehen und erwarte, dass der Unterschied zwischen Ryzen 3900X und Core i9-9900K in der Zukunft relativ konstant bleibt.

Alles was länger als ein Jahr ist, interessiert mich schon kaum mehr. Weil da dann Zen 3 und neue Intel CPUs das Licht der Welt erblicken. Dann wird es wieder schneller werden,, so hoffe ich. Aber ja, ich denke auch das sich am Abstand zwischen 3900X und 9900k weder in Spielen, noch in Anwendungen etwas ändern wird.


Vielleicht kommt auch echt mal weider ein richtiger Hardwareprügel an Spielen ;). Vermutlich werden wir aber weiter mit der Limitierung durch Konsolen leben müssen.
 

Fertig machen im eigentlichen Sinne zeigt der CB test bei weiten nicht.
Meistens wenn Anwendungen zu testen waren, zieht er nicht sehr deutlich an einem 3800X vorbei, eher im Gegenteil.
In Games mit Singel-Core, da gibt's keine Einwände, obwohl man in so einigen der ausgewählten Games in UHD sich fast auf Augenhöhe bewegt, was im Multi-Core, bis auf ganz wenige Ausnahmen deutlich zu Gunsten des i9 9900K ausfällt, sogar noch mehr zutrifft.

Bei Belastungsszenarien im Testmodus Idle, bzw. Teillast sieht der 9700 und 9900K sehr attraktiv aus, aber wenn es in den Lastbereich hinein geht, na ja!

Ich gehe mit der Aussage jederzeit mit, wenn man bei "gleichwertig bleibt"!

Bei beiden, also 3800X und i9 9900K ist alles was Meckern über Leistungsfähigkeit angeht, einfach nur Meckern auf sehr hohen Niveau, oder anders gesagt, meist banaler Natur.
 
Zuletzt bearbeitet:
Schaut euch einfach diese Seite an und dann noch die Seite 3 dort Launch-Analyse AMD Ryzen 3000 (Seite 2) | 3DCenter.org
Noch Fragen?

Ach und es gab mit den neuen Chipsatztreiber (n) noch ein kleinen Performancebump, welcher wohl nicht berücksichtigt wurde, es ist nicht viel aber könnte man ja berücksichtigen Hardware- und Nachrichten-Links des 3./4. August 2019 | 3DCenter.org
Mittlerweile gab es wieder was neues und meine Performance zumindest in CB R15/20 ist erneut angestiegen. Im Schnitt aus mehreren Anwendungen (ausgewertet aus 24 Reviews) ist der 3800X minimalst schneller als der 9900k, nur niemand empfiehlt den, weil der deutlich günstigere 3700X so gut wie genauso schnell ist.
Der 9900k ist über 43% teurer als der 3700X, nochmals dreiundvierzig Prozent! Verbraucht deutlichst weniger (siehe Seite 3 bei der verlinkten Launchanalyse, dann klickt mal auf Computerbase und dann unten auf max AVX Last, da seht ihr einen Unterschied von 86% bei der Leistungsaufnahme zwischen 3700X und 9900k.
Wegen minimal höherer Gamingperformance, was man sowieso nicht merkt (7% Differenz zwischen dem 9900k (ohne 95W Fessel) und dem 3700X in den Frametimes), soll man 43% mehr zahlen? AMD Ryzen 9 3900X, 7 3700X & 5 3600 im Test: Benchmarks in Apps und Games - ComputerBase

Wirklich Leistung holst du aus dem Intel nur raus, wenn du jenseits von 4133MHz RAM taktest mit verschärften Timings, nur wer von den Usern macht das denn eigentlich? Hier ein Beispiel, obwohldas Game auf Intel besser läuft, aber egal Forza Horizon 4 Benchmarkthread - Seite 5 , diese Werte erreiche ich auch mit meinem 3600 für 200€! Also einfach 4000MHz RAM reinpacken und XMP laden reicht nicht.
Ein optimierter 3700X kommt auf ca 230AVG FPS! vs 200 beim 9900k @ 4000MHz RAM XMP, siehe hier 3900X Forza Horizon 4 Benchmarkthread - Seite 8

Ja aber genau das sagte ich doch, was die Anwendungsperformance angeht, quasi Patt, ja nach Test mehr, mal weniger!
Der Chipsatztreiber ist jetzt auch eher ne Messungenauigkeit ;) mit einem Plus von 0,8% über die verschiedenen Bereiche.

Und wegen Verbrauch, lass doch mal diese, für deine Aussagen Werbewirksamen Extremlast Vergleiche. Schau dir doch mal normale Vergleiche, bei realer Last an.
PCGH sagt das beim Spielen kaum noch ein Unterschied in der Leistungsaufnahme ist, zwischen 3900X und 9900k. TomsHardware misst auch nicht nur in synthetischer Volllast. Ich wünschte an dieser Stelle, es würde das Thema Leistungsaufnahme in den Tests mehr Beachtung finden.

Ok, mit beginnenden GPU Limit sind es schon 11% mehr Fps in deinem Link, als der 3900X bieten kann.

Woher hast du das Märchen das sich RAM OC beim 9900k erst ab 4000+ lohnt.

PCGH hat auch das schon mal getestet! Wenn man 3200 statt 2666 verwendet kam im Schnitt schon 10% mehr Fps raus. Hängt natürlich auch am Spiel und der Szene!

Aber mit 3600, liegt man auf jeden Fall bei 10+%... Wer dann noch den 9900K noch etwas übertaktet landet in Summe doch schnell bei 1/4 mehr Fps, als der schnellste AMD Prozessor.

1/4 ist für mich schon ordentlich.

War aber klar das du wieder ein AMD Best Case Spiel raus suchst ;) (Wirklich nicht böse gemeint)
Der Durchschnitt macht die Musik, sonst kann man auch sich auf ANNO stützen um die Gegenseite zu zeigen.
 
Neuer PC (Bestellte Teile) Preisvergleich Geizhals Deutschland

Das alles ist schon da, bis eben auf den 3900X und den hab ich schon vor über einem Monat bestellt, geht mir gerade schon etwas auf die Nüsse. (2070 kommt aus dem alten PC mit)
Mindfactory hat seit meiner Bestellung schon 4 mal das Lieferdatum verschoben, jetzt bin ich erstmal 2 1/2 Wochen im Urlaub, allerdings hätte er heute wieder lieferbar sein sollen - Wurde aber wieder auf den 06.09 verschoben...
Wenn das Ding immernoch nicht da ist wenn ich aus dem Urlaub komme weiß ich echt noch nicht was ich dann mache...
 
Neuer PC (Bestellte Teile) Preisvergleich Geizhals Deutschland

Das alles ist schon da, bis eben auf den 3900X und den hab ich schon vor über einem Monat bestellt, geht mir gerade schon etwas auf die Nüsse. (2070 kommt aus dem alten PC mit)
Mindfactory hat seit meiner Bestellung schon 4 mal das Lieferdatum verschoben, jetzt bin ich erstmal 2 1/2 Wochen im Urlaub, allerdings hätte er heute wieder lieferbar sein sollen - Wurde aber wieder auf den 06.09 verschoben...
Wenn das Ding immernoch nicht da ist wenn ich aus dem Urlaub komme weiß ich echt noch nicht was ich dann mache...

Schmeiß das Dark Power raus und nimm das E11 mit 750 Watt.
Ansonsten nimmst du einfach den 16 Kerner. Der kommt ja bald. :D
 
Woher hast du das Märchen das sich RAM OC beim 9900k erst ab 4000+ lohnt.

PCGH hat auch das schon mal getestet! Wenn man 3200 statt 2666 verwendet kam im Schnitt schon 10% mehr Fps raus. Hängt natürlich auch am Spiel und der Szene!

Aber mit 3600, liegt man auf jeden Fall bei 10+%... Wer dann noch den 9900K noch etwas übertaktet landet in Summe doch schnell bei 1/4 mehr Fps, als der schnellste AMD Prozessor.

1/4 ist für mich schon ordentlich.

Bei AMD erzielst du ähnliche Effekte. Bei Ryzen 3000 gibt es nur die Besonderheit, dass ab ca. 3600-3900 MHz es keine oder kaum Vorteile mehr gibt. Also kann es schon sein, dass der Intel ab ca. 4000+ MHz dem AMD davonziehen kann und der Abstand größer wird. So habe ich Duvar verstanden.
In der Realität wird aber 4000+ MHz auch bei Intel eher selten zu sein.
 
Die Diskussion wird langsam echt lächerlich...
Fakt ist Zen 2 hat deutlich zugelegt in Puncto Gaming und sooo groß ist der Unterschied nicht zum Intel, also man würde es nicht spüren bei 6-10% Differenz, ob ich nun 60 FPS hab oder 63-66 FPS spielt keine Rolle (in den meisten Games sind es sowieso im 3 Stelligen Bereich, ist also Wumpe eigentlich).
Warum soll man wegen einer Hand voll FPS:
1. Viel mehr zahlen?
2. Viel mehr verbrauchen im Vergleich?
3. Auf Features bzw auf die modernere Plattform verzichten?
usw usw

@ derneuemann: Der 3800X ist sowieso schon im Schnitt minimal schneller in Anwendungen und mit dem neuen Chipsatztreiber (welcher schon wieder alt ist) hat sich die Leistung in Anwendungen um weitere 1,4% verbessert...
Dann kann ich ja auch sagen, in den Frametimes bei Games ist der Unterschied zwischen 44% teureren 9900k gegenüber dem 3700X nur 7%, also auch so gut wie ein "Patt"...
Wie ihr es auch dreht und wendet, Zen 2 ist die bessere Empfehlung und CPU, "5 FPS" wiegen nicht nicht die zig anderen Nachteile des 9900k wieder auf.

Hier wieder mal ein Eigentor von Intel: https://www.pcgameshardware.de/CPU-...0K-oder-9700K-Intel-sieht-das-anders-1330126/
 
Zuletzt bearbeitet:
Diese Daten untermauern deine These nur sehr unzureichend. Wenn du einen Benchmark in 2017 machst und danach den Benchmark mit einer stärkeren Grafikkarte 2019 wiederholst, dann verwendest du nicht die gleichen Treiber, gleiche Windows-Version, ... Eine Grafikkarte aus 2019 wird auch kaum einen Treiber aus 2017 akzeptieren. Selbst die Spiele ändern sich. Außer man spielt alle Spiele 10 Jahre lang und neue Spiele kommen nicht dazu. Neue Spiele (oder Patches) und Zen 2 werden vermutlich etwas bessere Optimierungen erhalten und das kann den Endeffekt ausgleichen. Bei deinem Beispiel liegt das Delta bei ca. 1,6% (7700K vs. 1800X).

Nur als fiktives Beispiel: Der Intel hat in den 2,5 Jahren 1% durch Sicherheitsupdates verloren und der Ryzen hat 1% durch Optimierungen gewonnen, dann haben wir plötzlich ein negatives Delta von 0,7%. Wenn 1-2% Änderungen innerhalb von 2,5 Jahren die Tendenz komplett umdrehen können, dann würde ich von keiner klaren Tendenz sprechen wollen.

Dann setzt du aber auch voraus das jeder Benchmark mit der 1080 Ti ein Jahr alt ist und heute alle 9900k Besitzer auf die 2080 Ti gewechselt sind. Warum sollten 1080 Ti nicht mit aktuellen Treibern und System erneut gebencht worden sein. Es wird hier auch User geben die ihren 1600x mit einer 1060 und aktuellem System nochmal testen. Außerdem gäbe es die Konstellation eines 3900x mit 1080 Ti sonst nicht.

Hier wird einfach nur noch Cherry Picking betrieben, in einem Markt der variabler nicht sein könnte.
Duvar pickt sich auch nur die schönen Dinge raus, dass die Ryzen 3000 mit x570 Board aber im Idle mit 10-15W höherer Leistungsaufnahme vor sich hin idlen, wird stillschweigend ignoriert. Was soll ich zu den Argumenten sagen? Übers Jahr hinweg bin ich mit 80% Leerlauf und gut 20% Last dabei, selbst diesen Beitrag verfasse ich im Idle, und? Auch das wird einem nicht vergönnt. Na klar sind 260W Leistungsaufnahme einer CPU unter ultrabrutaler Synthetik-Last nicht schön anzusehen, aber das tun 200W bei nem anderen Chip auch nicht und mit dem Brocken 3 brauche ich über die Kühlung beider CPUs nicht mal nachdenken.
Wenn der 9900k bei 120W abregeln würde, wäre ich angefressen das bereits die Möglichkeit ausgeschlossen ist darüber hinaus zu operieren, ob ich das nutzen wöllte oder nicht spielt keine Rolle. Etwas nicht können ist was anderes als können und nicht nutzen. Mit übertakten das selbe in grün, ob CPU, RAM oder GPU ist unerheblich.
Fakt ist, ab 3 Meter Distanz zu meinem 27 Zoll Monitor sehen die Balken zwischen Ryzen 3000 und Intel 9. Gen. identisch aus, bei gleichem Core Count und gleicher Anzahl logischer Kerne, völlig egal ob Anwendungen oder Games.
Fakt ist aber auch, dass ich entweder Intel im 14nm Korsett lobe oder den TSMC 7nm Prozess und die Zen Architektur bemängele. Bei gleicher Balkenlänge, ungleicher Architektur, Fertigung und Alter, muss es eine Komponente geben, die entweder besonders gut oder besonders schlecht ausfällt. Wer oder was das ist soll jeder für sich beurteilen.

Und abschließend zum Gaming. 500€ CPUs die sich mit den letzten Frames rühmen sind ganz sicher nicht an den Billigheimer adressiert, der weniger FPS toleriert und auch noch über den Preis argumentiert.
 
Der idle Verbrauch wurde per Chipsatztreiber gefixt vor über 3 Wochen soweit ich weiß, ich picke mir nicht die schönen Dinge raus, ganz im Gegenteil, zeige Auswertungen von über 24 Reviews, wenn das Cherry Picking für dich ist, dann OK.
Das ich mal ein Game, was auf Intel besser läuft zum Vergleich hinziehe... ach egal denkt doch was ihr wollt, macht eure Augen weiterhin zu mit eurem Intel Wahn, ignoriert alle Tests/Reviews, ihr wisst es schließlich besser :D

chipset.png

Man muss auch bedenken, wir sind noch in der "BETA" Phase :ugly:
Es kommen noch diverse Optimierungen und Chipset Treiber updates/ Bios updates etc, aber trotz allem steht man wie ne 1 vor dem ausgereiften 9900k!
 
Dann setzt du aber auch voraus das jeder Benchmark mit der 1080 Ti ein Jahr alt ist und heute alle 9900k Besitzer auf die 2080 Ti gewechselt sind. Warum sollten 1080 Ti nicht mit aktuellen Treibern und System erneut gebencht worden sein. Es wird hier auch User geben die ihren 1600x mit einer 1060 und aktuellem System nochmal testen. Außerdem gäbe es die Konstellation eines 3900x mit 1080 Ti sonst nicht.

Ich gehe davon aus, dass es so gemacht wurde und das ist genau das Problem. Wenn du keine Zeitmaschine hast, dann passt es nicht zu deiner Aussage. Ich habe bewusst den Stand vom Launch 1800X und den Stand heute verglichen. Trotz stärkerer Grafikkarte bleibt der Abstand fast gleich. Änderungen im Bereich der Messungenauigkeit vernachlässige ich natürlich.
Ich kann es nicht über längere Zeit beurteilen, aber in letzter Zeit sind deine Argumente teilweise widersprüchlich, falsch oder wenig aussagekräftig. Duvar kann ich einordnen, aber du behauptest gern objektiv zu sein und das bist du überhaupt nicht. Du betreibst oft absolutes Cherry Picking, ansonsten funktionieren viele deiner Aussagen nicht. Dazu noch persönliche Angriffe die absolut nicht in Ordnung waren. Von einer Entschuldigung habe ich auch nichts gelesen. Man sollte auch immer eine ausreichende Selbstkritik haben.
Ich finde es nicht in Ordnung ständig auf andere Personen zu zeigen und damit von eigenen Fehlern abzulenken versuchen. Du hast eine Aussage getroffen (nicht Duvar) die in der Form kaum zu halten ist.
 
Zurück