AMD Ryzen 9 3950X: So testet die Welt

Ich fühl mich mit meinem 1800X eigentlich schon sehr gut aufgestellt...was soll daran schlecht sein?:huh:

Weiß ich auch nicht, das hängt ja immer von den individuellen Anforderungen ab.

Hab hier selber noch nen i5-3570K im Einsatz. Und um World of Tanks mit 60fps zu spielen, sehe ich mich selbst mit dem noch ausreichend gut aufgestellt. :) Wobei ich mir im Nachhinein lieber den Xeon-Quadcore damals geholt hätte.
Lustigerweise hab ich seit dieser Woche auch ne RX 5700XT im gleichen System, die Kombi sieht man bestimmt aus gutem Grund auch nicht allzu oft. Aber für meinen ganz speziellen Fall (WoT, 2160p, 60Hz) läuft das perfekt und die GPU hält die 60fps bei ~70% Last, was mich durchaus überrascht hat.

Natürlich würde ich mir gerade jetzt seit dem Erscheinen der Ryzen 3000er unheimlich gerne einen komplett neuen PC bauen. Aber das muss wohl noch ~1 Jahr warten, bis mein Studium fertig ist. Mal sehen was es dann schon wieder Neues gibt. Ich freu mich jedenfalls, dass AMD so gut aufgestellt ist.
 
Oft belächelt und nicht für voll genommen weil für viele User zu abgehoben(?)...Chris Roberts SpaceSIM "Star Citizen" zeigt wohin die Reise geht...sie haben eine extra TelemetrySeite geschaffen wo gezeigt wird welche PCs von Spieler welche Framerate erreichen können.
Interessant ist hier wo die Multicore-CPUs in der Matrix stehen..das (fertige) Spiel will jeden CPU Threat nutzen können und sie sehen entsprechend die ganzen 16-32Cores TRs ganz oben. Bestimmt nicht ohne Grund, die wissen mehr als wir Spieler zurzeit noch sehen können. Von daher, (flotte) Multicore-CPUs gehören die Zukunft. :daumen:

- RSI Public Telemetry



Viele Grüße,
stolpi
 
Für den Consumerbereich würde ich darauf tippen, das bei 16 Kerne für die nächsten 2-3 Jahre das Ende der Fahnenstange erreicht ist. Über 16 Kerne dürfte mit der aktuellen AMD Architektur schlicht nicht möglich und nötig sein (Design und auch 7nm). Intel dürfte froh sein, wenn Sie 16 Kerne mit 10nm umgesetzt bekommen, und das dürfte auch nicht vor 2021 passieren.
 
Für den Consumerbereich würde ich darauf tippen, das bei 16 Kerne für die nächsten 2-3 Jahre das Ende der Fahnenstange erreicht ist. Über 16 Kerne dürfte mit der aktuellen AMD Architektur schlicht nicht möglich und nötig sein (Design und auch 7nm). Intel dürfte froh sein, wenn Sie 16 Kerne mit 10nm umgesetzt bekommen, und das dürfte auch nicht vor 2021 passieren.

Wie schafft es AMD dann schon einen 64 Kerner auf dem Markt zu haben?

Also möglich wird es sein, 7nm+ wird die Effizienz schon wieder um 10-15% steigern, also ausgehend vom 280W HEDT 64Kerner bleiben dann noch rund 240W über. 5nm mit EUV soll 20-30% Effizienz bringen und dann würde ohne jegliche Designverbesserungen und Optimierungen der Chips, ein 64Kerner plötzlich noch bei rund 170W liegen. Wenn jetzt noch ein paar Verbesserungen kommen haben wir mit 150W TDP in zwei bis drei Jahren 64Kerner im Consumerbereich.

Die Frage ob es nötig sein wird ist viel größer. Ich denke wir bekommen jetzt in Konsolen echte 8 Kerne die auch eine wirklich nutzbare Leistung anbieten und sollten uns damit anfreunden, dass dies die Speerspitze der Entwicklung bleiben wird, für 90% der Games. Daher werden 64Kerne im Desktop in den nächsten 5 Jahren einfach keinen Sinn ergeben, ob möglich oder nicht.
 
Was zeigt wie extrem es auf Einstellungen, Spiel und Szenario ankommt.
Es ist ziemlich offensichtlich, dass der 9900KS in Spielen nicht geschlagen werden kann von Ryzen momentan. Die krone ist unstrittig weiter bei Intel. Wenn man natürlich die testbedingungen und Spielauswahl ausreichend geschickt wählt verliert der 9900KS. Glücklicherweise gibts ja sehr viele Tests im Netz deren Mittelwert die realität wohl recht gut trifft - und da heißts eben bei Spielen im CPU-Limit ist ein 9900K(S) noch ne Handvoll prozent schneller, bei quasi allem anderen was nicht speziell auf Intel zugeschnitten ist an Software wird Intel gerade vom 3950X plattgefahren.

Wenn man sich Spielebenchmarks anschaut, sind selbst günstige CPUs noch weit vorn, je höher die Auflösung, je mehr die GPU belastet wird, desto mehr egalisiert sich der Vorteil, den Intel da noch hat. Mit ner 150€ CPU erreichst du 80, 90% der Framerate der schnellsten CPU für ca. 500€ Insofern sind Spielebenchmarks bei CPU tests nur von nebensächlicher Bedeutung, außer ein Spiel ist so optimiert dass auch acht, zwölf oder sechzehn Kerne noch mal einen deutlichen Unterschied machen können.

Interessant wird es dann natürlich, wenn du Zockst und parallel dazu noch Streamst.

Vor einigen Monaten hat man sich über den Verbrauch von Prozessoren beschwert und heute wird mit vielen Cpu Kernen geprotzt obwohl das den Verbrauch nach oben treibt.

Ein Hoch auf die Doppelmoral Ihr Schwätzer!:D

Den Verbrauch treibst du eher mit 5 GHz Allcore-Boost, nach dem Motto "ich muss unbedingt den Längsten haben" hoch, so wie es Intel macht.
 
Zuletzt bearbeitet von einem Moderator:
Wenn man sich Spielebenchmarks anschaut, sind selbst günstige CPUs noch weit vorn, je höher die Auflösung, je mehr die GPU belastet wird, desto mehr egalisiert sich der Vorteil, den Intel da noch hat. Mit ner 150€ CPU erreichst du 80, 90% der Framerate der schnellsten CPU für ca. 500€ Insofern sind Spielebenchmarks bei CPU tests nur von nebensächlicher Bedeutung, außer ein Spiel ist so optimiert dass auch acht, zwölf oder sechzehn Kerne noch mal einen deutlichen Unterschied machen können.

Interessant wird es dann natürlich, wenn du Zockst und parallel dazu noch Streamst.

Erreicht man eben nicht, sieht man ja klar und deutlich wenn man im CPU Limit testet. Das Performancplus der schnelleren CPU wird durch die lahme Grafikkarte halt kaschiert/unterdrückt bzw verschleiert (die 500€ CPU ist trotzdem noch deutlich schneller, nur du siehst es wegen dem GPU bottleneck nicht mehr), was nicht bedeutet, dass die 150€ CPU 90% der FPS der 500€ CPU erreicht.

Hättest du aber jetzt mal als Beispiel gesagt, mit einem Ryzen 2600 und einer 2080Ti erreicht man in WQHD/4k Auflösung (je nach Game) 90% der FPS was ein System bestehend aus der selben GPU und einem 9900KS, hätte ich noch zustimmen können.
Heißt also, nur weil das Performanceplus des zB 9900KS nicht mehr sichtbar ist aufgrund des GPU Limits, dass es nicht mehr vorhanden ist.
 
Zuletzt bearbeitet:
Aber auch nur dann wenn ein Spiel von mehr Kerne profitiert und vor allem auch nur dann wenn alle Kerne genutzt werden. Denn was bringen mir 16 Kerne wenn ein Spiel noch nicht mal 8 Kerne nutzt. Dann wird die Last von Windows auf alle Kerne verteilt damit keinem Kern kalt wird.

Natürlich kann sich das noch Zukünftig ändern, wo mehr Kerne mehr bewirken können.
Aber aktuell sind es sehr wenige Spiele die alle Kerne nutzen.
 
Dann hast du ja sicherlich HT deaktiviert nehme ich mal an oder, wenn nicht wäre ein 3950X mit deaktiviertem SMT (HT), mit 16 echten Kernen schon eine Wucht.
 
Erreicht man eben nicht, sieht man ja klar und deutlich wenn man im CPU Limit testet. Das Performancplus der schnelleren CPU wird durch die lahme Grafikkarte halt kaschiert/unterdrückt bzw verschleiert (die 500€ CPU ist trotzdem noch deutlich schneller, nur du siehst es wegen dem GPU bottleneck nicht mehr), was nicht bedeutet, dass die 150€ CPU 90% der FPS der 500€ CPU erreicht.

Insbesondere sind auch die MinFPS und Frametimes deutlich besser.
 
Dann hast du ja sicherlich HT deaktiviert nehme ich mal an oder, wenn nicht wäre ein 3950X mit deaktiviertem SMT (HT), mit 16 echten Kernen schon eine Wucht.
Wieso sollte ich eine Funktion deaktivieren wofür ich auch extra bezahlt habe. ;)
 
Zuletzt bearbeitet von einem Moderator:
Wieso sollte ich eine Funktion deaktivieren wofür ich auch extra bezahlt habe. ;)

Was bringen dir 16 Threads, wenn ein Spiel nicht mal 8 nutzt?

Mal die Erinnerung auffrischen^^

Aber auch nur dann wenn ein Spiel von mehr Kerne profitiert und vor allem auch nur dann wenn alle Kerne genutzt werden. Denn was bringen mir 16 Kerne wenn ein Spiel noch nicht mal 8 Kerne nutzt. Dann wird die Last von Windows auf alle Kerne verteilt damit keinem Kern kalt wird.

Natürlich kann sich das noch Zukünftig ändern, wo mehr Kerne mehr bewirken können.
Aber aktuell sind es sehr wenige Spiele die alle Kerne nutzen.
 
Wie schafft es AMD dann schon einen 64 Kerner auf dem Markt zu haben?

Also möglich wird es sein, 7nm+ wird die Effizienz schon wieder um 10-15% steigern, also ausgehend vom 280W HEDT 64Kerner bleiben dann noch rund 240W über. 5nm mit EUV soll 20-30% Effizienz bringen und dann würde ohne jegliche Designverbesserungen und Optimierungen der Chips, ein 64Kerner plötzlich noch bei rund 170W liegen. Wenn jetzt noch ein paar Verbesserungen kommen haben wir mit 150W TDP in zwei bis drei Jahren 64Kerner im Consumerbereich.

Die Frage ob es nötig sein wird ist viel größer. Ich denke wir bekommen jetzt in Konsolen echte 8 Kerne die auch eine wirklich nutzbare Leistung anbieten und sollten uns damit anfreunden, dass dies die Speerspitze der Entwicklung bleiben wird, für 90% der Games. Daher werden 64Kerne im Desktop in den nächsten 5 Jahren einfach keinen Sinn ergeben, ob möglich oder nicht.

Die Threadrippe usw. würde ich nicht mehr als Consumermodelle bezeichnen. Der Unterschied besteht in den unterschiedlichen Sockeln /Größen und aus Kostengründen kann ich mir nur schwer vorstellen das der Nachfolger von AM 4 nennenswert größer ist.

Für mehr Kerne auf der gleichen Chipfläche wäre dann 5nm erforderlich und es bleibt weiterhin die Frage ob es nötig /sinnvoll für AMD ist mehr wie 16 Kerne anzubieten. Zumindest in den nächsten 2 Jahren
 
Was zeigt wie extrem es auf Einstellungen, Spiel und Szenario ankommt.
Es ist ziemlich offensichtlich, dass der 9900KS in Spielen nicht geschlagen werden kann von Ryzen momentan. Die krone ist unstrittig weiter bei Intel. Wenn man natürlich die testbedingungen und Spielauswahl ausreichend geschickt wählt verliert der 9900KS. Glücklicherweise gibts ja sehr viele Tests im Netz deren Mittelwert die realität wohl recht gut trifft - und da heißts eben bei Spielen im CPU-Limit ist ein 9900K(S) noch ne Handvoll prozent schneller, bei quasi allem anderen was nicht speziell auf Intel zugeschnitten ist an Software wird Intel gerade vom 3950X plattgefahren.

Da muss ich dir Recht geben, ich kaufe die CPU aber auf lange Sicht, lass uns mal 5-6 Jahre warten und dann die Spieleleistung der beiden CPUs vergleichen.

Ich vermute, dann musst du bei Intel wieder in den Geldbeutel greifen und der AMD Nutzer wird weiterhin seine CPU nutzen. ;)

Ich werde am Anfang SMT einfach deaktivieren, für Games sinnvoller (wegen Kernmenge) und für meine Anwendungen immer noch
schnell genug, mein 3930K ist jedenfalls in dem Bereich nicht mehr so potent wie vor ~8 Jahren. ;)

Die meisten denken mir zu kurzfristig, ich will, wenn ich schon so viel Geld für den Wechsel zahle, auch wieder 8+ Jahre meine Ruhe haben.
Wenn ich sehe, wie die Mehrkernunterstützung bei Spielen aktuell genutzt wird, wird es auch noch viele Jahre dauern, bis die CPU nicht mehr reicht. :)
 
Sieh genauer hin.
Ein 3950X hat die gleichen Powerlimits wie ein 3900X - die 4 Kerne mehr verbrauchen also genau Null Watt mehr.

In Assassins Creed Odysee benötigt die CPU 33 Watt mehr Strom, ohne mehr zu leisten, nimmt fast soviel auf wie ein 9900KS.
In Battlefield 5 sind es sogar 36 Watt mehr, mehr als bei einem 9900KS. Shadow of the Tombraider 40 Watt mehr.

Sieht mir nicht nach einer effizienten Gaming CPU aus. Die Doppelmoral ist diese Woche wieder besonders hoch im Kurs.

Die Ryzen3000 sind nebenbei die bisher effizientesten Desktop-CPUs überhaupt. Erst Recht wenn mans so haben will und die Powerlimits von Hand reduziert.

Ja, wenn man Manuell eingreift, dann ist das in Spielen vielleicht sparsam. Aber im Idle sind die Ryzen Systeme nicht sparsam.
Mein System mit 3700x und einem x470 Carbon benötigt im Idle 33 Watt mehr als das System mit einem 9900KF und Z370 Board, jeweils mit aktuellestem Bios.
Sparsam ist was anderes, wenn man es denn wirklich drauf anlegt. Und wie der Test hier zeigt, ist der 3950x in punkto Gaming bei weitem nicht so sparsam wie der 3900x.
In Anwendungen ist das was anderes, aber in punkto Gaming ist die CPU ineffizient, wie ein 9900KS.

Wenn schon mit Doppelmoral kommen dann begründet - die Nummer hier warn ziemliches Eigentor.^^

Na, da hat er schon völlig recht.

Ich sags noch mal mit einem guten Board bekommt man selbst mit denn 1XXX Ryzen die selben strafen Cache Zugriffszeiten hin wie bei denn 2 oder 3k Ryzen , dann haengt man nur am etwas geringeren Takt und da jetzt jammern als wenn ein Ryzen mit 3,6-3,8 GHz auf 8 Kernen Dreck waer ist schon jammern auf verdammt hohem Niveau :)

Es gibt einen Unterschied zwischen "Dreck" und "sehr gut aufgestellt". Das Top End an CPU´s ist in Punkto Gaming heute 50% schneller als ein 1800x. Sagen wir mal "vernünftig aufgestellt" dazu.

Man muss den Zweck unterscheiden, uns zwar zwischen "Gebrauchsgegenstand" und "Hobby/Konsumgut".

Vorsicht, wenn du mit dieser Argumentation bei Turing kamst, dass es ja für das Hobby ist, warst du ganz schnell als Provokateur, der zu viel Geld hat, verschrien.

Tickt derjenige andersrum baut er eben 16 Kerne und ne 2080Ti ein weil ers nunmal WILL und KANN - fährt aber vielleicht nen 60PS-Kleinwagen weil der reicht auch um von A nach B zu kommen.
Kommt einfach mal davon weg alles nach "reichen" und "brauchen" zu beurteilen. Im privaten Leben ist das sinnvoll da man viel geld sparen kann an Stellen wo man eben nur kauft was wirklich nötig ist.

Plötzlich ist diese Denkweise auch opportun, wenn die richtige Firma das richtige Produkt hat, das sich zwar für den Einsatzzweck "Gaming" nicht lohnt, aber man es einfach haben will.
Dann würde ich sagen, hat sich eine 2080Ti schon 10x mehr gelohnt als sich diese CPU in ein Gaming-Rig zu basteln.

Ist doch überall dasselbe - meine Frau versteht genauso wenig wie man mit 5 paar Schuhen durchs Leben kommen kann wie ich damit klarkomme, dass sie noch immer auf ner GTX970 in 30 fps spielt und glücklich ist. Jeder wie er will :ka:
Es hat auch keinen echten Mehrwert wenn ich ein Instrument spiele das rund 3000€ kostet (da meine Fähigkeiten auch von einem 1500€-Instrument nicht eingeschränkt würden^^)... aber es ist halt geil und es freut mich seit vielen jahren das Ding zu benutzen. Auch das ist ein "Wert".

Also gehts jetzt nur noch darum wieviel etwas gekostet hat und man damit protzen kann? :lol:

Weil sie dem ganzen Marketing und dem Internetgossip so lange ausgesetzt waren bis sies glauben. :ka:
Ich habe zwischen einem 5960X und einem i3-8100 jedenfalls in all meinen Spielen nicht den geringsten Performanceunterschied bemerkt. Auch der kleine i3 reicht für 60 fps.

Hat sich ja dann mega gelohnt, oder bist du jetzt dem Marketing und Internetgossip verfallen?;)

Denn ja, nicht brauchen ist für solchen User eine sinnvollere (und damit auch aufpreiswürdige) Option, als es später zu brauchen aber dann nicht zu haben.
zwinker4.gif


Dafür (siehe Rechnung oben) werfen "wir" dann auch gerne mal wahnwitzige unglaubliche superkrasse 3-6€ pro Monat extra in den Club. ^^

Ich wusste wie gesagt nicht, dass diese Argumentationsweise hier im Forum noch existiert, ich habe selbst oft schon vorgerechnet, inwieweit sich die Turing Preise "lohnen".
Wer nämlich 2018 bei der 2080 Ti für ~1000 zugeschlagen hat, hat wohl bis Sommer/Herbst 2020 die schnellste Karte und AMD´s Konkurrenz wird ja auch nicht viel günstiger sein.
Also wen wir die Rechnung für Gaming CPUs aufstellen, die null Mehrwert bieten, konnte man das für Turing ja erst recht. Interessanterweise zählt bei Turing das Zukunftsargument mit dem Raytracing hauptsächlich wegen dem Preis ja nicht sehr häufig, allerdings ist man bei dem 3950x Feuer und Flamme, wenn Jahre später die Investition früchte trägt,
und das natürlich im Vergleich zu damals verfügbaren Produkten, nicht verglichen mit Produkten 2 oder 3 Jahre später.
Philosophisch gesehen ist das ganz interessant, was man hier im Forum so liest, was mich immer wieder gedanklich zu der These bringt, dass es rein am Hersteller liegt.
 
Zuletzt bearbeitet:
Für mehr Kerne auf der gleichen Chipfläche wäre dann 5nm erforderlich und es bleibt weiterhin die Frage ob es nötig /sinnvoll für AMD ist mehr wie 16 Kerne anzubieten. Zumindest in den nächsten 2 Jahren

Ich gehe auch davon aus, das es da bei 16 Kernen bleibt.
Jetzt dauert es aber sowieso erst mal 5+ Jahre, bis Intel das im Consumer-Bereich auch hat und die Software darauf angepasst ist.
 
Weil mir gerade danach war, Achtung WoT. :D

Das User wie ich, also Power-/Performance-/HEDT-User und Enthusiasten usw, auch, aber deutlich weniger, nach P/L schauen, bzw. ihren Sweetspot ~25-50% oberhalb der Rechenleistung von Mainstream(AM4)-Mainstream(3600X/3700X) liegen haben - du [und nicht nur du] aber P/L deutlich stärker im Fokus hast. ;)

Hey, 3930K, nicht i7-980. Mach meine HW nicht noch älter als sie ohnehin schon ist. :D
Und wenn aktuelle Hardware meinen RAM noch entsprechend (mit QC) unterstützen würde, würde ich ihn auch weiter verwenden. Warum auch nicht. Ich habe mit dem RAM seit 2011 stolze ~60GB/s, und damit sogar 20% mehr Bandbreite als ein 3900X/3950X mit 3200er Standard-RAM. (oder mehr als doppelt so viel Schreibbandbreite wie alles ab 3800X abwärts... ^^)

Und ungeachtet der Frage ob die Gesamtinvestition wirklich die gleiche wäre (und ich liste gleich auf warum es mMn/nach meinen Kriterien nicht so ist), der Unterschied zum 1600X definitiv, zum 1700X immer noch sehr wahrscheinlich, wäre es mir noch nicht mal Wert, die alte Hardware aus und die neue einzubauen. Denn Geld ist überhaupt nicht der Grund, warum ich keinen 1700X (oder irgendwas anderes) gekauft, bzw. als Main-PC immer noch meinen 3930K, habe.

Solche "Geld-Rechnungen" sind meiner Meinung nach (und zumindest für User wie mich) nämlich immer Käserechnungen. Wenn du nach maximalem P/L-Verhältnis gehen willst, kannst du die Rechnung bzgl. €uro-Effizienz auch noch weiter auf die Spitze treiben, und mit zb. einen Dual-Core anstellen, und mit 4GB RAM, und einer 2GB Grafikkarte. Damit laufen sogar heute noch 99,999% aller (150.000?) PC-Spiele einwandfrei.

Der 3930K war die zweit größte HEDT-CPU damals, und hatte 50% mehr Kerne als der schnellste Mainstream-Quad-Core - der wieviel gekostet hat? Ein i7-2700K für zum Release 350€? Also war der 3930K mit 500€ gute 150€ teurer. Mein P9X79 kam damals 180€ bei Alternate. Was würdest du sagen hätte ein faires vergleichbares Board für den 2700K gekostet? 50€ weniger? Der ganze Rest des Systems war ja identisch. Ich habe für den kompletten PC (mit 120GB SSD und 600GB 10krpm-HDD) exkl. Graka damals bei Alternate glaube 1400€ bezahlt, hätte mit einem Quad-Core und der entsprechend geringeren Leistung und Ausstattung also 1200€ bezahlt - ergo hätte ich 14% gespart bzw. habe ich 16,5% draufgelegt. Wow, ein ganzes Abendessen. :ugly:

Für die zusätzlichen 16,5% habe ich seit 02.2012: 50% mehr Kerne bzw. 50% mehr Threads, einen 50% größeren L3-Cache und auch >100% mehr RAM-Bandbreite. Nicht zu vergessen die (Anfangs ja, dann aber doch nicht offizielle) problemlos funktionierende PCIe3.0 Anbindung (= doppelte PCIe-Bandbreite, gab es zum Kaufzeitpunkt afaik nur beim 3930K). Die Lanes usw. ignorieren wir mal. Bei meinem letzten Vergleich hatte ich in Ark - einem Spiel was ich sehr viel gespielt habe - DEUTLICH weniger Ruckler als ein 6700K (oder war es shon 7700K?) System, wenngleich die FPS niedriger waren. Der Besitzer des anderen PC fand das Spiel auf meiner alten Gurke deutlich angenehmer. Bei der CPU bin ich mir nicht mehr 100% sicher, aber beide Systeme standen direkt nebeneinander. Ganz ehrlich, nur für das bessere Spielgefühl in diesem einen Spiel, was ich hunderte Stunden gespielt habe, haben sich die 16,5% [für mich] schon gelohnt.

In all den Jahren habe ich aber auch noch haufenweise Grid-Computing gemacht, bzw. grundsätzlich mit dem PC gecruncht (auch Videos usw), also Dinge die alle 12 Threads annähernd zu 100% auslasten. Und ich bin mir ziemlich sicher, wie bei Ark mal ganz abgesehen von den max. FPS, dass da in so manchen Spielen (ob durch die zusätzlichen Kerne, den größeren/schnelleren Cache/die mehr als doppelte RAM-Bandbreite oder das PCIe3.0 blabla^^) sehr viele Ruckler auf meinem PC nicht vorhanden waren, und bestimmt waren hier und da in meinen Lieblingsspielen (zb. BF) auch mal die [min] FPS etwas höher.

Und für die gesparten ~200€ von damals, inkl. der für meine alte Hardware noch eingenommene Kohle, hätte ich - egal ob vor 2 Jahren oder heute - neue Hardware bekommen, die nicht wirklich so krass spürbar schneller als mein aktuelles Setup ist. Denn ich bräuchte eine neue CPU, ein neues Mobo, neue 32GB RAM, und laut unserer NT-Experten natürlich auch ein neues Netzteil. Und da meine AiO auch schon fast 8 Jahre alt ist, und auf keinen aktuellen Sockel passt, bräuchte ich auch die neu. Am Ende wäre es dann auch nur der 1600X geworden, also von Hexacore auf Hexacore aufgerüstet. Krass.:ugly:

Sorry, aber dann zahle ich gemessen am Komplett-PC lieber 15-25% drauf, habe dafür dann nicht nur schon Jahre vorher was "der Mainstream" (und auch ich, wenn ich "kleiner" kaufe und dann später noch mal noch kleiner nachlege/aufrüste) erst Jahre später haben, und muß bzw. kann ggf. auch einige Jahre später wieder aufrüsten. Denn aktuell ist mir mein übertakteter 3930K (mit der 980Ti G1) ehrlich gesagt noch flott genug unterwegs. Die Performance treibt mich nicht zum Aufrüsten bzw. Neukauf, sondern das jucken in den Fingern, die Lust einfach mal wieder was Neues zu haben.

Deswegen habe ich damals den 3930K für 500€ genommen, und nicht den 3960X für 1000€. ;)

Und für Enthusiasten sind Dinge wie P/L, "brauchen", "rentieren" usw. völlig sekundär. Wie gesagt, wer den Fokus auf P/L legt, der kann ja auch heute noch einen Hexacore ala 3600X kaufen, und wird für die nächsten Jahre trotzdem auch noch einen tollen Gaming-PC haben.

Die Performance dürfte sich zum 3930K nicht so viel geändert haben, und dafür hat er erst ~2,5 Jahre später diese CPU gekauft - und 100€ gespart. Hurra. :D
Und wenn der (ist der eigentlich nur bei den Lanes beschnitten?) 5820K noch nicht am Ende ist, kann es der 3930K auch noch nicht sein.

Für den einen User ist es zu viel, für den anderen User ist es kaum mehr.

[Beispiel] Ich zb. hab >60 Tabs offen, und laste damit einen 3930K Hexacore @~4,3GHz locker auch mal 25 Sekunden komplett aus. Wenn ich mit einem 3900X daraus nur 15 Sekunden, oder mit einem 3950X nur 12 Sekunden machen könnte, wäre mir das schon 20% (oder wegen mit auch 30%) Aufpreis wert. Das selbe mit einer M.2-SSD vs SATA. oder 32GB vs 16GB RAM. Mal was entpacken/packen, mal ein YT-Video recodieren, ganz egal, mit einem 3900X oder 3950X muß sich der Poweruser/Enthusiast einfach weniger einen Kopf machen, denn er weiß, viel mehr Leistung konnte er nicht kaufen, oder die wäre dann (auch verglichen mit seiner schon teureren Hardware) noch einmal deutlich teurer.

Genau dafür zahlt man jedenfalls den relativ geringen Aufpreis. Und relativ geringt meint, wenn ich meinen PC 8 Jahre benutze (also bis 02/2020), und ggü. einem Quad damals 250€ drauf gezahlt habe, hat mich der Aufpreis (250€:96) 2,60€ pro Monat (von insgesamt 14,60€/Monat) gekostet. Heilige Mutter Gottes, I am a rich kid. :D

Du hast das Kriterium "brauchen" noch nicht korrekt einsortiert, aber wenn man diesen Punkt mal ignoriert: Ja, Enthusiasten und Performance-User usw. kaufen Hardware, die sie deiner Meinung nach nicht brauchen, und ohne dass sie 100%ig genau wissen ob und wo sie die Leistung am Ende brauchen.

Denn ja, nicht brauchen ist für solchen User eine sinnvollere (und damit auch aufpreiswürdige) Option, als es später zu brauchen aber dann nicht zu haben. ;)

Dafür (siehe Rechnung oben) werfen "wir" dann auch gerne mal wahnwitzige unglaubliche superkrasse 3-6€ pro Monat extra in den Club. ^^

:top:

Wobei reichen würde ich schon noch gelten lassen. Aber das ist eben Definitionssache. Ein 3950X würde mir zb. reichen. Brauchen würde ich [nach meiner Definition] allerdings einen Threadripper mit 128 Kernen. Warum ich den brauche? Woher zum Teufel soll ich das wissen.:ugly:


Edit:
Aber einen Taskmanager mit 256 winzigen CPU-Diagrammen wäre schon ziemlich geil. Nicht mal fürs Ego, sondern einfach nur zum anschauen. *g*

Anhang anzeigen 1069225

Du sprachst von 2011 und von den ersten Hexacores. Das war nun einmal Gulftown und nicht Sandy Bridge E, also habe ich meine Rechnung mit ersterem gemacht. "2nd Gen"-Beispiel wäre auch nicht auf heutige 16-Kerner für Endanwender übertragbar, denn die sind 1st Gen. Skylake X hat keinen echten Nachfolger und der 3950X wegen der mangelnden universellen Einsetzbarkeit der bisherigen Threadripper keinen Mainstream-Vorgänger. Das sich günstige HEDT-Prozessoren ein paar Generationen später dank einer längeren Lebensdauer lohnen können, habe ich mit meinem Haswell-E-Beispiel demonstriert. Bei der erstmaligen Verfügbarkeit einer neuen Ausbaustufe zum Maximalmodell zu greifen, in dem sie angeboten wird, rechnet sich aber quasi nie. Und das ist unabhängig von der Leistungsanforderung – wenn du 50 Prozent mehr zu Grunde legst, kann von Lebensdauer bei der HEDT-Variante auch keine Rede mehr sein, dann müsstest du eine Dual-CPU-Workstation gegen HEDT antreten lassen und würdest erneut zu dem Schluss kommen, dass zwei günstigere Systeme nach sieben Jahren mehr leisten als der einmalige Kauf eines überteuerten Spitzenmodells.

Im Frühjahr 2012, als SBE auf der Hälfte seiner Lebenszeit war und eine 3930K 500 Euro kostete, bekam man für unter 200 Euro übrigens den 3570K. Der war im PCGH-Spiele-Schnitt sogar knapp besser. Die Mainboard-Preis-Leistungstipps lagen bei 180 zu 120 Euro (mit extra-neu-Preisaufschlag für Z77) beziehungsweise 80 Euro ohne PCI-E 3.0, dass der SBE auch nicht hat. Obwohl du eine vergleichsweise günstige CPU zu einem guten Zeitpunkt als Beispiel genommen hast, ergeben sich also 400 Euro Einsparpotenzial. Wenn man diese HEDT-Plattform inkl. 4× 4 GiB DDR3 fünf Jahre später für 60-120 Euro verkauft bekommen hat (was wirklich nicht viel ist), konnte man sich vom Verkaufserlös und dem gesparten Geld einen Ryzen 7 1700 samt Board und 16 GiB DDR4 kaufen.

Deine ursprüngliche Frage ist also falsch formuliert:
"Ich lese immer wieder Äußerungen von Usern die (nicht ganz zu Unrecht) sagen, heute wäre man auch mit einem Hexacore noch sehr gut aufgestellt. Nun, so einen Hexacore haben 3930K usw. Käufer schon seit 2011/2012.

Frage: Wer hat heute noch einen Quad-Core Gaming-PC aus dem Jahr 2011/2012, und glaubt damit heute noch "sehr gut" aufgestellt zu sein?"


Die korrekte Frage lautet:
"Wer glaubt, bei gleicher Gesamtinvestition, heute mit einem 95-W-Zen-Achtkerner besser aufgestellt zu sein als mit einem 130-W-Sandy-Bridge-E-Sechskerner?"

Die Antwort:
Jeder. Absolut jeder.
Wer 2012 deinen HEDT-Vorschlag gekauft hat, damit sein System 7+ Jahre lebt und er keine zusätzlichen Kosten für eine vorzeitige Aufrüstung zahlen muss, hat etwas falsch gemacht. Denn die vorzeitige Aufrüstung wäre billiger gewesen als der von ihm gezahlte Mehrpreis und sie hätte am Ende mehr Leistung gebracht. Anders sieht es aus, wenn man schon 2012 mehr Leistung brauchte, als sie damalige Quadcores boten. Wer so hohe Anforderungen hatte, antwortet auf die Frage "Wer hat heute noch einen Hexacore-PC aus dem Jahr 2012?" aber auch mit "ich nicht, ich habe gerade meinen Haswell E gegen einen 3950X getauscht".

tl;dr: Wer CPUs für eine Lebensdauer von 7-8 Jahren kauft, zahlt in aller Regel drauf. Vom gleichen Geld kann man auch zweimal 5, also insgesamt 10 Jahre gamen.
 
Die korrekte Frage lautet:
"Wer glaubt, bei gleicher Gesamtinvestition, heute mit einem 95-W-Zen-Achtkerner besser aufgestellt zu sein als mit einem 130-W-Sandy-Bridge-E-Sechskerner?"

Die Antwort:
Jeder. Absolut jeder.
Wer 2012 deinen HEDT-Vorschlag gekauft hat, damit sein System 7+ Jahre lebt und er keine zusätzlichen Kosten für eine vorzeitige Aufrüstung zahlen muss, hat etwas falsch gemacht. Denn die vorzeitige Aufrüstung wäre billiger gewesen als der von ihm gezahlte Mehrpreis und sie hätte am Ende mehr Leistung gebracht. Anders sieht es aus, wenn man schon 2012 mehr Leistung brauchte, als sie damalige Quadcores boten. Wer so hohe Anforderungen hatte, antwortet auf die Frage "Wer hat heute noch einen Hexacore-PC aus dem Jahr 2012?" aber auch mit "ich nicht, ich habe gerade meinen Haswell E gegen einen 3950X getauscht".

tl;dr: Wer CPUs für eine Lebensdauer von 7-8 Jahren kauft, zahlt in aller Regel drauf. Vom gleichen Geld kann man auch zweimal 5, also insgesamt 10 Jahre gamen.

Da bin ich nicht unbedingt Deiner Meinung, Torsten. Ich hab vor gut 5 Jahren einen Haswell-E mit 8 Kernen gekauft (5960x) und bin bis heute mit ihm mehr als zufrieden. Er ist weiterhin kein Flaschenhals, bei KEINEM der aktuellen Spiele. Da ich eine WaKü verbaut habe, habe ich auch keine Lust, permanent alles auseinanderzunehmen um das Board zu tauschen. Das ist ein Haufen Arbeit, die ich nur investiere, wenn es sich lohnt. Und das tut es bis heute nicht.

Was ich öfter tausche, ist die Grafikkarte. Die ist immer auf dem aktuellen Stand (2080Ti) weil sich das einfach rentiert - im Gegensatz zur CPU. Und die GPU zu tauschen ist für mich auch weit weniger Aufwand.

Ich baue jetzt gerade einen komplett neuen Rechner mit neuer Custom-Wakü auf x570 und 3950x Basis. Nicht, weil der alte Rechner nicht mehr reichen würde, sondern weil ich Bock drauf hab, jetzt mal die Architektur zu wechseln. Notwendig wäre das nicht.

Ich muss also hier INU.ID absolut recht geben: Bei der CPU lohnt es sich sehr wohl, einmal tiefer in die Tasche zu greifen und weiter in die Zukunft zu planen, als alle 1-2 Jahre die CPU zu tauschen für einen minimalen Gewinn.
 
Zuletzt bearbeitet von einem Moderator:
Zurück