CPU-Umfrage: Welchen Prozessor nutzen Sie zum Spielen und wie viele Kerne sind vorhanden?

@ Blautemple

Was braucht denn Dein 5,3 Ghz 10 kerner an Strom beim Zocken?
In Benchmarks warst du ja theoretisch viel schneller als AMD.
Oder fährst Du den etwa beim zocken nicht aus und sparst dann strom, weil die Graka nicht hinterher kommt?

Also meine CPU baucht ca. 40Watt, wenn ich mit 144 FPS Hunt Showdown zocke.

So weit ich weiß, waren es bei Intelsystemen um die 80 Watt, so lange man halt mit der Grafikbremse arbeitet.
Korrigiere mich gern, können ja auch 200, sein wer weiß, immerhin ist p2 ja schon 250 Watt bei den neuen Intels, theoretisch geht da sicher auch noch mehr.

Schaltet man das aus, sind es sicher mehr und der Vorteil von Intel in theoretischen Frames bei höherem Verbrauch wird deutlich.

Ps. Meine 5700xt zieht BTW 130Watt bei ~1930Mhz wassergekühlt
 
Zuletzt bearbeitet:
@ Blautemple

Was braucht denn Dein 5,3 Ghz 10 kerner an Strom beim Zocken?
In Benchmarks warst du ja theoretisch viel schneller als AMD.
Oder fährst Du den etwa beim zocken nicht aus und sparst dann strom weil die Graka nicht hinterher kommt?

Also meine CPU baucht ca. 40Watt, wenn ich mit 144 FPS Hunt Showdon zocke.

So weit ich weiß waren es bei Intelsystemen um die 80 Watt, so lange man halt mit der Grafikbremse arbeitet.
Korrigiere mich gern, können ja auch 200 sein wer weiß, immerhin ist p2 ja schon 250 Watt be den neuen Intels, theoretisch geht da sicher auch noch mehr.

Schaltet man das aus sind es sicher mehr und der Vorteil von Intel in thoretischen Frames bei höherem Verbaruch wird deutlich.

Ps. Meine 5700xt zieht BTW 130Watt bei ~1930Mhz wassergekühlt

@Lamaan
https://uploads.tapatalk-cdn.com/20200706/c54feba7c80c121f3a8d690c413bb1b3.jpg

Ich bin dann mal raus hier. „Ihr“ wollte mich offensichtlich überhaupt nicht verstehen.
 
Er meint wohl den i9 10900K sowie den i9 9900K und i7 10700K. Die sind, wenn man ihnen ihre 200-300W Stromverbrauch erlaubt (richtiges Board und sehr gute Kühlung vorausgesetzt), in Spielen, doch noch mehr als nur einen Zacken schneller als alle AMD CPUs,

Mit Zen3 könnte/dürfte sich das aber wohl ändern.

Skylake impliziert eine CPU die vor 6 Jahren auf dem Markt kam, aber das war bestimmt nur ausversehen so formuliert.
Denn eigtnlich handelt es sich ja um eine zigfach überarbeitete Architektur mit dem aktuellsten was Intel für den Desktop zu bieten hat. Wenn man den ursprünglichen Skylake mit Zen 2 vergleicht macht sein Beitrag ja sonst überhaupt gar keinen Sinn
 
@Lamaan
https://uploads.tapatalk-cdn.com/20200706/c54feba7c80c121f3a8d690c413bb1b3.jpg

Ich bin dann mal raus hier. „Ihr“ wollte mich offensichtlich überhaupt nicht verstehen.

War nicht böse gemeint.
aber konnte ich mir nicht verkeifen, man bekommt ja auch immer gern den LOL wenn man Intelusern gegenüber den Stromverbrauch erwähnt. BTW, finde ich 80 Watt völlig ok und ich gönne Dir Deine Schnellste Plattform.
Viel Spaß damit :)
 
War nicht böse gemeint.
aber konnte ich mir nicht verkeifen, man bekommt ja auch immer gern den LOL wenn man Intelusern gegenüber den Stromverbrauch erwähnt. BTW, finde ich 80 Watt völlig ok und ich gönne Dir Deine Schnellste Plattform.

Mich interessiert halt weder das Preisleistungsverhältnis noch der Stromverbrauch beim zocken.
Mein 24/7 Setting ist btw. ca 7% langsamer und der Verbrauch ist auf einem Level mit dem 3900X von PCGH ;)
Wenn ich den jetzt auf die Geschwindigkeit vom 3900X einbremsen würde wäre der Verbrauch noch mal deutlich geringer. Aber gut das passt ja nicht in das Märchen vom bösen Stromsaufenden Intel.
 
jaja ... krallt euch nur an ...15% (extrem übertaktete Systeme) mehr Performance unter 720p fest.
Ihr tauscht doch eh jedes mal die CPU wenn Intel was neues bringt also warum sich da an einer 720p Mertik hoch ziehen die "Zunkunftssicherheit" zeigen soll ... Aber bei Ultra 1080p oder 1440p und höher ist der Unterschied marginal.

Wenns doch nur bei 15% bleiben würde :-D
720p ist doch nur eine Testmethode.

Spiele in denen ein 3900X/3950X langsamer als ein 9900K/10900K ist. Trotz 1440p:

- Anno 1800 (Avg + Perzentile)
- BF V Multiplayer (Avg + Perzentile)
- Rise/Shadow of the Tomb Raider in Dörfern (Perzentile)
- Kingdome Come Deliverance (Avg + Perzentile)

geht also nicht um Zukunftssicherheit, sondern um den Unterschied bei den Frametimeverläufen.

Dafür hat man mit einem 3900X noch ein paar Kerne über um in besserer Qualität zu Streamen, schneller Video Encoden oder zum kompilieren (ich bin Programmierer) und dazu noch fast 150€ gespart und lässt sich leiser kühlen.

Als ich mir den 1700X gekauft hatte, habe ich ach immer argumentiert, dass ich ja so viel Anwendungsleistung bräuchte :-D
Seit Ryzen sind 95% der PC Besitzer Entwickler/Video Renderer oder VM Hoster....

Ein Intel, richtig eingestellt mit Power Limits, lässt sich weitaus einfacher kühlen als ein Ryzen 3000.

Aber hey jeder wie er will ... euch scheint es wichtig in 720p Benchmarks die schnellste CPU zu haben ... ich will einfach nur meine Spiele ruckelfrei auf meinem 144HZ 1440p Monitor in maximalen Details zocken :).

Ja und das mache ich auch.
Aber mit weniger Frametime Drops :-D
 
Wenns doch nur bei 15% bleiben würde :-D
720p ist doch nur eine Testmethode.

Spiele in denen ein 3900X/3950X langsamer als ein 9900K/10900K ist. Trotz 1440p:

- Anno 1800 (Avg + Perzentile)
- BF V Multiplayer (Avg + Perzentile)
- Rise/Shadow of the Tomb Raider in Dörfern (Perzentile)
- Kingdome Come Deliverance (Avg + Perzentile)

geht also nicht um Zukunftssicherheit, sondern um den Unterschied bei den Frametimeverläufen.



Als ich mir den 1700X gekauft hatte, habe ich ach immer argumentiert, dass ich ja so viel Anwendungsleistung bräuchte :-D
Seit Ryzen sind 95% der PC Besitzer Entwickler/Video Renderer oder VM Hoster....

Ein Intel, richtig eingestellt mit Power Limits, lässt sich weitaus einfacher kühlen als ein Ryzen 3000.



Ja und das mache ich auch.
Aber mit weniger Frametime Drops :-D

Ja, ein richtig eingestellter Intel mit Powerlimits ist aber auch weit weniger als "ach wenn's denn nur bei den 15% bleiben würde" schneller nämlich idr 5% .
Immer dieses Argumentieren in beide Richtungen.
Es gibt aber nur entweder oder.
Entweder besser kühlbar wegen den alten 14nm oder merklich schneller bei viel mehr Hitze und Stromverbrauch. Ja, viel mehr, auch wenn die absoluten Zahlen vlt. nicht so schlimm sind wie bei Grakas
BTW der Vorteil der besseren Kühlbarkeit geht aber immer noch hand in hand mit mehr Verbrauch und in meinem Fall spielten die Sicherheitslücken, die das Thema betreffende Firmenpolitik und der drohende Leistungsabfall auf Grund von Patches dafür, auch eine Rolle bei der Kaufentscheidung.
 
Vielleicht schafft es Ryzen 4000 dann endlich mal auf die alte Skylake Arch aufzuschließen..
Die Architektur an sich ist sehr gut. Vergleiche die beiden Vierkerner i7-7700k, gerne auch 5GHz übertaktet mit einen Ryzen 3-3300X. Du wirst staunen. Geht es um AMD CPUs, die über zwei Chipslets kommunizieren müssen, gibt es hier und da kleine Latenznachteile. Ja, das muss man so sehen. Aber man verliert wenige Prozentpunkte an Spieleleistung, spart erheblich am Preis und hat dazu eindeutig die bessere Plattform.

Nein, Intel ist aktuell definitiv keine Empfehlung. Die kleinen Sechskerner sind als Spiele-CPUs für Budgetrechner noch eine Idee, aber bedingt durch den lahmen RAM der Non-K Boards ist das Thema auch durch. Wer kauft denn heute noch 2666er RAM neu, Das ist absurd.
 
Zuletzt bearbeitet von einem Moderator:
Den Takt kannst du ohne Probleme @stock belassen, der ist nicht für die hohe Mehrleistung zuständig. Die kommt vom RAM. Ob die CPU jetzt mit 4,9 oder 5,2GHz läuft ist völlig egal.
 
Ja, ein richtig eingestellter Intel mit Powerlimits ist aber auch weit weniger als "ach wenn's denn nur bei den 15% bleiben würde" schneller nämlich idr 5% .
Immer dieses Argumentieren in beide Richtungen.
Es gibt aber nur entweder oder.
Entweder besser kühlbar wegen den alten 14nm oder merklich schneller bei viel mehr Hitze und Stromverbrauch.

Meiner ist auch voll ausgefahren bei 300W leichter zu kühlen als ein Ryzen 3000 ;-)

Und bezüglich Performance und Leistungsaufnahme.
Auf gleichen Verbrauch getrimmt ist der Intel schon schneller.
Und von der Leine gelassen viel schneller ;-)
 
Bin also nicht der einzige der noch einen Xeon 1230v3 einsetzt (oder eine ähnliche CPU, da 1,19% dafür abgestimmt haben und es gibt auch CPUs mit 0,24% ;)

Aufrüsten lohnt halt nicht, da ist eine GTX 1080 mit drin, zusammen packen sie jedes Spiel auf maximalen Details bei Full HD ... Z.B. spiele ich aktuell Metro Exodus mit allen Einstellungen auf Maximum (ohne RTX natürlich).
 
jaja ... krallt euch nur an 10% (standard takt) bzw 15% (extrem übertaktete Systeme) mehr Performance unter 720p fest. Ihr tauscht doch eh jedes mal die CPU wenn Intel was neues bringt also warum sich da an einer 720p Mertik hoch ziehen die "Zunkunftssicherheit" zeigen soll (wobei auch das jeder beim 7600k sagte und dann doch schlussendlich in neueren Spielen der Ryzen 5 1600 die Nase vorn hat wegen mehr Kernen YouTube ). Aber bei Ultra 1080p oder 1440p und höher ist der Unterschied marginal. Dafür hat man mit einem 3900X noch ein paar Kerne über um in besserer Qualität zu Streamen, schneller Video Encoden oder zum kompilieren (ich bin Programmierer) und dazu noch fast 150€ gespart und lässt sich leiser kühlen. Zu FX-Zeiten war es immer ganz wichtig, dass Intel ja ganz viel Strom spart und daher nicht so viel Hitze erzeugt und leiser ist. Nun ist es wieder scheiß egal ;).

Und ob ich jetzt fett übertakte und 280FPS oder 250FPS habe ist mir dann auch schon egal vor allem weil ich nie in 720p Spiele. Ja Intel mag mit der Takt/Stromverbrauch-Brechstange in Spielen immer noch schneller sein, aber interessiert das jemanden außer den Intelfans ;)? Alle anderen freuen sich, dass sie für deutlich weniger Geld (180€ für nen Ryzen 5 3600 oder 120€ für einen 3300X) in den höheren Auflösungen fast die gleiche Performance bekommen ( YouTube ) und mit dem gespaarten Geld können sich sich dann sogar später eine Ryzen 4000 CPU kaufen und im selben Board betreiben.

Aber hey jeder wie er will ... euch scheint es wichtig in 720p Benchmarks die schnellste CPU zu haben ... ich will einfach nur meine Spiele ruckelfrei auf meinem 144HZ 1440p Monitor in maximalen Details zocken :).

Was regst Du Dich denn so auf? Haben wir etwa behauptet, daß Intel AMD überrundet hat, oder war es nicht eher so, daß @perrup meinte AMD hat Intel überrundet? Dann soll er mal zeigen.
Ich habe selber einen R9 3900X, haue aber trotzdem keinen solchen Blödsinn raus.
 
Was regst Du Dich denn so auf? Haben wir etwa behauptet, daß Intel AMD überrundet hat, oder war es nicht eher so, daß @perrup meinte AMD hat Intel überrundet? Dann soll er mal zeigen.
Ich habe selber einen R9 3900X, haue aber trotzdem keinen solchen Blödsinn raus.

Eben, Intel ist in Spielen und AMD in den meisten Multicore optimierten Anwendungen. Ganz einfach. Das ist noch lange kein Grund sich hier so anzukeifen :D
 
Nicht beim zocken, sondern in Multicoreanwendungen und das ist auch bitter nötig, wenn man sich mit dem R9 3900X anlegen möchte.

Beim Zocken ist das so eine Sache, wenn die Auslastung steigt, dann steigt auch der verbrauch. Mein i7 3770 hat 2012 auch fast alles im Schlaf erledigt (das meiste war ja nur auf einem oder zwei Kerne optimiert, heute sieht es etwas anders aus,

Von daher sollte man eben mit den 200-300W rechnen, wenn man wirklich das beste möchte.

300W zieht der unter Volllast mit Turbo Boost. Da müsste das Spiel schon alle Kerne auslasten.
 
Was regst Du Dich denn so auf? Haben wir etwa behauptet, daß Intel AMD überrundet hat, oder war es nicht eher so, daß @perrup meinte AMD hat Intel überrundet? Dann soll er mal zeigen.
Ich habe selber einen R9 3900X, haue aber trotzdem keinen solchen Blödsinn raus.

Naja im Forum bekommt man den Tonfall halt nicht mit .... ich reg mich gar nicht auf ... ich habe nur etwas überspitzt formuliert ;).
 
Wenns doch nur bei 15% bleiben würde :-D
720p ist doch nur eine Testmethode.

Spiele in denen ein 3900X/3950X langsamer als ein 9900K/10900K ist. Trotz 1440p:

- Anno 1800 (Avg + Perzentile)
- BF V Multiplayer (Avg + Perzentile)
- Rise/Shadow of the Tomb Raider in Dörfern (Perzentile)
- Kingdome Come Deliverance (Avg + Perzentile)

geht also nicht um Zukunftssicherheit, sondern um den Unterschied bei den Frametimeverläufen.
Naja genauso gut könnte man jetzt ein paar andere Spiele rausziehen wo die Frametimeverläufe bei einem 3900X besser oder zumindest nicht schlechter sind ;)*** Ryzen 7 3700X and Ryzen 9 3900X CPUs reviewed - Page 8 of 14 - The Tech Report[/url]
und folgende. Ja die Far Cry Engine ist z.B. extrem auf Intel optimiert. Sehe ich jetzt aber nicht als Grund einige wenige Spiele (wobei es andere Spiele gibt wo das in die andere Richtung auch ausschlägt) als alleinigen Grund zu nehmen um eine Intel-CPU zu kaufen.
Schade, dass so wenige Tester die Graphen für die Frametimes auch veröffentlichen. Auf die schnelle hab ich nur den alten Artikel von Techreport gefunden.

Als ich mir den 1700X gekauft hatte, habe ich ach immer argumentiert, dass ich ja so viel Anwendungsleistung bräuchte :-D
Seit Ryzen sind 95% der PC Besitzer Entwickler/Video Renderer oder VM Hoster....

Ich bin jetzt über 15 Jahre beruflich Softwareentwickler und ja ich teste auch gerne Zuhause gerne mal neue Programmiersprachen oder Ideen für Umsetzungen aus. Gerade bei größeren Projekten ist das dann schon ein Unterschied ob das nur 10 Minuten Kompiliert oder ne Stunde braucht ;). Gut bei 10900K va 3900X wäre es nicht so krass, aber damals war mein Umstieg von 4790k auf 1800X doch sehr merkbar besser. Und ja ich mache auch ab und an Videorendering für YouTube.

Ein Intel, richtig eingestellt mit Power Limits, lässt sich weitaus einfacher kühlen als ein Ryzen 3000.

Ja und das mache ich auch.
Aber mit weniger Frametime Drops :-D

Ein 10900k mit richtig eingestellten Powerlimits ist aber auch nur marginal schneller als ein 3900X und schon gar nicht 15% schneller ;). Aber gut, dass viele Z490 Board die Limits ... naja sagen wir großzügig aus legen ;).
 
Zurück