RyzA
PCGH-Community-Veteran(in)
Wie kommst du darauf?Schon nächstes Jahr wirst du den wieder entsorgen.
Wie kommst du darauf?Schon nächstes Jahr wirst du den wieder entsorgen.
@ Blautemple
Was braucht denn Dein 5,3 Ghz 10 kerner an Strom beim Zocken?
In Benchmarks warst du ja theoretisch viel schneller als AMD.
Oder fährst Du den etwa beim zocken nicht aus und sparst dann strom weil die Graka nicht hinterher kommt?
Also meine CPU baucht ca. 40Watt, wenn ich mit 144 FPS Hunt Showdon zocke.
So weit ich weiß waren es bei Intelsystemen um die 80 Watt, so lange man halt mit der Grafikbremse arbeitet.
Korrigiere mich gern, können ja auch 200 sein wer weiß, immerhin ist p2 ja schon 250 Watt be den neuen Intels, theoretisch geht da sicher auch noch mehr.
Schaltet man das aus sind es sicher mehr und der Vorteil von Intel in thoretischen Frames bei höherem Verbaruch wird deutlich.
Ps. Meine 5700xt zieht BTW 130Watt bei ~1930Mhz wassergekühlt
Er meint wohl den i9 10900K sowie den i9 9900K und i7 10700K. Die sind, wenn man ihnen ihre 200-300W Stromverbrauch erlaubt (richtiges Board und sehr gute Kühlung vorausgesetzt), in Spielen, doch noch mehr als nur einen Zacken schneller als alle AMD CPUs,
Mit Zen3 könnte/dürfte sich das aber wohl ändern.
@Lamaan
https://uploads.tapatalk-cdn.com/20200706/c54feba7c80c121f3a8d690c413bb1b3.jpg
Ich bin dann mal raus hier. „Ihr“ wollte mich offensichtlich überhaupt nicht verstehen.
War nicht böse gemeint.
aber konnte ich mir nicht verkeifen, man bekommt ja auch immer gern den LOL wenn man Intelusern gegenüber den Stromverbrauch erwähnt. BTW, finde ich 80 Watt völlig ok und ich gönne Dir Deine Schnellste Plattform.
@ Blautemple
Was braucht denn Dein 5,3 Ghz 10 kerner an Strom beim Zocken?
jaja ... krallt euch nur an ...15% (extrem übertaktete Systeme) mehr Performance unter 720p fest.
Ihr tauscht doch eh jedes mal die CPU wenn Intel was neues bringt also warum sich da an einer 720p Mertik hoch ziehen die "Zunkunftssicherheit" zeigen soll ... Aber bei Ultra 1080p oder 1440p und höher ist der Unterschied marginal.
Dafür hat man mit einem 3900X noch ein paar Kerne über um in besserer Qualität zu Streamen, schneller Video Encoden oder zum kompilieren (ich bin Programmierer) und dazu noch fast 150€ gespart und lässt sich leiser kühlen.
Aber hey jeder wie er will ... euch scheint es wichtig in 720p Benchmarks die schnellste CPU zu haben ... ich will einfach nur meine Spiele ruckelfrei auf meinem 144HZ 1440p Monitor in maximalen Details zocken .
Wenns doch nur bei 15% bleiben würde
720p ist doch nur eine Testmethode.
Spiele in denen ein 3900X/3950X langsamer als ein 9900K/10900K ist. Trotz 1440p:
- Anno 1800 (Avg + Perzentile)
- BF V Multiplayer (Avg + Perzentile)
- Rise/Shadow of the Tomb Raider in Dörfern (Perzentile)
- Kingdome Come Deliverance (Avg + Perzentile)
geht also nicht um Zukunftssicherheit, sondern um den Unterschied bei den Frametimeverläufen.
Als ich mir den 1700X gekauft hatte, habe ich ach immer argumentiert, dass ich ja so viel Anwendungsleistung bräuchte
Seit Ryzen sind 95% der PC Besitzer Entwickler/Video Renderer oder VM Hoster....
Ein Intel, richtig eingestellt mit Power Limits, lässt sich weitaus einfacher kühlen als ein Ryzen 3000.
Ja und das mache ich auch.
Aber mit weniger Frametime Drops
Die Architektur an sich ist sehr gut. Vergleiche die beiden Vierkerner i7-7700k, gerne auch 5GHz übertaktet mit einen Ryzen 3-3300X. Du wirst staunen. Geht es um AMD CPUs, die über zwei Chipslets kommunizieren müssen, gibt es hier und da kleine Latenznachteile. Ja, das muss man so sehen. Aber man verliert wenige Prozentpunkte an Spieleleistung, spart erheblich am Preis und hat dazu eindeutig die bessere Plattform.Vielleicht schafft es Ryzen 4000 dann endlich mal auf die alte Skylake Arch aufzuschließen..
Ja, ein richtig eingestellter Intel mit Powerlimits ist aber auch weit weniger als "ach wenn's denn nur bei den 15% bleiben würde" schneller nämlich idr 5% .
Immer dieses Argumentieren in beide Richtungen.
Es gibt aber nur entweder oder.
Entweder besser kühlbar wegen den alten 14nm oder merklich schneller bei viel mehr Hitze und Stromverbrauch.
jaja ... krallt euch nur an 10% (standard takt) bzw 15% (extrem übertaktete Systeme) mehr Performance unter 720p fest. Ihr tauscht doch eh jedes mal die CPU wenn Intel was neues bringt also warum sich da an einer 720p Mertik hoch ziehen die "Zunkunftssicherheit" zeigen soll (wobei auch das jeder beim 7600k sagte und dann doch schlussendlich in neueren Spielen der Ryzen 5 1600 die Nase vorn hat wegen mehr Kernen YouTube ). Aber bei Ultra 1080p oder 1440p und höher ist der Unterschied marginal. Dafür hat man mit einem 3900X noch ein paar Kerne über um in besserer Qualität zu Streamen, schneller Video Encoden oder zum kompilieren (ich bin Programmierer) und dazu noch fast 150€ gespart und lässt sich leiser kühlen. Zu FX-Zeiten war es immer ganz wichtig, dass Intel ja ganz viel Strom spart und daher nicht so viel Hitze erzeugt und leiser ist. Nun ist es wieder scheiß egal .
Und ob ich jetzt fett übertakte und 280FPS oder 250FPS habe ist mir dann auch schon egal vor allem weil ich nie in 720p Spiele. Ja Intel mag mit der Takt/Stromverbrauch-Brechstange in Spielen immer noch schneller sein, aber interessiert das jemanden außer den Intelfans ? Alle anderen freuen sich, dass sie für deutlich weniger Geld (180€ für nen Ryzen 5 3600 oder 120€ für einen 3300X) in den höheren Auflösungen fast die gleiche Performance bekommen ( YouTube ) und mit dem gespaarten Geld können sich sich dann sogar später eine Ryzen 4000 CPU kaufen und im selben Board betreiben.
Aber hey jeder wie er will ... euch scheint es wichtig in 720p Benchmarks die schnellste CPU zu haben ... ich will einfach nur meine Spiele ruckelfrei auf meinem 144HZ 1440p Monitor in maximalen Details zocken .
Was regst Du Dich denn so auf? Haben wir etwa behauptet, daß Intel AMD überrundet hat, oder war es nicht eher so, daß @perrup meinte AMD hat Intel überrundet? Dann soll er mal zeigen.
Ich habe selber einen R9 3900X, haue aber trotzdem keinen solchen Blödsinn raus.
Nicht beim zocken, sondern in Multicoreanwendungen und das ist auch bitter nötig, wenn man sich mit dem R9 3900X anlegen möchte.
Beim Zocken ist das so eine Sache, wenn die Auslastung steigt, dann steigt auch der verbrauch. Mein i7 3770 hat 2012 auch fast alles im Schlaf erledigt (das meiste war ja nur auf einem oder zwei Kerne optimiert, heute sieht es etwas anders aus,
Von daher sollte man eben mit den 200-300W rechnen, wenn man wirklich das beste möchte.
300W zieht der unter Volllast mit Turbo Boost. Da müsste das Spiel schon alle Kerne auslasten.
Selbst da nicht.
CB20 bei 5.2GHz sind so 270W.
Was regst Du Dich denn so auf? Haben wir etwa behauptet, daß Intel AMD überrundet hat, oder war es nicht eher so, daß @perrup meinte AMD hat Intel überrundet? Dann soll er mal zeigen.
Ich habe selber einen R9 3900X, haue aber trotzdem keinen solchen Blödsinn raus.
Naja genauso gut könnte man jetzt ein paar andere Spiele rausziehen wo die Frametimeverläufe bei einem 3900X besser oder zumindest nicht schlechter sind *** Ryzen 7 3700X and Ryzen 9 3900X CPUs reviewed - Page 8 of 14 - The Tech Report[/url]Wenns doch nur bei 15% bleiben würde
720p ist doch nur eine Testmethode.
Spiele in denen ein 3900X/3950X langsamer als ein 9900K/10900K ist. Trotz 1440p:
- Anno 1800 (Avg + Perzentile)
- BF V Multiplayer (Avg + Perzentile)
- Rise/Shadow of the Tomb Raider in Dörfern (Perzentile)
- Kingdome Come Deliverance (Avg + Perzentile)
geht also nicht um Zukunftssicherheit, sondern um den Unterschied bei den Frametimeverläufen.
Als ich mir den 1700X gekauft hatte, habe ich ach immer argumentiert, dass ich ja so viel Anwendungsleistung bräuchte
Seit Ryzen sind 95% der PC Besitzer Entwickler/Video Renderer oder VM Hoster....
Ein Intel, richtig eingestellt mit Power Limits, lässt sich weitaus einfacher kühlen als ein Ryzen 3000.
Ja und das mache ich auch.
Aber mit weniger Frametime Drops