Neues zu Zen 3 - Event mit AMD-CEO Lisa Su am 08. Oktober 2020

Das ist eben die Frage. Es könnte durchaus darauf hinauslaufen, dass der i9 10900K ungedrosselt (also mit 300W+ Verbrauch) in Spielen 1-2% schneller ist, worauf die Intelfraktion immer hinweisen wird.

5,3 GHz, in Spielen wie BFV knapp 100 Watt.
@Stock mit offenem PT eher 70.
In Cinebench kommen die 300+ Watt bei 5,3 GHz hin, @Stock sind es auch nur 160 Watt bei offenem PT.
 
Wie man bloß immer auf so einen Blödsinn kommt.
Lies Dir mal durch was so ein 10900K beim spielen verbraucht.

Noch, das dürfte sich aber im laufe der Zeit immer weiter verändern.

Im übrigen haben in der Vergangenheit alle CPUs für ihren Maximalverbrauch Prügel bezogen, egal ob FX, P4, Phenom I usw.. Ich sehe nicht, warum man das ausgerechnet jetzt ändern sollte, nur weil Intel eine CPU mit pervers hohem Maximalverbrauch herausgebracht hat. Selbst wenn, dann verbraucht der FX 9590 auch nur 60W, statt 220W und die aktuellen Ryzen CPUs wären mit 30-40W dabei (fragt Duvar). Wie man es dreht, die Intel CPUs haben momentan einen hohen Verbrauch.
 
Das war selbstverständlich keine Absicht und wird nicht noch einmal passieren.
Och, mir als Nutzer sind solche Versehen eigentlich ganz recht. ;) Wobei mir natürlich klar ist, dass eine Redaktion Ärger bekommen kann, wenn das passiert. Ist also in Ordnung, wenn dieses Mal keine solchen Versehen passieren.
 
5,3 GHz, in Spielen wie BFV knapp 100 Watt.
@Stock mit offenem PT eher 70.
In Cinebench kommen die 300+ Watt bei 5,3 GHz hin, @Stock sind es auch nur 160 Watt bei offenem PT.

Ja ich frage mich auch wo die Leute den Quatsch haben. Die cpu "kann" viel stromfressen unter Volllast. In allen anderen Bereichen ist die Intel stromsparender. Im Idle sogar bedeutend stromsparender.

 
Wenn die Lisa richtig einen raus hauen will, dann kommt zusätzlich noch RDNA2 in der Show und der Termin Ende des Monats war Taktik wegen NV. Die üblichen Hersteller Balken und entsprechende Bepreisung würde reichen dem eh schon vergeigten Release von RTX3000 nochmal schön eine mitzugeben.
Von Zen3 bin ich noch nicht ganz so begeistert, denn ich glaube die Leistungssteigerung wird mit dem endgültigen Ende des Labels "preisbewusst" bei AMD erkauft. Trotzdem würde ich wahrscheinlich einen haben wollen, Mal sehen was da so kommt.
 
Noch, das dürfte sich aber im laufe der Zeit immer weiter verändern.

Im übrigen haben in der Vergangenheit alle CPUs für ihren Maximalverbrauch Prügel bezogen, egal ob FX, P4, Phenom I usw.. Ich sehe nicht, warum man das ausgerechnet jetzt ändern sollte, nur weil Intel eine CPU mit pervers hohem Maximalverbrauch herausgebracht hat. Selbst wenn, dann verbraucht der FX 9590 auch nur 60W, statt 220W und die aktuellen Ryzen CPUs wären mit 30-40W dabei (fragt Duvar). Wie man es dreht, die Intel CPUs haben momentan einen hohen Verbrauch.

Es ist immer ein Unterschied wofür und unter welchen Umständen ich die Leistungsaufnahme benötige.
Die FX waren trotz großer Hitze und hoher Leistungsaufnahmen absolute Krücken.
Ein aktueller Ryzen braucht deutlich mehr als 40 Watt, wenn du von undervolting und underclocking redest, stell dir vor das kann ein aktueller Intel auch.
Stand jetzt ist ein 10900k out of the Box effizienter als jede AMD CPU (https://www.pcgameshardware.de/CPU-...Der-Effizienz-Index-fuer-Prozessoren-1341682/) .
 
Irgendetwas wird bei Intel schon besser sein und bleiben. Sollte AMD wider erwarten total dominieren und überall besser sein, werden sich darüber ja alle einig werden. Der 10 Kerner hier läuft rund und natürlich sparsamer und effizienter beim gegebenen Verwendungszweck; Zen2 war mir noch nicht gut genug. Ich bin aber auch schon gespannt wie ein Flitzebogen auf Zen3.
Die Hardwarewelt kann nur hoffen, dass es keine Nische für Intel geben wird, sondern AMD wirklich auf ganzer Linie den CPU-Markt dominieren wird. Dann muss Intel nämlich mal wirklich in die Pushen kommen und im Geschäftsgebaren kundenfreundlicher werden. Vielleicht kümmern sie sich dann sogar um die B-Noten, bringen große Fortschritte bei Boards, Boxed-Kühlern, Garantiebedingungen, OC-Definition (XMP laden stellt kein OC dar!), bringen Prozessoren mit HBM/ HBC, ...
 
Ich denke da immer an den Prototypen des Bugatti Veyron, dessen Benzinpumpe nur Sprit für 650 PS liefern konnte, bevor es eine Neuentwicklung gab. Nun, wie ihr seht, sollten CPUs nicht für ihren Maximalverbrauch bestraft werden, nur weil es technisch machbar ist, sie derart hart zu treten. Schon gar nicht ist das mit alltagsnaher Effizienz zu verwechseln, aber es sind nun mal mit 3,95 Mrd Transistoren recht viele Recheneinheiten im 10 Kerner untergebracht (meines Wissens nach). Unter normalen Umständen nützen AMD´s 7nm (Auftragsfertiger) gegen Intels 14nm recht wenig, um alleine dadurch den Sieg einzufahren. Eigene Messwerte: 0,527 Watt inkl. Grafik im Leerlauf (i9-10900) und 0,362W (Celeron G5900) ohne große Optimierungen des Betriebssystem sind kaum zu schlagen; AMD hat da eine gewisse Grundlast aufgrund der Infinity Fabric, der Chip der für die Kommunikation zwischen den Zen2 CCX Core Complexes verantwortlich ist. Das ist so ein Unterschied, der eben nicht aufgeholt werden kann bei normaler Spielelast, wodurch die Intel CPUs meist schneller in Spielen sind und gleichzeitig sparsamer. Durch die vielen Leerlaufzeiten bei Bürorechnern geht das richtig ins Geld, da keine Intel CPU zu nehmen, wobei hier ehrenhalber Zen1 Raven Ridge APUs erwähnt werden sollten, die beim Nichtstun sparsamer sind als Zen2 Matisse.

Jetzt gerade wird richtig Energie gespart und das bei der vollen Dröhnung, nur so manch netter Typ sprach mir sein Beileid aus, immer noch eine Intel CPU zu halten. :-)

Bei Zen3 heißt es dann: Neues Spiel, neues Glück. Mir reicht es da schon, wenn AMD seine Stärken weiter ausbaut. Auch da wird wieder viele Stunden analysiert und gerechnet, für die besten Kaufempfehlungen.
 
Spiel mal Anno1800. Da sieht es dann etwas anders aus. Wenn die CPU nix macht, braucht sie 100W. Auch schon recht heftig.

In BFV macht die CPU nichts? Das ist so ziemlich eines der am Besten optimierten Spiele in Bezug auf Multicore Auslastung und im 64er Modus zeigt sich das auch im Verbrauch.
In Anno sind es übrigens lächerliche ~60 Watt @5,3 GHz, im CPU Limit.
Selbst so übertaktet ist die CPU in Games effizienter als fast alles andere auf dem Markt, was eigentlich traurig ist, da sie in einem uralten Fertigungsverfahren gefertigt wird.
 
In BFV macht die CPU nichts? Das ist so ziemlich eines der anspruchsvollsten gut optimierten Spiele.
In Anno sind es übrigens lächerliche ~60 Watt @5,3 GHz, im CPU Limit.
Nur weil das Spiel dort tatsächlich alle Kerne nutzt, heißt das nicht, dass die CPU dort besonders wichtig ist. Es ist kein CPU lastiges Spiel.
Mein 3900X hat sich in dem Spiel mehr als gelangweilt. Leider kann ich dir den Stromverbrauch nicht mehr sagen. Aber ich nenne ihn dir dann für die 5900X.
 
Nur weil das Spiel dort tatsächlich alle Kerne nutzt, heißt das nicht, dass die CPU dort besonders wichtig ist. Es ist kein CPU lastiges Spiel.
Mein 3900X hat sich in dem Spiel mehr als gelangweilt. Leider kann ich dir den Stromverbrauch nicht mehr sagen. Aber ich nenne ihn dir dann für die 5900X.

Ich habe zumindest kein Spiel bei dem die CPU auch nur im Ansatz so viel verbraucht wie in BFV.
Wie auch immer, ich hoffe mal, dass AMD Intel nun auch in Spielen ernsthafte Konkurrenz machen kann :daumen:, wüsste ich was Geduld ist hätte ich wohl auch erster geschaut wie Zen 3 wird.
 
Du spielst dann halt offenbar kein CPU lastiges Spiel.

Du kannst mir gerne irgendein Beispiel geben, aber ein Spiel, dass nur 4 Kerne auslasten kann und man deshalb im CPU Limit verhungert, ist zwar CPU lastig, aber der Verbrauch eben trotzdem niedrig.
Mir fällt zumindest generell kein Spiel ein was gut Multicore optimiert ist und stark CPU lastig.
Spiele lasten die CPU eben nicht gut aus, ganz im Gegensatz zu manchen anderen Anwendungen, da knallt das OC dann auch richtig beim Verbrauch rein, aber in Games eigentlich fast gar nicht.
 
Zurück