N
Nebulus07
Guest
Das wird DAS Event. Spannender kann es dieses Jahr nicht mehr werden.
Das ist eben die Frage. Es könnte durchaus darauf hinauslaufen, dass der i9 10900K ungedrosselt (also mit 300W+ Verbrauch) in Spielen 1-2% schneller ist, worauf die Intelfraktion immer hinweisen wird.
Da bin ich mitten in meiner Hauptaktivitätsphase auf Arbeit.Los geht es am 08. Oktober um 18:00 Uhr deutscher Zeit.
Wie man bloß immer auf so einen Blödsinn kommt.
Lies Dir mal durch was so ein 10900K beim spielen verbraucht.
Och, mir als Nutzer sind solche Versehen eigentlich ganz recht. Wobei mir natürlich klar ist, dass eine Redaktion Ärger bekommen kann, wenn das passiert. Ist also in Ordnung, wenn dieses Mal keine solchen Versehen passieren.Das war selbstverständlich keine Absicht und wird nicht noch einmal passieren.
5,3 GHz, in Spielen wie BFV knapp 100 Watt.
@Stock mit offenem PT eher 70.
In Cinebench kommen die 300+ Watt bei 5,3 GHz hin, @Stock sind es auch nur 160 Watt bei offenem PT.
Noch, das dürfte sich aber im laufe der Zeit immer weiter verändern.
Im übrigen haben in der Vergangenheit alle CPUs für ihren Maximalverbrauch Prügel bezogen, egal ob FX, P4, Phenom I usw.. Ich sehe nicht, warum man das ausgerechnet jetzt ändern sollte, nur weil Intel eine CPU mit pervers hohem Maximalverbrauch herausgebracht hat. Selbst wenn, dann verbraucht der FX 9590 auch nur 60W, statt 220W und die aktuellen Ryzen CPUs wären mit 30-40W dabei (fragt Duvar). Wie man es dreht, die Intel CPUs haben momentan einen hohen Verbrauch.
Die Hardwarewelt kann nur hoffen, dass es keine Nische für Intel geben wird, sondern AMD wirklich auf ganzer Linie den CPU-Markt dominieren wird. Dann muss Intel nämlich mal wirklich in die Pushen kommen und im Geschäftsgebaren kundenfreundlicher werden. Vielleicht kümmern sie sich dann sogar um die B-Noten, bringen große Fortschritte bei Boards, Boxed-Kühlern, Garantiebedingungen, OC-Definition (XMP laden stellt kein OC dar!), bringen Prozessoren mit HBM/ HBC, ...Irgendetwas wird bei Intel schon besser sein und bleiben. Sollte AMD wider erwarten total dominieren und überall besser sein, werden sich darüber ja alle einig werden. Der 10 Kerner hier läuft rund und natürlich sparsamer und effizienter beim gegebenen Verwendungszweck; Zen2 war mir noch nicht gut genug. Ich bin aber auch schon gespannt wie ein Flitzebogen auf Zen3.
5,3 GHz, in Spielen wie BFV knapp 100 Watt.
@Stock mit offenem PT eher 70.
In Cinebench kommen die 300+ Watt bei 5,3 GHz hin, @Stock sind es auch nur 160 Watt bei offenem PT.
Ist ja wirklich unglaublich! NUR 650 PS! Was für eine lahmarschige Karre, damit kommt man ja kaum aus der Garage.Ich denke da immer an den Prototypen des Bugatti Veyron, dessen Benzinpumpe nur Sprit für 650 PS liefern konnte,
Spiel mal Anno1800. Da sieht es dann etwas anders aus. Wenn die CPU nix macht, braucht sie 100W. Auch schon recht heftig.
Nur weil das Spiel dort tatsächlich alle Kerne nutzt, heißt das nicht, dass die CPU dort besonders wichtig ist. Es ist kein CPU lastiges Spiel.In BFV macht die CPU nichts? Das ist so ziemlich eines der anspruchsvollsten gut optimierten Spiele.
In Anno sind es übrigens lächerliche ~60 Watt @5,3 GHz, im CPU Limit.
Nur weil das Spiel dort tatsächlich alle Kerne nutzt, heißt das nicht, dass die CPU dort besonders wichtig ist. Es ist kein CPU lastiges Spiel.
Mein 3900X hat sich in dem Spiel mehr als gelangweilt. Leider kann ich dir den Stromverbrauch nicht mehr sagen. Aber ich nenne ihn dir dann für die 5900X.
Ich habe zumindest kein Spiel bei dem die CPU auch nur im Ansatz so viel verbraucht wie in BFV.
Du spielst dann halt offenbar kein CPU lastiges Spiel.
Erfinde doch nicht immer solchen Mist, AMD hat das nie so geschrieben, weil es Unsinn wäreViele AMD Fanboys leugnen z.B. bis heute, dass die FX Serie mies war und das obwohl selbst AMD das zugegeben hat (aber erst nach Ryzen).