News Intel Core i9-14900KF erklimmt den Thron: Schnellste Single-Core-CPU

Man sollte auch noch erwähnen, dass Intel soeben rechtskräftig verurteilt wurde.
Alle Hersteller dieser Liste müssen wir als vernünftige Verbraucher meiden. Intel ist mit einer Milliardenstrafe auf Platz 9 der Liste. Google ist absoluter Spitzen mit in Summe 6,77 Milliarden Strafzahlung nur in der EU.

Ich kaufe meine Prozessoren natürlich vom Biobauern um die Ecke!
 
Und nach solchen Aussagen wundert man sich dann, warum darüber gerne diskutiert wird. Auch in der Praxis zieht ein Intel-System unter Last (auch im GPU-Limit) deutlich mehr als ein vergleichbares (modernes) AMD System.

Es spricht ja auch nichts dagegen, dass Intel die Architektur zur Performancesteigerung für die Desktopvarianten endlich mal effizienter gestalten sollte (was hoffentlich mit Arrow Lake auch passiert). Nur über welchen effektiven Unterschied reden wir denn hier ?

Wenn ich das absolute Worst-Case Szenario der getesteten 223Watt des 13900K im Cyberpunk 2.0 Benchmark (CPU Limit) als unrealistischen Durchschnitt zu Grunde lege und sogar den Vergleich mit dem 7800X3D als Energiespar-Effizienzwunder ziehe, komme ich auf 159 Watt Differenz:

1695550548976.png


Rein theoretisch (da im RL aufgrund von Zeitmangel nicht ansatzweise umsetzbar und sicher nicht repräsentativ):

Wenn ich also Cyberpunk 2.0 einen ganzen Monat, jeden Tag 8 Stunden bei diesem Verbrauch durchzocken würde, läge der Unterschied (Grundlage aktuell bei mir 0,4251 ct/kWh) bei:

0,068€ pro Stunde
0,544€ pro Tag
16,32€ pro Monat

In der Praxis ist es eher ein Bruchteil davon ... und dafür brauche ich jetzt ein Atomkraftwerk oder muss einen Sondervertrag mit den Stadtwerken abschließen.. ? Darüber erhitzen sich regelmäßig die Gemüter ? :ugly:
 
Und nach solchen Aussagen wundert man sich dann...
Also ich habe glaube ich beide Szenarien relativ neutral beschrieben und auch Werte genannt, bzw. dem Messergebnis zugestimmt.

Wenn du nur ein Bruchstück des Beitrages zitierst und somit den Inhalt meines Beitrages verzerrst - genauso im Politikforum geschehen - solltest du nicht erwarten, dass ich dir in Zukunft noch antworte.
Auch in der Praxis zieht ein Intel-System unter Last (auch im GPU-Limit) deutlich mehr als ein vergleichbares (modernes) AMD System.
Wo habe ich das Gegenteil gesagt?
Bitte Beleg und Zitat, ansonsten klemm dir dein billiges Strohmann-Argument doch einfach.

Darüber erhitzen sich regelmäßig die Gemüter ?
:ugly:
Eher geht es um die Kühlung.
Ich würde da ganz klar den AMD vorziehen, auch wenn es in der Praxis nur 50 Watt sind. Oder je nach Preis halt den Intel dementsprechend auf Sparsamkeit trimmen.

Also 88 Watt und dafür 7% Leistung einbüßen. Wenn der Intel noch den Cache hätte wäre der in Spielen vermutlich leicht 20% vorraus. Es ist eine CPU - getrimmt auf maximale Performance. Der 7950X ist auch so ein Kandidat.
 
Zuletzt bearbeitet:
Also ich habe glaube ich beide Szenarien relativ neutral beschrieben und auch Werte genannt, bzw. dem Messergebnis zugestimmt.

Wenn du nur ein Bruchstück des Beitrages zitierst und somit den Inhalt meines Beitrages verzerrst - genauso im Politikforum geschehen - solltest du nicht erwarten, dass ich dir in Zukunft noch antworte.

Wo habe ich das Gegenteil gesagt?
Bitte Beleg und Zitat, ansonsten klemm dir dein billiges Strohmann-Argument doch einfach.
Im GPU Limit liegen ist ja prinzipiell nicht verkehrt. Die Werte sind für das Szenario so natürlich korrekt, aber in der Praxis zieht der Intel System auch nicht viel mehr als ein AMD System.

Das sind Extremwerte, die bei dieser Szene in CP bei hoher MT Last im reinen CPU Limit einfach anliegen.
Das ist ein Szenario wo die Intel CPU fast voll ausgelastet wird, Ausnahmefall.

Im Mittel ist der Unterschied eher bei 50 oder 60 Watt.
Damit du es auch siehst. Dachte zwar, du wüsstest, was du geschrieben hast, aber naja - dass das nicht der Fall ist hast du ja schon deutlich gemacht.

Und nein, du hast keine "Werte" genannt (abgesehen von 50-60 Watt im Mittel). Im Mittel von was? GPU-Limits? Welches Spiel? Welche Szene? Welche Einstellungen? Allgemein im Mittel? Im Mittel bei Anwendungen? Im Mittel wenn man den Stromverbrauch eines FX9590 mit dem eines i9 13900K vergleicht?

Und genau wie im Politikforum lügst du wieder - nur diesmal ist es mir nicht zu doof, dir deine eigenen Posts vorzuhalten.


Welche Praxis meinst du eigentlich? 4K mit 4090? 4K mit 1070? FullHD? Ich glaube ich hab schon oft genug Belege gepostet, dass man auch außerhalb von 720p durchaus in ein CPU-Limit rutschen kann. Je nach Game sogar relativ häufig. Je nach Grafikkarte sogar häufiger.
 
Damit du es auch siehst.
Wenn das AMD System 350 Watt zieht, zieht das Intel halt ~ 400, aufgrund der CPU im Spielealltag. Das sollte man beachten. Du interpretierst meinen Beitrag insgesamt einfach ziemlich schräg. :ka:

Wenn du nur Cyberpunk im CPU Limit in der Szene spielst sind's es sicherlich 150 Watt mehr, aber in der Regel ist das nicht so.
Dachte zwar, du wüsstest, was du geschrieben hast, aber naja - dass das nicht der Fall ist hast du ja schon deutlich gemacht.
Dein System wird nicht viel sparsamer, weil den größten Teil die GPU verursacht.

Kann man sich dann auch nochmal im Detail anschauen.
Und nein, du hast keine "Werte" genannt (abgesehen von 50-60 Watt im Mittel).
Sorry, aber auf die Diskussion lasse ich mich nicht ein. Es gibt genügend Quellen im Netz, wie hoch der durchschnittliche Verbrauch bei Gaming ist. Entspricht natürlich nicht dem Sonderfall CP in dieser CPU lastigen Szene.
Und genau wie im Politikforum lügst du wieder - nur diesmal ist es mir nicht zu doof, dir deine eigenen Posts vorzuhalten.
Sagen wir es mal so. Du konstruierst dir Strohmannargumente und belügst dich selbst, betreibst Haarspalterei und willst mich persönlich angreifen.

Nö, sorry, da hab ich besseres zu tun. ;)
Aber ja, ein 13900K braucht zum Spielen ausnahmslos 250 Watt. :ugly:
Und jetzt verbreitete dein Narrativ gerne weiter.

 
Wenn das AMD System 350 Watt zieht, zieht das Intel halt ~ 400
Deine Belege dafür sind wo zu finden?
Dein System wird nicht viel sparsamer, weil den größten Teil die GPU verursacht.
Mein System ist deutlich sparsamer als das identische System mit Intel CPU.
Und natürlich hast du gaaaaaaaanz zufällig die Tests rausgesucht, die vorm Release der 7000 X3D CPUs gemacht wurden. Ein Schelm der da Absicht unterstellt. Aber ich bin ja nicht so, ich drück da für dich mal n Auge zu und verlinke dir den korrekten Test (auch von Igorslab, die Quelle hast du ins Spiel gebracht:
Spoiler:
Betrachten wir jetzt die bereits die schon öfters erwähnte Effizienz. Es ist eine glatte Demütigung. Nicht nur für Intel, sondern auch für alle anderen Ryzen-7000-CPUs! Auch wenn der bisherige Effizienzsieger Ryzen 7 5800X3D ähnlich genügsam ist, ist er doch deutlich langsamer als der Ryzen 9 7950X3D. Und der Intel Core i9-13900K? Der wird mit Schmackes in den energetischen Fluten versenkt.
Aber ja, ein 13900K braucht zum Spielen ausnahmslos 250 Watt. :ugly:
Ich warte noch auf deinen Beleg, dass ich das jemals behauptet habe. Danke :)
 
Im GPU Limit liegen ist ja prinzipiell nicht verkehrt. Die Werte sind für das Szenario so natürlich korrekt, aber in der Praxis zieht der Intel System auch nicht viel mehr als ein AMD System.
Irgendwie diskutieren wir hier an allem vorbei, aber Fakt ist doch, dass ein 13900k mit einer 4060Ti bspw. eine schlechte Kombination ist! Ein 13900K gehört mind. mit einer 7900XTX oder 4080/4090 kombiniert, ansonsten ist es ein sehr unausgewogenes System. Ein Blick in die Tabelle genügt ja um zu sehen, dass jede der Karten den 13900k gut ausgelastet bekommt, eine 4090 bspw. schafft 76fps in 4K mit Ultra RT, sobald die Auflösung etwas niedriger ist, liegen da 120fps an und da ist bspw. der 13900K gut ausgelastet.

Du hast nicht völlig unrecht, das hier ist der Worst Case, aber Cyberpunk ist von eben diesem auch nie weit weg, der 13900K wird nahezu konstant maximal boosten und entsprechend viel schlucken. Wenn ich hier die lustigen Leute sehe, die was von 80W erzählen, ja undervoltet und bis an die Kotzgrenze optimiert, mag das sein, dann aber eben auch langsamer als bspw. ein 5800X3D (wurde hier irgendwo ja auch schon getestet.

Aber was ja eigentlich das witzigere ist, ein 13900k ist fast 80% teurer wie ein 7800X3D, nur mal so. Wir diskutieren hier darüber, wie "wenig schlecht" doch Intels Flaggschiff ist, während dies ja nur AMDs drittschnellste GamingCPU ist! Just my 2 cents!
Im Mittel ist der Unterschied eher bei 50 oder 60 Watt.
Mag sein, da AMD aber eben auch nicht 88W braucht im Mittel, sind es 100% Unterschied! Immer noch recht viel für einen zumindest großteils vergleichbaren Prozess und einen 80% teureren Chip!
 
Zurück