Intel Alder Lake: Core i9-12900K QS im Cinebench R20 schneller als Ryzen 9 5950X?

Wenns danach ginge was "ausreicht" und was die allermeisten Leute wirklich brauchen (nicht: wollen), dann hätten wir seit vielen Jahren keine neuen CPUs mehr am Markt.
Meine Frau hat noch immer nen ollen 6600K-Vierkerner der jetzt ca. 6 Jahre lang läuft und es gibt bisher nichts, rein gar nichts, wofür er zu langsam gewesen wäre, einschließlich ihren Spielen. Irgendwann mal ne GTX960 durch ne 1660Ti ersetzt, das wars.
Wenn ich nicht aus "haben will" Gründen aufgerüstet hätte glaube ich auch nicht, dass mein noch älterer i7-5960X schon irgendwo ernsthaft limitiert hätte.
In Arbeits-/Büroumgebungen ists noch viel "schlimmer", wir haben zig Möhren da rumstehen die noch auf Core2-Basis laufen und noch immer alles locker stemmen was verlangt ist, die sind weit über 10 Jahre alt. Meine Mutter surft noch auf nem Core2 E6700 der ne SSD bekommen hat mittlerweile. Das ist zugegeben zäh (mir wärs zu langsam) aber noch lange nicht unerträglich.

Wer keinen besonderen Workload hat bzw. spezielle Anforderungen stellt (und nicht grade das kleinste aktuell verfügbare Modell kauft) braucht heutzutage sowieso nicht öfter als alle 7-10 Jahre mal ne CPU zu kaufen, auch wenn die Hersteller das gerne suggerieren :ka:
 
Na ja kommt ja auch 1 Jahr später raus als der Ryzen, dann kann man das ja auch erwarten.
Die 10 nm sollen ja den 7nm von TSCM entsprechen.
Jetzt muss Intel nur noch ordentlich Ware liefern, vielleicht auch zur Abwechslung mal zur UVP. (ja der letzte Aufguss war UVP, aber war auch nur ein Aufguss wo der Mehrwert nur auf die iGPU lag)
Verbrauchsmäßig kann man ja meißt selbst noch was optimieren, wenn man auf 200-300 Mhz in der Spitze verzichtet.
Cool wäre auch ein 4+2 oder 4+4 als Bugedlösung für Schwiegereltern.
Kann ich ja auch fast überlegen, dass ich den meinen ryzen 3600 gebe und selbst upgrade ^_^. Wobei der 12700k schon interressant aussieht.
Vielleicht kommt aber auch noch ein ryzen 6600 oder 6700 (schön Zen3+) als upgrade für mein x570, ist zwar unrealistisch aber ich nehme auch ein 5900x im Abverkauf für 250 €.
 
Zuletzt bearbeitet:
Oh das find ich gut....bin aber auf HEDT CPUs von Intel fixiert.....deshalb kann ich noch 2-3 Jahre warten und das Treiben der Unterschicht genüsslich betrachten
 
Es wäre sicher auch möglich einen Quadcore zu bauen der mit 300W Verbrauch so schnell ist wie der 12900k. Macht nur keinen Sinn.

Das würde sogar sehr viel Sinn ergeben. Der Verbrauch wäre "nur" um 50% höher, aber die Gamingleistung würde irre steigen, weil auch weniger optimierte Spiele die CPU besser nutzen könnten.

Es ist sogar die Frage, ob das nicht die Zukunft wäre, ähnlich Intels Big Little Ansatz. Einige, wenige Kerne mit sehr viel Leistung und viele kleine, effiziente Kerne, für das Multithreading.
 
Laut MLiD stehen etwa um 2025 herum aufsummiert +100 % IPC-Zugewinne ins Haus bei beiden Herstellern. Auch wenn er dazu noch nicht viel sagen wollte, SMT4 scheint hier u. a. ein Thema zu sein.
 
Das würde sogar sehr viel Sinn ergeben. Der Verbrauch wäre "nur" um 50% höher, aber die Gamingleistung würde irre steigen, weil auch weniger optimierte Spiele die CPU besser nutzen könnten.

Es ist sogar die Frage, ob das nicht die Zukunft wäre, ähnlich Intels Big Little Ansatz. Einige, wenige Kerne mit sehr viel Leistung und viele kleine, effiziente Kerne, für das Multithreading.
50% mehr Verbrauch sind mir das nicht wert. Die Kosten wären einfach zu hoch und wirklich leise ist ohne Wasser dann auch kaum mehr möglich.
 
50% mehr Verbrauch sind mir das nicht wert. Die Kosten wären einfach zu hoch und wirklich leise ist ohne Wasser dann auch kaum mehr möglich.

Es wäre der absolute Gamingking und hätte in vielen Spielen gigantische Vorteile. In der Realität würde man das Ding einfach um 20% weniger takten und hätte die Hälfte verbrauch bei 80% der Leistung.

Aber es gibt auch viele, die sich einen i9 10900K gekauft haben und den seine 300W ziehen ließen.

Laut MLiD stehen etwa um 2025 herum aufsummiert +100 % IPC-Zugewinne ins Haus bei beiden Herstellern. Auch wenn er dazu noch nicht viel sagen wollte, SMT4 scheint hier u. a. ein Thema zu sein.

Halte ich für eher unglaubwürdig. SMT 4 soll, gegenüber SMT 2 lediglich 15% mehr Leistung bringen und das auch nur, wenn man alle Threads wirklich optimal auslasten kann. Schon bei einem 4 Kerner gibt es da die ersten Probleme, ein 16 Kerner hätte ganze 64 Threads, die optimal versorgt werden wollen. Ansonsten sind die Architekturen recht weit am Ende. Man kann noch einiges machen, aber das hat seinen Preis.
 
Rein auf die Cinebenchwerte bezogen ists mit der Effizienz wahrscheinlich weiterhin nicht weit her.
AlderLake wird mit ähnlichen TDP-Limits vermutet wie die 11000er Serie, sprich irgendwas zwischen 200 und 250W (kurzfristiger) Lastverbrauch. Damit etwas mehr Punkte als ein 5950X (142W) zu erreichen wäre weiterhin deutlich ineffizienter als AMD.

Interessanter wird es eher sein wie es im normalen Alltag und Teillasten aussieht - hier hönnte das Biglittle Prinzip effizienztechnisch weitaus mehr bringen. Ein 5950X der mit 4 kleineren Aufgaben belastet wird (keine Ahnung - ein YouTubevideo abspielen während der Virenscanner das Systemlaufwerk prüft und im Hintergrund synchronisiert noch nen NAS und ne CD wird zu FLAC gerippt oder sowas - Alltagszeug eben) verbraucht schnell 80W weil mehrere kerne hochgeboostet werden - wenn AlderLake diese Tasks auf die kleinen Kerne legen würde (was nicht langsamer ist da keine der genannten Aufgaben wirklich CPU-limitiert ist) und das beispielsweise mit 30W erledigt wäre das ein riesen Effizienzgewinn.

Als Noob frage ich mich dann eher warum bei 5950X so viele Kerne und warum die so gleich auf 100% (?) springen.
Fände es einfach ~beruhigender notfals 16 / 32 Threads mit max. Leistung zu haben als nur 8 (ggf.16) Threads.

Davon abgesehen finde ich die Entwicklung einfach zu deutlich mehr Wärme / Energiehunger nicht so prickelt.
Sei es AMD, Intel oder NV.
 
Der 3D Cache soll doch schon gar nicht mehr für ein ZEN 3 Refresh kommen (letzte Gerüchte)

Außerdem ist gar nicht bekannt, wie viel das in welchen Anwendungen beschleunigt. Klar ist es möglich, aber nicht sicher.

Dazu könnte es sich je nach User auch ganz unterschiedlich verhalten.

Wo Games wichtig sind, könnten 8 sehr starke Kerne in Spielen auch viel Schub bringen und man hätte dann höchstens einen Kampf um die Spitze (wenn es ein ZEN3 Refreh gibt mit 3D Cache), aber gewiss keine klare Lage.

Das alles natürlich auch nur sofern diese Leaks zum Intel auch nah an der Wahrheit sind.
Meistens sind es doch eher die Intel Fans, die nerven. Sie lassen sich wohl gerne mit überteuerten Preisen veraschen. Und wenn ein Konkurrent sie zwingt weniger zu bezahlen, dann wird geflucht und gejammert was das Zeug hält. Dasselbe ist auch bei den Nvidia Käufern zu beobachten. Egal was es kostet, es wird gekauft.
Sehr merkwürdige Wahrnehmung. Das kann man hier im Forum nur in den absoluten Ausnahmefällen beobachten.
Da kann man hier öfter anderes beobachten.
Blödsinn? Sehe ich da ein grünes Logo bei dir?

Fraktion?

Genau das meine ich.....wer benutzt solche ausdrücke, wenn er sich nicht damit identifiziert?
Ich gehöre keiner „Fraktion“ an. Mir ist es egal was in meinem Rechner steckt, solange ich nicht das Gefühl habe abgezockt zu werden. Bei Intel und Nvidia hatte ich das Gefühl aber schon vor 20 Jahren....und es ist nicht besser geworden.
Das ist leider eher schwach gewesen.

Der Werte Herr hat wirklich neutral geschrieben, du versucht dem ganzen einen anderen Anstrich zu geben. Lässt es dir aber wieder nicht nehmen, gegen einen Hersteller zu wettern.

Ach und ich kann dir sagen, da ich auch in den letzten 20 Jahren PC Hardware gekauft habe. Was du da schreibst ist nicht wahr.
Wo hast du denn die 105W her? :hmm:

Oder auch die 200W?
Ist die TDP der neuen 12er Gen schon offiziell? :stupid:
Die TDP ist ja auch 125W und diese kann die CPU für eine Zeit überschreiten, bis hin zu 228W. Oder nicht?
Es wäre sicher auch möglich einen Quadcore zu bauen der mit 300W Verbrauch so schnell ist wie der 12900k. Macht nur keinen Sinn.
Na ich glaube, den Sinn hätte es in den letzten 10 Jahren schon gegeben.

Schau dir mal an, wie klein die Unterschiede sind, zwischen 6Kernen und 16 Kernen, sofern der selbe Ram und Kern zum Einsatz kommt.

5600X und 5950X zum Beispiel. Und ja, ich rede von Spielen, weil für ganz, ganz viele Menschen in der Welt das die anspruchsvollste Anwendung zuhause ist.

Die Spiele die am besten mit Kernen Skalieren, profitieren von vielen Kernen eher mau.

Die Realität liegt bei 50% mehr Kernen im Normalfall bei um die 25% mehr Fps (wichtig hier nicht nur auf die Durchschnitts Fps zu schauen).

Also ja eine CPU mit weniger Kernen, die sehr stark wäre ist immer noch keine schlechte Idee.

Die Leistung kommt überall gut an.

Sagen wir diese wäre pro Kern 100% schneller. Für das Szenario wich es beschrieben habe, könnte man schon glauben, das ein (BEISPIEL) 8 Kerner mit hoher Leistung alles andere plättet. Da würden dann auch 32 Kerne unter Umständen nichts dran ändern können.


Es geht hier nicht um Intel / AMD. Aber etwas lediglich an der Anzahl der Kerne zu bewerten ist schlicht zu einfach gedacht, meiner Meinung nach.
 
Zuletzt bearbeitet:
Als Noob frage ich mich dann eher warum bei 5950X so viele Kerne und warum die so gleich auf 100% (?) springen.
Aus zwei Hauptgründen:
1.) Die CPU kann nicht wissen, ob die anstehende Aufgabe was größeres ist oder nur was kleines nebenher und sie weiß auch nicht ob die Aufgabe zeitkritisch ist oder nicht. Deswegen wird immer "so schnell es geht" angewendet. Das wird auch die große Herausforderung für den Scheduler beim biglittle sein...

2.) Weil Benchmarkbalken und "Responsiveness" eines Systems umso besser werden je aggressiver ein Boost reinhaut. Im Konkurrenzkampf wird also jeder Hersteller bestrebt sein hier maximal hart ranzugehen. Deswegen ballert AMD 1,5v in seine CPUs um die 5GHz zu erreichen und deshalb hat intel noch den Boost überm Boost (Thermalvelocityboost) erfunden um noch 100 Mhz mehr rauszuquetschen.
 
Ich bleibe immernoch bei der Meinung, dass man im Consumerbereich viel mehr wert auf Singlecore Leistung legen sollte als Multicore. Von 100 Menschen schöpft vllt nur ein Mensch die 16 Kerne aus. Es gibt einfach viel zu wenige Anwendungen die wirklich so viele Kerne nutzen können. Die meißten die sich den 5950X gekauft haben, haben ihr Geld eh verschwendet. Rein fürs zocken wird man momenten und auch ein paar Jahre in die Zukunft nicht mehr als 8 Kerne brauchen. Denke Intel geht in die richtige Richtung, indem Sie den Big Little Ansatz umsetzen. Sie wissen ganz genau dass 8 sehr starke Kerne und kleinere Hilfskerne für OS oder ähnliches mehr sinn macht. Ich behaupte stumpf, dass auch AMD bald den selben weg einschlagen wird, da die Effizienz dadurch wirklich sehr viel besser ist.
 
Ich bleibe immernoch bei der Meinung, dass man im Consumerbereich viel mehr wert auf Singlecore Leistung legen sollte als Multicore. Von 100 Menschen schöpft vllt nur ein Mensch die 16 Kerne aus. Es gibt einfach viel zu wenige Anwendungen die wirklich so viele Kerne nutzen können. Die meißten die sich den 5950X gekauft haben, haben ihr Geld eh verschwendet. Rein fürs zocken wird man momenten und auch ein paar Jahre in die Zukunft nicht mehr als 8 Kerne brauchen. Denke Intel geht in die richtige Richtung, indem Sie den Big Little Ansatz umsetzen. Sie wissen ganz genau dass 8 sehr starke Kerne und kleinere Hilfskerne für OS oder ähnliches mehr sinn macht. Ich behaupte stumpf, dass auch AMD bald den selben weg einschlagen wird, da die Effizienz dadurch wirklich sehr viel besser ist.
Problem ist doch das selbst ein DualCore schon als Multicore zählt.

Für Big Little Ansatz sehe ich etwas schwarz da wieder mit Kanonen auf Spatzen geschossen wird.
Wieviel Kerne braucht man für Windows, EMails und ggf. INet Radio / Offline Musik?
Da sollte man doch mit vier Kernen sehr gut bedient sein (war ja nicht mal vor soooo langer Zeit High-End).... oder?
 
Problem ist doch das selbst ein DualCore schon als Multicore zählt.

Für Big Little Ansatz sehe ich etwas schwarz da wieder mit Kanonen auf Spatzen geschossen wird.
Wieviel Kerne braucht man für Windows, EMails und ggf. INet Radio / Offline Musik?
Da sollte man doch mit vier Kernen sehr gut bedient sein (war ja nicht mal vor soooo langer Zeit High-End).... oder?
Ja Optimal wären ja 8 Große kerne für Games und 4 little Cores um nebenbei andere Anwendungen laufen zu lassen wie z.B. youtube, mails, teamspeak, obs stream etc.
 
Davon abgesehen finde ich die Entwicklung einfach zu deutlich mehr Wärme / Energiehunger nicht so prickelt.
Sei es AMD, Intel oder NV.
Sehe ich genauso. Aber ANSCHEINEND geht es gerade bei CPU's/GPU's in Sachen höher, schneller, weiter aktuell nur mit... der Brechstange:ugly:

Wobei es ja immer hieß, neue Hardware wird bei mehr Leistung effizienter. Gut, die Grenze/Machbarkeit ist irgendwann bei allem erreicht. ABER, Grakas die unter Last zwischen 300-400W saufen oder Prozzis die sich (wenn auch nur über einen bestimmten Zeitraum) 250W reinziehn, halte auch ich für nicht zeitgemäß:nene:

Gruß
 
Wobei es ja immer hieß, neue Hardware wird bei mehr Leistung effizienter.
Ist auch so. Nur muss man die Zeizräume etwas grösser wählen und die Absolutzahlen mal aus dem Hirn kriegen.

Mein Ryzen 5950X (~4 GHz bei 150W) ist in meinem Workload mehr als doppelt so schnell wie der alte i7-5960X (4 GHz bei 180W). Efizienzsteigerung um geschätzt 250% in 7 Jahren.

Die Leistung des alten 6600K (4,2 GHz bei 90W) meiner Frau kannste heute in der TDP Klasse unter 25W kaufen.

Klar, die Sprünge sind nicht mehr so extrem wie früher und dadurch dass die Absolutverbräuche insbesondere bei Grafikkarten aktuell stark steigen bekommt man ggf den falschen Eindruck aber insgesamt ists nach wie vor so dass immer mehr Performance aus immer weniger Verbrauch entsteht.
 
Zurück