• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Alder Lake: Core i9-12900K QS im Cinebench R20 schneller als Ryzen 9 5950X?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Intel Alder Lake: Core i9-12900K QS im Cinebench R20 schneller als Ryzen 9 5950X?

Der Core i9-12900K QS, der seit einigen Tagen die Runden durch das Internet dreht, könnte im Cinebench R20 schneller als ein AMD Ryzen 9 5950X. Das legt zumindest ein neuer Leak nahe, der Single- und Multicore-Ergebnisse zeigt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Alder Lake: Core i9-12900K QS im Cinebench R20 schneller als Ryzen 9 5950X?
 

derneuemann

BIOS-Overclocker(in)
Ich freue mich auf erste Tests.

Die Leaks machen schon appetit auf mehr Informationen.

Wie schnell wird die CPU wirklich, wie viel verbraucht diese dabei.

Auch wenn im CB max Verlustleistung erzeugt wird, wäre für mich wichtiger, wie sieht es im Alltag aus und beim Spielen.
Wie wirkt sich die eventuelle Leistung aus usw.

Ich freue mich drauf. (Bevor das einer anders deutet ;), ich würde mich jetzt genau so über neue AMD CPUs freuen)
 

R4153

Kabelverknoter(in)
Wow das hört sich sehr gut an. Wenn die Leaks stimmen, dann ist Intel back! Ich hoffe die AMD fanboys sind dann endlich mal ruhig, da gerade diese sehr nervig sind.
 

MTMnet

Software-Overclocker(in)
Die "neue" Technik sollte man erstmal noch eine Generation reifen lassen, bevor man teuer aufrüstet.
Ich hätte dann Interesse.

Hauptsache PCIe 4.0 (5.0)
mehr als nur 16 CPU Lanes für schelle GPU + SSD Anbindung von mehr als einem Laufwerk.
und schnelleres Ram
 
Zuletzt bearbeitet:

SrikingFan

Schraubenverwechsler(in)
Wow das hört sich sehr gut an. Wenn die Leaks stimmen, dann ist Intel back! Ich hoffe die AMD fanboys sind dann endlich mal ruhig, da gerade diese sehr nervig sind.
Meistens sind es doch eher die Intel Fans, die nerven. Sie lassen sich wohl gerne mit überteuerten Preisen veraschen. Und wenn ein Konkurrent sie zwingt weniger zu bezahlen, dann wird geflucht und gejammert was das Zeug hält. Dasselbe ist auch bei den Nvidia Käufern zu beobachten. Egal was es kostet, es wird gekauft.
 

Markzzman

Software-Overclocker(in)
Meistens sind es doch eher die Intel Fans, die nerven. Sie lassen sich wohl gerne mit überteuerten Preisen veraschen. Und wenn ein Konkurrent sie zwingt weniger zu bezahlen, dann wird geflucht und gejammert was das Zeug hält. Dasselbe ist auch bei den Nvidia Käufern zu beobachten. Egal was es kostet, es wird gekauft.
Blödsinn.

Man kann das nicht pauschalisieren, wer in welcher Fraktion so oder so ist.
Die haste hier und haste da.

Am besten sachlich bleiben und - in dem Fall Intel/AMD - Vorteile, sowie kritische Punkte aufzeigen bei beiden Herstellern, unabhängig davon, was man selber für eine CPU benutzt.
 

fisch@namenssuche

BIOS-Overclocker(in)
Ich hoffe die AMD fanboys sind dann endlich mal ruhig, da gerade diese sehr nervig sind.
;)

@News Ich würde es begrüßen, wenn Intel so einen Sprung hinlegt.
Letztlich profitieren wir Kunden am meisten von Konkurrenz(druck).
Man erinnere sich an den Intel i9 9900k.
1,5 Jahre extrem preisstabil weil in vielen Belangen gut aufgestellt.
Dann attackierte AMD mit gut verfügbaren Ryzen 3000 über den Preis und wenig später mit Ryzen 5000 über Leistung und Effizienz.
 

Incredible Alk

Moderator
Teammitglied
Wäre ja wünschenswert. Mal schauen, ob die Effizienz nicht auf der Strecke bleibt.
Rein auf die Cinebenchwerte bezogen ists mit der Effizienz wahrscheinlich weiterhin nicht weit her.
AlderLake wird mit ähnlichen TDP-Limits vermutet wie die 11000er Serie, sprich irgendwas zwischen 200 und 250W (kurzfristiger) Lastverbrauch. Damit etwas mehr Punkte als ein 5950X (142W) zu erreichen wäre weiterhin deutlich ineffizienter als AMD.

Interessanter wird es eher sein wie es im normalen Alltag und Teillasten aussieht - hier hönnte das Biglittle Prinzip effizienztechnisch weitaus mehr bringen. Ein 5950X der mit 4 kleineren Aufgaben belastet wird (keine Ahnung - ein YouTubevideo abspielen während der Virenscanner das Systemlaufwerk prüft und im Hintergrund synchronisiert noch nen NAS und ne CD wird zu FLAC gerippt oder sowas - Alltagszeug eben) verbraucht schnell 80W weil mehrere kerne hochgeboostet werden - wenn AlderLake diese Tasks auf die kleinen Kerne legen würde (was nicht langsamer ist da keine der genannten Aufgaben wirklich CPU-limitiert ist) und das beispielsweise mit 30W erledigt wäre das ein riesen Effizienzgewinn.
 

Pu244

Lötkolbengott/-göttin
Hat Intel nicht gesagt, Cinebench ist völlig irrelevant weil nur 0,irgendwas Nutzer Cinema4D rendering Workload nutzen?
Bin mal gespannt obs dann auf einmal wieder relevant ist wenn die eigene CPU wieder oben stehen sollte. :haha:

Genauso, wie die AMD Fan(boy)s jahrelang vom GPU Limit gesprochen haben und dass eine schnelle CPU irrelevant ist, genau wie die Energieeffizienz. Spätestens seit Zen 2 hat sich das gedreht und die Intelfan(boy)s tragen die alten Argumente auf.

Es nehmen sich eben alle das passende raus.

Meistens sind es doch eher die Intel Fans, die nerven

Es nerven alle, der Unterschied ist, wer gerade die Klappe aufreißen kann, weil seine Firma die Oberhand hat oder wer sich, mit an den Haaren herbeigezogenen Argumenten, die Lage schönreden muß.
 

Incredible Alk

Moderator
Teammitglied
Es nerven alle, der Unterschied ist, wer gerade die Klappe aufreißen kann, weil seine Firma die Oberhand hat oder wer sich, mit an den Haaren herbeigezogenen Argumenten, die Lage schönreden muß.
Wirklich schlimm finde ich das eigentlich nur dann, wenn die Firmen selbst das machen.
Klar werden in Präsentationen eigene Stärken hervorgehoiben und Schwächen weggelassen und klar sind Marketingdiagramme immer so gestaltet dass man genau das sehen soll was der hersteller will. So lange es im Rahmen bleibt ist das auch nicht verwerflich. Aber bei manchen Gelegenheiten wirds halt wirklich peinlich.
 

SrikingFan

Schraubenverwechsler(in)
Blödsinn.

Man kann das nicht pauschalisieren, wer in welcher Fraktion so oder so ist.
Die haste hier und haste da.

Am besten sachlich bleiben und - in dem Fall Intel/AMD - Vorteile, sowie kritische Punkte aufzeigen bei beiden Herstellern, unabhängig davon, was man selber für eine CPU benutzt.
Blödsinn? Sehe ich da ein grünes Logo bei dir?

Fraktion?

Genau das meine ich.....wer benutzt solche ausdrücke, wenn er sich nicht damit identifiziert?
Ich gehöre keiner „Fraktion“ an. Mir ist es egal was in meinem Rechner steckt, solange ich nicht das Gefühl habe abgezockt zu werden. Bei Intel und Nvidia hatte ich das Gefühl aber schon vor 20 Jahren....und es ist nicht besser geworden.
 

PCTom

BIOS-Overclocker(in)
Rein auf die Cinebenchwerte bezogen ists mit der Effizienz wahrscheinlich weiterhin nicht weit her.
AlderLake wird mit ähnlichen TDP-Limits vermutet wie die 11000er Serie, sprich irgendwas zwischen 200 und 250W (kurzfristiger) Lastverbrauch. Damit etwas mehr Punkte als ein 5950X (142W) zu erreichen wäre weiterhin deutlich ineffizienter als AMD.

Interessanter wird es eher sein wie es im normalen Alltag und Teillasten aussieht - hier hönnte das Biglittle Prinzip effizienztechnisch weitaus mehr bringen. Ein 5950X der mit 4 kleineren Aufgaben belastet wird (keine Ahnung - ein YouTubevideo abspielen während der Virenscanner das Systemlaufwerk prüft und im Hintergrund synchronisiert noch nen NAS und ne CD wird zu FLAC gerippt oder sowas - Alltagszeug eben) verbraucht schnell 80W weil mehrere kerne hochgeboostet werden - wenn AlderLake diese Tasks auf die kleinen Kerne legen würde (was nicht langsamer ist da keine der genannten Aufgaben wirklich CPU-limitiert ist) und das beispielsweise mit 30W erledigt wäre das ein riesen Effizienzgewinn.
Ich glaube hier traut man dem Big Little Prinzip mehr zu, als die Software in der Lage ist es zu steuern. Windows wird nur in der Lage sein den eigenen Task zu verteilen und sonst werden nicht viel Anwendungen davon profitieren. Dein CD Rip und der Virenscann werden weiterhin über die Big kerne laufen, die wesentlich mehr Fläche haben müssen wie die eines 5950X, wenn sie im SC CB so hervorstehen, um 200 Punkte. Dann ist es schnell Essig mit der Effizienz, da mehr Chipfläche ja auch ein höhere Verlustleitung bedeutet. Sieht man ja auch da die gesamten 16 Core dann wohl nicht unter 200W im CB kommen. Ich denk deswegen wird AMD ihre CPUs auf 170W aufmachen. In Summe werden die zukünftigen Top CPUs wohl eher mehr statt weniger aus der Dose brauchen.
 

h_tobi

Lötkolbengott/-göttin
Mir im Endeffekt Latte was Intel da präsentiert.

Mein AMD 12/24-Kerner wird locker die nächsten 8-10+ Jahre ausreichen, ich kaufe doch nicht alle
2 Jahre einen neuen Unterbau wie Intel es gerne hätte. Wenn ich Bock habe, klemme ich in
ein paar Jahren noch einen 16/32 Kerner aus dem Ausverkauf auf mein X570 Board und gut is. :daumen:

Mein damaliger Intel 6/12 Kerner hat auch mehr als 8 Jahre gut seine Dienste verrichtet, warum
soll ich also mein neues System erneut tauschen... :stupid: Es hat nicht jeder im Lotto gewonnen...
 

Incredible Alk

Moderator
Teammitglied
Wenns danach ginge was "ausreicht" und was die allermeisten Leute wirklich brauchen (nicht: wollen), dann hätten wir seit vielen Jahren keine neuen CPUs mehr am Markt.
Meine Frau hat noch immer nen ollen 6600K-Vierkerner der jetzt ca. 6 Jahre lang läuft und es gibt bisher nichts, rein gar nichts, wofür er zu langsam gewesen wäre, einschließlich ihren Spielen. Irgendwann mal ne GTX960 durch ne 1660Ti ersetzt, das wars.
Wenn ich nicht aus "haben will" Gründen aufgerüstet hätte glaube ich auch nicht, dass mein noch älterer i7-5960X schon irgendwo ernsthaft limitiert hätte.
In Arbeits-/Büroumgebungen ists noch viel "schlimmer", wir haben zig Möhren da rumstehen die noch auf Core2-Basis laufen und noch immer alles locker stemmen was verlangt ist, die sind weit über 10 Jahre alt. Meine Mutter surft noch auf nem Core2 E6700 der ne SSD bekommen hat mittlerweile. Das ist zugegeben zäh (mir wärs zu langsam) aber noch lange nicht unerträglich.

Wer keinen besonderen Workload hat bzw. spezielle Anforderungen stellt (und nicht grade das kleinste aktuell verfügbare Modell kauft) braucht heutzutage sowieso nicht öfter als alle 7-10 Jahre mal ne CPU zu kaufen, auch wenn die Hersteller das gerne suggerieren :ka:
 

deftones

PC-Selbstbauer(in)
Na ja kommt ja auch 1 Jahr später raus als der Ryzen, dann kann man das ja auch erwarten.
Die 10 nm sollen ja den 7nm von TSCM entsprechen.
Jetzt muss Intel nur noch ordentlich Ware liefern, vielleicht auch zur Abwechslung mal zur UVP. (ja der letzte Aufguss war UVP, aber war auch nur ein Aufguss wo der Mehrwert nur auf die iGPU lag)
Verbrauchsmäßig kann man ja meißt selbst noch was optimieren, wenn man auf 200-300 Mhz in der Spitze verzichtet.
Cool wäre auch ein 4+2 oder 4+4 als Bugedlösung für Schwiegereltern.
Kann ich ja auch fast überlegen, dass ich den meinen ryzen 3600 gebe und selbst upgrade ^_^. Wobei der 12700k schon interressant aussieht.
Vielleicht kommt aber auch noch ein ryzen 6600 oder 6700 (schön Zen3+) als upgrade für mein x570, ist zwar unrealistisch aber ich nehme auch ein 5900x im Abverkauf für 250 €.
 
Zuletzt bearbeitet:

butch111

Komplett-PC-Käufer(in)
Oh das find ich gut....bin aber auf HEDT CPUs von Intel fixiert.....deshalb kann ich noch 2-3 Jahre warten und das Treiben der Unterschicht genüsslich betrachten
 

Pu244

Lötkolbengott/-göttin
Es wäre sicher auch möglich einen Quadcore zu bauen der mit 300W Verbrauch so schnell ist wie der 12900k. Macht nur keinen Sinn.

Das würde sogar sehr viel Sinn ergeben. Der Verbrauch wäre "nur" um 50% höher, aber die Gamingleistung würde irre steigen, weil auch weniger optimierte Spiele die CPU besser nutzen könnten.

Es ist sogar die Frage, ob das nicht die Zukunft wäre, ähnlich Intels Big Little Ansatz. Einige, wenige Kerne mit sehr viel Leistung und viele kleine, effiziente Kerne, für das Multithreading.
 

gerX7a

Software-Overclocker(in)
Laut MLiD stehen etwa um 2025 herum aufsummiert +100 % IPC-Zugewinne ins Haus bei beiden Herstellern. Auch wenn er dazu noch nicht viel sagen wollte, SMT4 scheint hier u. a. ein Thema zu sein.
 

Ripcord

BIOS-Overclocker(in)
Das würde sogar sehr viel Sinn ergeben. Der Verbrauch wäre "nur" um 50% höher, aber die Gamingleistung würde irre steigen, weil auch weniger optimierte Spiele die CPU besser nutzen könnten.

Es ist sogar die Frage, ob das nicht die Zukunft wäre, ähnlich Intels Big Little Ansatz. Einige, wenige Kerne mit sehr viel Leistung und viele kleine, effiziente Kerne, für das Multithreading.
50% mehr Verbrauch sind mir das nicht wert. Die Kosten wären einfach zu hoch und wirklich leise ist ohne Wasser dann auch kaum mehr möglich.
 

Pu244

Lötkolbengott/-göttin
50% mehr Verbrauch sind mir das nicht wert. Die Kosten wären einfach zu hoch und wirklich leise ist ohne Wasser dann auch kaum mehr möglich.

Es wäre der absolute Gamingking und hätte in vielen Spielen gigantische Vorteile. In der Realität würde man das Ding einfach um 20% weniger takten und hätte die Hälfte verbrauch bei 80% der Leistung.

Aber es gibt auch viele, die sich einen i9 10900K gekauft haben und den seine 300W ziehen ließen.

Laut MLiD stehen etwa um 2025 herum aufsummiert +100 % IPC-Zugewinne ins Haus bei beiden Herstellern. Auch wenn er dazu noch nicht viel sagen wollte, SMT4 scheint hier u. a. ein Thema zu sein.

Halte ich für eher unglaubwürdig. SMT 4 soll, gegenüber SMT 2 lediglich 15% mehr Leistung bringen und das auch nur, wenn man alle Threads wirklich optimal auslasten kann. Schon bei einem 4 Kerner gibt es da die ersten Probleme, ein 16 Kerner hätte ganze 64 Threads, die optimal versorgt werden wollen. Ansonsten sind die Architekturen recht weit am Ende. Man kann noch einiges machen, aber das hat seinen Preis.
 

Kondar

BIOS-Overclocker(in)
Rein auf die Cinebenchwerte bezogen ists mit der Effizienz wahrscheinlich weiterhin nicht weit her.
AlderLake wird mit ähnlichen TDP-Limits vermutet wie die 11000er Serie, sprich irgendwas zwischen 200 und 250W (kurzfristiger) Lastverbrauch. Damit etwas mehr Punkte als ein 5950X (142W) zu erreichen wäre weiterhin deutlich ineffizienter als AMD.

Interessanter wird es eher sein wie es im normalen Alltag und Teillasten aussieht - hier hönnte das Biglittle Prinzip effizienztechnisch weitaus mehr bringen. Ein 5950X der mit 4 kleineren Aufgaben belastet wird (keine Ahnung - ein YouTubevideo abspielen während der Virenscanner das Systemlaufwerk prüft und im Hintergrund synchronisiert noch nen NAS und ne CD wird zu FLAC gerippt oder sowas - Alltagszeug eben) verbraucht schnell 80W weil mehrere kerne hochgeboostet werden - wenn AlderLake diese Tasks auf die kleinen Kerne legen würde (was nicht langsamer ist da keine der genannten Aufgaben wirklich CPU-limitiert ist) und das beispielsweise mit 30W erledigt wäre das ein riesen Effizienzgewinn.

Als Noob frage ich mich dann eher warum bei 5950X so viele Kerne und warum die so gleich auf 100% (?) springen.
Fände es einfach ~beruhigender notfals 16 / 32 Threads mit max. Leistung zu haben als nur 8 (ggf.16) Threads.

Davon abgesehen finde ich die Entwicklung einfach zu deutlich mehr Wärme / Energiehunger nicht so prickelt.
Sei es AMD, Intel oder NV.
 

derneuemann

BIOS-Overclocker(in)
Der 3D Cache soll doch schon gar nicht mehr für ein ZEN 3 Refresh kommen (letzte Gerüchte)

Außerdem ist gar nicht bekannt, wie viel das in welchen Anwendungen beschleunigt. Klar ist es möglich, aber nicht sicher.

Dazu könnte es sich je nach User auch ganz unterschiedlich verhalten.

Wo Games wichtig sind, könnten 8 sehr starke Kerne in Spielen auch viel Schub bringen und man hätte dann höchstens einen Kampf um die Spitze (wenn es ein ZEN3 Refreh gibt mit 3D Cache), aber gewiss keine klare Lage.

Das alles natürlich auch nur sofern diese Leaks zum Intel auch nah an der Wahrheit sind.
Meistens sind es doch eher die Intel Fans, die nerven. Sie lassen sich wohl gerne mit überteuerten Preisen veraschen. Und wenn ein Konkurrent sie zwingt weniger zu bezahlen, dann wird geflucht und gejammert was das Zeug hält. Dasselbe ist auch bei den Nvidia Käufern zu beobachten. Egal was es kostet, es wird gekauft.
Sehr merkwürdige Wahrnehmung. Das kann man hier im Forum nur in den absoluten Ausnahmefällen beobachten.
Da kann man hier öfter anderes beobachten.
Blödsinn? Sehe ich da ein grünes Logo bei dir?

Fraktion?

Genau das meine ich.....wer benutzt solche ausdrücke, wenn er sich nicht damit identifiziert?
Ich gehöre keiner „Fraktion“ an. Mir ist es egal was in meinem Rechner steckt, solange ich nicht das Gefühl habe abgezockt zu werden. Bei Intel und Nvidia hatte ich das Gefühl aber schon vor 20 Jahren....und es ist nicht besser geworden.
Das ist leider eher schwach gewesen.

Der Werte Herr hat wirklich neutral geschrieben, du versucht dem ganzen einen anderen Anstrich zu geben. Lässt es dir aber wieder nicht nehmen, gegen einen Hersteller zu wettern.

Ach und ich kann dir sagen, da ich auch in den letzten 20 Jahren PC Hardware gekauft habe. Was du da schreibst ist nicht wahr.
Wo hast du denn die 105W her? :hmm:

Oder auch die 200W?
Ist die TDP der neuen 12er Gen schon offiziell? :stupid:
Die TDP ist ja auch 125W und diese kann die CPU für eine Zeit überschreiten, bis hin zu 228W. Oder nicht?
Es wäre sicher auch möglich einen Quadcore zu bauen der mit 300W Verbrauch so schnell ist wie der 12900k. Macht nur keinen Sinn.
Na ich glaube, den Sinn hätte es in den letzten 10 Jahren schon gegeben.

Schau dir mal an, wie klein die Unterschiede sind, zwischen 6Kernen und 16 Kernen, sofern der selbe Ram und Kern zum Einsatz kommt.

5600X und 5950X zum Beispiel. Und ja, ich rede von Spielen, weil für ganz, ganz viele Menschen in der Welt das die anspruchsvollste Anwendung zuhause ist.

Die Spiele die am besten mit Kernen Skalieren, profitieren von vielen Kernen eher mau.

Die Realität liegt bei 50% mehr Kernen im Normalfall bei um die 25% mehr Fps (wichtig hier nicht nur auf die Durchschnitts Fps zu schauen).

Also ja eine CPU mit weniger Kernen, die sehr stark wäre ist immer noch keine schlechte Idee.

Die Leistung kommt überall gut an.

Sagen wir diese wäre pro Kern 100% schneller. Für das Szenario wich es beschrieben habe, könnte man schon glauben, das ein (BEISPIEL) 8 Kerner mit hoher Leistung alles andere plättet. Da würden dann auch 32 Kerne unter Umständen nichts dran ändern können.


Es geht hier nicht um Intel / AMD. Aber etwas lediglich an der Anzahl der Kerne zu bewerten ist schlicht zu einfach gedacht, meiner Meinung nach.
 
Zuletzt bearbeitet:

Incredible Alk

Moderator
Teammitglied
Als Noob frage ich mich dann eher warum bei 5950X so viele Kerne und warum die so gleich auf 100% (?) springen.
Aus zwei Hauptgründen:
1.) Die CPU kann nicht wissen, ob die anstehende Aufgabe was größeres ist oder nur was kleines nebenher und sie weiß auch nicht ob die Aufgabe zeitkritisch ist oder nicht. Deswegen wird immer "so schnell es geht" angewendet. Das wird auch die große Herausforderung für den Scheduler beim biglittle sein...

2.) Weil Benchmarkbalken und "Responsiveness" eines Systems umso besser werden je aggressiver ein Boost reinhaut. Im Konkurrenzkampf wird also jeder Hersteller bestrebt sein hier maximal hart ranzugehen. Deswegen ballert AMD 1,5v in seine CPUs um die 5GHz zu erreichen und deshalb hat intel noch den Boost überm Boost (Thermalvelocityboost) erfunden um noch 100 Mhz mehr rauszuquetschen.
 

R4153

Kabelverknoter(in)
Ich bleibe immernoch bei der Meinung, dass man im Consumerbereich viel mehr wert auf Singlecore Leistung legen sollte als Multicore. Von 100 Menschen schöpft vllt nur ein Mensch die 16 Kerne aus. Es gibt einfach viel zu wenige Anwendungen die wirklich so viele Kerne nutzen können. Die meißten die sich den 5950X gekauft haben, haben ihr Geld eh verschwendet. Rein fürs zocken wird man momenten und auch ein paar Jahre in die Zukunft nicht mehr als 8 Kerne brauchen. Denke Intel geht in die richtige Richtung, indem Sie den Big Little Ansatz umsetzen. Sie wissen ganz genau dass 8 sehr starke Kerne und kleinere Hilfskerne für OS oder ähnliches mehr sinn macht. Ich behaupte stumpf, dass auch AMD bald den selben weg einschlagen wird, da die Effizienz dadurch wirklich sehr viel besser ist.
 

Kondar

BIOS-Overclocker(in)
Ich bleibe immernoch bei der Meinung, dass man im Consumerbereich viel mehr wert auf Singlecore Leistung legen sollte als Multicore. Von 100 Menschen schöpft vllt nur ein Mensch die 16 Kerne aus. Es gibt einfach viel zu wenige Anwendungen die wirklich so viele Kerne nutzen können. Die meißten die sich den 5950X gekauft haben, haben ihr Geld eh verschwendet. Rein fürs zocken wird man momenten und auch ein paar Jahre in die Zukunft nicht mehr als 8 Kerne brauchen. Denke Intel geht in die richtige Richtung, indem Sie den Big Little Ansatz umsetzen. Sie wissen ganz genau dass 8 sehr starke Kerne und kleinere Hilfskerne für OS oder ähnliches mehr sinn macht. Ich behaupte stumpf, dass auch AMD bald den selben weg einschlagen wird, da die Effizienz dadurch wirklich sehr viel besser ist.
Problem ist doch das selbst ein DualCore schon als Multicore zählt.

Für Big Little Ansatz sehe ich etwas schwarz da wieder mit Kanonen auf Spatzen geschossen wird.
Wieviel Kerne braucht man für Windows, EMails und ggf. INet Radio / Offline Musik?
Da sollte man doch mit vier Kernen sehr gut bedient sein (war ja nicht mal vor soooo langer Zeit High-End).... oder?
 

R4153

Kabelverknoter(in)
Problem ist doch das selbst ein DualCore schon als Multicore zählt.

Für Big Little Ansatz sehe ich etwas schwarz da wieder mit Kanonen auf Spatzen geschossen wird.
Wieviel Kerne braucht man für Windows, EMails und ggf. INet Radio / Offline Musik?
Da sollte man doch mit vier Kernen sehr gut bedient sein (war ja nicht mal vor soooo langer Zeit High-End).... oder?
Ja Optimal wären ja 8 Große kerne für Games und 4 little Cores um nebenbei andere Anwendungen laufen zu lassen wie z.B. youtube, mails, teamspeak, obs stream etc.
 

facehugger

Trockeneisprofi (m/w)
Davon abgesehen finde ich die Entwicklung einfach zu deutlich mehr Wärme / Energiehunger nicht so prickelt.
Sei es AMD, Intel oder NV.
Sehe ich genauso. Aber ANSCHEINEND geht es gerade bei CPU's/GPU's in Sachen höher, schneller, weiter aktuell nur mit... der Brechstange:ugly:

Wobei es ja immer hieß, neue Hardware wird bei mehr Leistung effizienter. Gut, die Grenze/Machbarkeit ist irgendwann bei allem erreicht. ABER, Grakas die unter Last zwischen 300-400W saufen oder Prozzis die sich (wenn auch nur über einen bestimmten Zeitraum) 250W reinziehn, halte auch ich für nicht zeitgemäß:nene:

Gruß
 

Incredible Alk

Moderator
Teammitglied
Wobei es ja immer hieß, neue Hardware wird bei mehr Leistung effizienter.
Ist auch so. Nur muss man die Zeizräume etwas grösser wählen und die Absolutzahlen mal aus dem Hirn kriegen.

Mein Ryzen 5950X (~4 GHz bei 150W) ist in meinem Workload mehr als doppelt so schnell wie der alte i7-5960X (4 GHz bei 180W). Efizienzsteigerung um geschätzt 250% in 7 Jahren.

Die Leistung des alten 6600K (4,2 GHz bei 90W) meiner Frau kannste heute in der TDP Klasse unter 25W kaufen.

Klar, die Sprünge sind nicht mehr so extrem wie früher und dadurch dass die Absolutverbräuche insbesondere bei Grafikkarten aktuell stark steigen bekommt man ggf den falschen Eindruck aber insgesamt ists nach wie vor so dass immer mehr Performance aus immer weniger Verbrauch entsteht.
 
Oben Unten