Intel Alder Lake: Geleakte Benchmarks zeigen deutlichen Leistungsabfall bei 125 W TDP

Nur mal so am rande gesagt Maxxons Cinema ist ein Realer Anwender Verbrauch, es gibt Menschen die mit dieser Software ihr Geld verdienen ! Ganz genauso wie Mancher Software wie Handbrake nutzen muss ...
immer dieses aber beim Daddeln liegt der verbrauch ja drunter, das weckt Erinnerungen an die VEGA Karten, denn komisch da wollte auch keiner wissen wie Sparsam und Effizient eine VEGA sein kann ...
 
"Ganz so drastisch wie in dem Leak dürfte der tatsächliche Leistungsabfall bei den bisherigen TDP-Einstellungen also vermutlich doch nicht ausfallen."

Dann schreibt das doch stattdessen in die Überschrift.
 
Nur mal so am rande gesagt Maxxons Cinema ist ein Realer Anwender Verbrauch, es gibt Menschen die mit dieser Software ihr Geld verdienen ! Ganz genauso wie Mancher Software wie Handbrake nutzen muss ...
immer dieses aber beim Daddeln liegt der verbrauch ja drunter, das weckt Erinnerungen an die VEGA Karten, denn komisch da wollte auch keiner wissen wie Sparsam und Effizient eine VEGA sein kann ...
Na und? Dann setzt du den Takt genauso weit runter wie mit dem AMD und dann kann auch die Spannung mit herabgesetzt werden. Stellst die Leistungsaufnahme auf nur 125 Watt und schon ist ein Wunder verbracht... keiner wird gezwungen eine hohe Leistungsaufnahme anliegen zu haben.

Wo sich mit AMD der Hersteller darum kümmert, muss sich mit Intel der Nutzer selbst darum kümmern. Mir ist es aber lieber das ich selbst mich darum kümmere und ich auch Vollgas haben kann, statt das mich jemand bevormunden tut!

Ganz davon abgesehen, dass nicht jeder solche Anwendungen nutzt.
 
Nur mal so am rande gesagt Maxxons Cinema ist ein Realer Anwender Verbrauch, es gibt Menschen die mit dieser Software ihr Geld verdienen ! Ganz genauso wie Mancher Software wie Handbrake nutzen muss ...
Sicher gibt es solche User...nur sehe ich auf keiner Folie, daß Intel seine CPU für diesen Workload bewirbt oder empfiehlt. Es ist sowieso unsinnig in diesem Workload weniger mit mehr Kernen zu vergleichen. Das mehr an Kernen ist mit Takt sogut wie nicht aufzuholen. Da kannst Du noch soviel Strom reinpumpen. Ein 5800X ist auch schneller als ein 3900X. Nur nutzt das dem 5800X in deinem Szenario null. Mit über @5.9GHz/LN2 ist er gerade mal auf der Leistung des 3900X meiner Frau. Luftgekühlt und optimiert auf stock verbrauch ~142W.
An einen @5.8GHz 5800X kommt sogar mein oller 4 Jahre alter i9 7920X ran...ebenfalls unter Luft. Und wird wahrscheinlich auch nicht mehr schlucken als der AMD.

 
Zuletzt bearbeitet:
Beim Rendern kommt es auch noch mit an, ob die Grafikkarte oder der Prozessor dazu genutzt wird.
 
Beim Rendern kommt es auch noch mit an, ob die Grafikkarte oder der Prozessor dazu genutzt wird.
Es ist sicherlich eine Frage von Anspruch an den Renderprozess und am Ende von Berechnung, ob die übliche Zeitersparnis den nochmal deutlichen Mehrverbrauch durch die GPU wettmacht. In aller Regel wohl schon.

Wo sich mit AMD der Hersteller darum kümmert, muss sich mit Intel der Nutzer selbst darum kümmern. Mir ist es aber lieber das ich selbst mich darum kümmere und ich auch Vollgas haben kann, statt das mich jemand bevormunden tut!
index.jpg

Freiheit! :ugly:

Ganz davon abgesehen, dass nicht jeder solche Anwendungen nutzt.
Ach, und das macht es folglich egal?

Und so ganz am Rande. Wir hier sind eine kleine Minderheit. Das Gros der Menschen da draußen ist weder so technisch versiert noch haben sie die Muße sich so weit in die Materie hinein zu knien, um eine ab Werk krass Energie verschwendende CPU zu bändigen. Die kaufen sich einen Rechner mit CPU X und GPU X, weil ihnen irgendwer mit etwas weniger Halbwissen gesagt hat, dass die Teile toll sind . Und wenn sie sich doch damit beschäftigen und die CPU in ihrem Stromhunger begrenzen, dann müssen Sie mit 25-30% Leistungseinbußen leben? Das kann es doch nicht sein!
 
Ach, und das macht es folglich egal?
In meinem Fall, sollte ich mich dafür entscheiden ja, weil ich solche Anwendungen kaum bis gar nicht nutze. Wie ich hier bereits schrieb, es komm auf jeden selbst immer mit an, was für Anwendungen laufen. In meinem Fall nutze ich überwiegend nur Games und Office und dazu muss ich noch nicht mal die Leistung limitieren.

Ob ich mich für solch ein Prozessor entscheide, hängt daher nicht davon ab, was hier im Forum geschrieben wird, sondern was ich für Anwendungen am Laufen habe und wie ich mein Nutzerverhalten einstufen kann. ;)

Und wenn sie sich doch damit beschäftigen und die CPU in ihrem Stromhunger begrenzen, dann müssen Sie mit 25-30% Leistungseinbußen leben? Das kann es doch nicht sein!
Wieso, ein AMD bringt auch weniger Leistung, wenn es keine 5 GHz auf alle Kerne fahren kann oder sich an das TDP von 105 Watt hält. :what:
 
Zuletzt bearbeitet von einem Moderator:
In meinem Fall, sollte ich mich dafür entscheiden ja, weil ich solche Anwendungen kaum bis gar nicht nutze. Wie ich hier bereits schrieb, es komm auf jeden selbst immer mit an, was für Anwendungen laufen. In meinem Fall nutze ich überwiegend nur Games und Office und dazu muss ich noch nicht mal die Leistung limitieren.
Zuerst hattest da was mit 120W im CPU Limit stehen. Ich bin echt mal gespannt, ob diese Marke nicht am 4.11. durch weniger Anspruch an die CPU gerissen wird.

Ob ich mich für solch ein Prozessor entscheide, hängt daher nicht davon ab, was hier im Forum geschrieben wird, sondern was ich für Anwendungen am Laufen habe und wie ich mein Nutzerverhalten einstufen kann. ;)
Sieh es mal weniger aus der Ich-Perspektive. Hohe Stromverbräuche müssen von uns Privatmenschen bezahlt werden - und das doppelt. Einmal, weil wir es für unsere Kisten ignorieren und dann die Mehrkosten der gewerblichen Anwender auf deren Produkte und Dienstleistungen umgeschlagen bekommen. Wo wir durch manuelles Eingreifen in der Lage sind diese Verbräuche zu bändigen, wenn man mit dem Minus an Leistung klarkommt, so ist das Gros da draußen munter dabei sinnlos Energie zu verschwenden? Nein, diese Entwicklung lehne ich entschieden ab.

Als AMD mit der Zen Architektur um die Ecke kam, da war man erstaunt wie gut die Teile im Vergleich mit den Intel CPUs mit relativ wenig Energieeinsatz performten. Daran hat sich bis heute nicht viel verändert. In der gleichen Zeit hat man bei Intel nur eine Lösung gehabt: Mehr Strom für mehr Leistung. Und verstehe mich nicht falsch, mir ist egal ob da Intel oder AMD drauf steht. Ich will, dass sich Ingenieure um Effizienz bemühen. Wenn Sie das nicht hinbekommen können (oder schlimmer: nicht wollen!), dann werde ich das bei egal wem beklagen.

Wieso, ein AMD bringt auch weniger Leistung, wenn es keine 5 GHz auf alle Kerne fahren kann oder sich an das TDP von 105 Watt hält. :what:
Weil 5 GHz ja auch der "normale" Boosttakt hüben wie drüben ist...
 
Wieso, ein AMD bringt auch weniger Leistung, wenn es keine 5 GHz auf alle Kerne fahren kann oder sich an das TDP von 105 Watt hält. :what:
Was quatscht du hier denn die ganze Zeit für einen Blödsinn? Zen3 bringt innerhalb des TDP Korsetts genau die Leistung aus den Reviews und nicht weniger. Bei Alder Lake beträgt dieses TDP Korsett allerdings 241W und wenn du dieses jetzt selbst einschränkst wird die CPU entsprechend Leistung verlieren. Zumindest in entsprechenden Szenarien, wozu Spiele absolut nicht zählen ;)

Das ist eben nicht gleich bei AMD und Intel in dieser Generation.
 
Zuerst hattest da was mit 120W im CPU Limit stehen. Ich bin echt mal gespannt, ob diese Marke nicht am 4.11. durch weniger Anspruch an die CPU gerissen wird.
Habe ich auch.

Im GPU-Limit sind es normalerweise je nach Game um die 75-95 Watt und vielleicht kurzfristig mal 120 Watt, sollte anfangs noch einiges mit geladen und berechnet werden.

Mit Video Rendern komme ich mit meiner Software auf 140 Watt.
Meine Angaben beziehen sich aber auch mit 5 GHz auf alle Kerne, denn mit weniger OC und dadurch auch eine geringere Spannung, wird meine Leistungsaufnahme sogar geringer ausfallen.

In einem Test mit nur 4,5 GHz auf alle Kerne hatte ich nur 0,950v unter Last anliegen und entsprechend ist dann die Leistungsaufnahme im GPU-Limit auf nur 25-35 Watt(vom Prozessor) abgefallen.

Sieh es mal weniger aus der Ich-Perspektive.
Wenn ich was kaufe, ist nur diese Perspektive für mich wichtig, denn es interessiert mich nicht das Prime95 auch 250 Watt ziehen kann oder vergleichbare Programme die ich ehe nicht nutze.

Weil 5 GHz ja auch der "normale" Boosttakt hüben wie drüben ist...
Mit Intel ist solch ein Takt aber möglich und dann sprechen wir auch von dieser hohen Leistungsaufnahme. Mit AMD bekommst solch eine Leistung nie hin. Zumindest nicht ohne Trockeneis verwenden zu müssen. :D

Was quatscht du hier denn die ganze Zeit für einen Blödsinn? Zen3 bringt innerhalb des TDP Korsetts genau die Leistung aus den Reviews und nicht weniger. Bei Alder Lake beträgt dieses TDP Korsett allerdings 241W und wenn du dieses jetzt selbst einschränkst wird die CPU entsprechend Leistung verlieren. Zumindest in entsprechenden Szenarien, wozu Spiele absolut nicht zählen ;)
Das ist kein Quatsch... weil ein hochgefahrener AMD auch mehr ziehen wird!
In diesem Beispiel zieht ein 5950X mit 16 Kerne auch bis 240 Watt!!

Ashampoo_Snap_Donnerstag, 21. Oktober 2021_21h07m49s_002_.png Ashampoo_Snap_Donnerstag, 21. Oktober 2021_21h06m16s_001_.png

Meine Aussage bezieht sich darauf, dass auch ein Intel Prozessor je nach Leistung weniger ziehen wird und jeder selbst auch hierzu einiges mit bestimmen kann. Klar wird in solch ein Test wo der Prozessor auf max. geprügelt wird 330 Watt ziehen, was aber nichts mit der Realität was zu tun haben muss.

Selbst diese 241 Watt werden nicht ständig anliegen!

Mein Prozessor zieht mit Prime95 auch 250 Watt, seit 2018 hat er im Schnitt aber nur zwischen 75 und 120 Watt gezogen. Und am Ende kommt es auch auf das Nutzerverhalten und dessen Anwendungen mit an. Oder wie erklärst du dir das der Rechner meines Sohnes mit seinem 3900X im Monat das Doppelte an Strom verbraucht?!

Übrigens habe ich selbst mein Sohn damals als er Aufrüsten wollen den 3900X empfohlen.
 
Zuletzt bearbeitet von einem Moderator:
Das ist kein Quatsch... weil ein hochgefahrener AMD auch mehr ziehen wird!
In diesem Beispiel zieht ein 5950X mit 16 Kerne auch bis 240 Watt!!

Anhang anzeigen 1378536 Anhang anzeigen 1378537

Meine Aussage bezieht sich darauf, dass auch ein Intel Prozessor je nach Leistung weniger ziehen wird und jeder selbst auch hierzu einiges mit bestimmen kann. Klar wird in solch ein Test wo der Prozessor auf max. geprügelt wird 330 Watt ziehen, was aber nichts mit der Realität was zu tun haben muss.

Selbst diese 241 Watt werden nicht ständig anliegen!

Mein Prozessor zieht mit Prime95 auch 250 Watt, seit 2018 hat er im Schnitt aber nur zwischen 75 und 120 Watt gezogen. Und am Ende kommt es auch auf das Nutzerverhalten und dessen Anwendungen mit an. Oder wie erklärst du dir das der Rechner meines Sohnes mit seinem 3900X im Monat das Doppelte an Strom verbraucht?!

Übrigens habe ich selbst mein Sohn damals als er Aufrüsten wollen den 3900X empfohlen.
Doch das ist Quatsch!
Der 5950X zieht im Default maximal 142W, um das zu reißen musst du im Bios Einstellungen ändern und beim 12900K ist das eben die Standardeinstellung. Fertig aus, da gibt es nichts dran zu rütteln.

Natürlich kannst du bei beiden die Einstellungen ändern, aber darum geht es hier nicht und ja es ist auch bekannt das die CPU in Spielen maximal um die 100W ziehen wird, aber auch darum geht es hier nicht ;)

Das heißt:
Erst die Posts genau lesen, dann noch mal scharf darüber nachdenken, dann schreiben und vor dem Posten noch mal darüber nachdenken ob der Post Sinn ergibt ;)
 
Sagt mal, merkt eigentlich irgendjemand hier noch etwas? Intel platziert Alder Lake mit einer big Little Technologie und was ist das Ergebnis des Ganzen? Dass hier bereits seit Wochen davon geredet werden muss, dass die Technik 240W braucht um abzuliefern! Ist nicht Sinn und Zweck dieser bigLittle Technik, dass man effizienter wird? Zumindest in Vollastszenarien scheint davon nichts, nein eigentlich sogar weniger als nichts übrig zu bleiben.

Ich bin mal ganz ehrlich gespannt wie sich Alder Lake so schlagen wird. Was ich bisher gesehen und gelesen habe, deutet extrem darauf hin, dass man alles versucht hat um besser dazustehen und dies dann letzlich nur mittels Brechstange schaffen konnte. Mit dem Hintergrund, ist der bigLittle Ansatz mal kräftig und deftig gescheitert, wenn man rund 70% mehr Energie als die Konkurenz braucht um Workloads zu bewältigen, ist das für Intel schon irgendwie erschreckend, der große BigPlayer schafft es hier wiederholt nicht, AMD wirklich effizient auf die Pelle zu rücken, dazu scheint es so, dass AMD ja problemlos kontern kann, abseits des Mainstream ohnehin alles in der Hand behält, im Servermarkt sind sie unangefochten Preis/Leistungssieger, im Workstation oder HEDT Segment hat Intel nichts zu melden, mit Alder Lake ändert sich augenscheinlich nichts. Im Gamingbereich ist man weiterhin voll da, SC Performance sei dank, in allem anderen scheint man weiterhin hinten an zu liegen.

Wenn ich dann hier wieder die blauen Jünger lese, die jetzt schon voll im Verteidigungsmodus sind und den ganzen Tag daher schwafeln, dass im realen Alltag der Verbrauch ja nicht so hoch ist, ja und? Sind wir jetzt Enthusiasten oder Medienopfer? Wenn der 12900k bei 330W knapp den 5950X schlägt, bei 240W knapp drunter liegt und mit 125W so klar geschlagen wird, ist die CPU schlechter als das Pendant von AMD. Das ändert nichts daran, dass es eine gute CPU sein kann, aber eben dies kommt auf den Zweck an. Für only Gamer (behaupten tun das hier seltsamerweise sehr viele) mag das dann gut sein, für Normalos, die eben technikbegeistert sind, gerne mal spielen, aber auch andere Sachen machen, oder gar produktiv sind, lohnt es sich dann nicht, da scheint der Ryzen derzeit noch die bessere Alternative zu sein.
Und nein, ich bin kein AMD Freak oder sonstwas, ich schaue jedes Mal darauf, wer hat was am Markt, was kostet es und was bringt es mir. Diesen Text schreibe ich bspw. gerade von meinem 11700k, der ist gut, war verfügbar und hat nicht die Welt gekostet, zu Hause sitze ich dann an einem 5900X, der war zu dem Zeitpunkt eben das, was ich ergattern konnte (wenn auch für viel zu viel Geld, aber im Januar des Jahres gab es nicht soviel Alternativen, zumindest nicht in der Leistungsklasse).

@Icarus: Dein Screenshot ist aber alles nur nicht brauchbar, die VCore ist derartig hoch für die Taktfrequenz, dass man den Screen nicht ernst nehmen kann, dazu ist die Punktzahl für den Verbrauch deutlichst zu schlecht. Da hat jemand versucht zu optimieren und keine Ahnung wie man das bei Ryzen macht. Ich komme bereits mit dem 5900X auf deutlich jenseits der 9000 Punkte und verbrauche im OC dabei nicht soviel wie der Screen dem 5950X unterstellt. Der 5950X muss mit der Voltage und gescheiter Kühlung, welche hier nicht gegeben ist, locker über 4500Mhz anbieten. Ich arbeite mit 1100mV und denselben Taktraten und die Kerne werden sich so groß nicht unterscheiden. Selbst @Stock liegen diese Spannungen nicht an meiner CPU an.
@Stock bedeutet aber ohnehin, dass der Verbrauch eben nicht bei 220W liegt (hier wurde ja sogar nur CPU ohne IF gemessen)

Wenn ich sehe, dass hier bei 241W nur 10k an Punkten liegen, dann weiß ich nicht so genau was ich davon halten soll, hatte irgendwas von 12k im Kopf, aber vieleicht waren das die 330W Werte? 10k mit 240W zeigt, dass Alder Lake im CB20 nicht einmal im Ansatz auf Augenhöhe agieren kann. Wie in einem anderen Post schon bebildert, schaffe ich mit etwas über 100W locker die 8k an Punkten, da kommt AL scheinbar nicht mit 125W dran. Bin mir nicht einmal sicher, dass mein 5900X die 10k nicht auch schaffen würde, allerdings dann bei ähnlichem Verbrauch wie der 12900k, er hat aber nunmal den Nachteil, dass er vier Kerne weniger hat. Bevor hier der Einwand kommt, die kleinen kann man nicht zählen, Intel selbst sagt bereits, dass die auf Comet Lake Niveau liegen, also ist das für mich garantiert kein Grund die nicht voll zu zählen, sie sind echten Kernen in jedem Fall viel näher als die meisten hier zugeben wollen (keine 30% IPC weniger als die BIG Kerne)
 
Natürlich kannst du bei beiden die Einstellungen ändern, aber darum geht es hier nicht und ja es ist auch bekannt das die CPU in Spielen maximal um die 100W ziehen wird, aber auch darum geht es hier nicht ;)
Doch es geht darum, denn was interessiert es mich das mein Prozessor auch 250 Watt ziehen kann?! Ohne eine TDP von 95 Watt, würde mein Prozessor auch solch eine Leistung je nach Anwendung ziehen können. Ob sich am Ende ein Board daran hält oder nicht hat mit Intel selbst nichts mehr zu tun. Wobei ich bisher 250 Watt nur mit Stresstests gesehen habe. Selbst mit Benchmark bin ich bisher noch nie über 200 Watt gekommen.

Intel hat nun ein TDP weg gelassen, was ändert es an früher? Rein gar nichts!
Denn die meisten Boards haben sich im Gegensatz zu AMD ehe nicht an das TDP gehalten!
 
Doch es geht darum, denn was interessiert es mich das mein Prozessor auch 250 Watt ziehen kann?! Ohne eine TDP von 95 Watt, würde mein Prozessor auch solch eine Leistung je nach Anwendung ziehen können. Ob sich am Ende ein Board daran hält oder nicht hat mit Intel selbst nichts mehr zu tun. Wobei ich bisher 250 Watt nur mit Stresstests gesehen habe.

Intel hat nun ein TDP weg gelassen, was ändert es an früher? Rein gar nichts!
Denn die meisten Boards haben sich im Gegensatz zu AMD ehe nicht an das TDP gehalten!
Ich gebe es auf, du willst es nicht verstehen.
 
Ich gebe es auf, du willst es nicht verstehen.
Nein will ich auch nicht und ich sage dir auch warum, weil ich seit 2018 ein 9900K Prozessor verbaut habe und mir genau bekannt ist, was der so real ziehen wird. Es interessiert mich doch nicht das ein Prozessor theoretisch bis zu 241 Watt ziehen kann, wenn es am Ende wieder auf die eigenen Anwendungen mit ankommt.
 
Ein 12900K kann bis zu 241 Watt ziehen, was ist bitte daran neu, mein 9900K kann auch bis zu 250 Watt ziehen!
Und unser Threadripper 3990X kann bis zu 800 Watt ziehen :D
Es geht dabei ja um den Sweet-Spot: Wann erreiche ich den Punkt, wo ich für fünf Prozent mehr Leistung 50 Prozent oder mehr Energie verbraten muss (Beispiel-Zahlen!)? Untersuchen wie natürlich für den Launch-Test, der Index-Run mit festen 125 Watt läuft in diesem Moment. :daumen:
 
Untersuchen wie natürlich für den Launch-Test, der Index-Run mit festen 125 Watt läuft in diesem Moment. :daumen:
Eben und solche Tests finde ich dann auch aussagekräftiger. :daumen:

Es geht dabei ja um den Sweet-Spot: Wann erreiche ich den Punkt, wo ich für fünf Prozent mehr Leistung 50 Prozent oder mehr Energie verbraten muss
Richtig und das mag auch mit manchen Tests, die ihr dazu laufen lässt, relevant sein.
 
Zuletzt bearbeitet von einem Moderator:
Intel hat nun ein TDP weg gelassen, was ändert es an früher? Rein gar nichts!
Denn die meisten Boards haben sich im Gegensatz zu AMD ehe nicht an das TDP gehalten!
Intel hat die TDP nicht weggelassen. Intel nennt das jetzt anders: Processor Base Power.

Und unser Threadripper 3990X kann bis zu 800 Watt ziehen
Wattripper in da house. Moar watts, moar fps, moar gamezzz.
 
Zuletzt bearbeitet von einem Moderator:
Zurück