Intel Alder Lake: Geleakte Benchmarks zeigen deutlichen Leistungsabfall bei 125 W TDP

Jahrelang bremst Intel den Markt aus, dann, weil sie müssen, wird ne neue „Architektur“ gebracht, die ganz knapp und mit der Leistungsbrechstange die Benchmark-Pole holen wird… und die Fanboys labern als wär Intel das höchste.
Muss man nicht verstehen - aber ist witzig mitzulesen :-)

Weiter machen!
 
Wäre doch toll, wenn PCGH mal eine neue Benchmark-Kenngröße einführt, bei der die Rechenleistung aller aktuellen CPUs auf PL1=PL2=125W normiert gemessen wird. Bessere Boards lassen so einen Einstellung des Powerlimits zu. Dann hört nebenbei auch dieses Gejammer hier auf. (Ja ich weiß, daß dann ein anderes erst recht losgeht, weil nicht praxis ...) Aber eure anderen CPU-Test in Spielen in 720p sind genauso eher akademisch bzw. nicht praxisbezogen.
 
Es wird ja zum Teil auch auf den Effizienz-Punkt eingegangen. Meiner Meinung nach nur zu wenig. Ich würde es aber auch sehr interessant finden und zwar bei CPUs und Grafikkarten. Einfach ein paar Werte festlegen (max. 50 /100 / 150 Watt) und dann schauen was für Punkte dabei herauskommen.
 
Ich warte noch auf den Tag, wo ein Leaker mal einen richtigen Benchmark nimmt. Der uralte Cinebench kostet nichts, ist aber in der Relevanz genauso umsonst. Ich finde es viel lustiger, dass Intel mich im Inventor 2021 Leaderboard löschen ließ, wo ich als Erster die 50K-Marke deutlich überpringen konnte. Und das im 125 Watt Setting (PL1). Das Resultat wäre wenigstens mal eine echte Schlagzeile wert gewesen, zumal ich den Upload rein mechanisch erledigt und gar nicht beabsichtigt hatte. Dann habe ich mir überlegt, es doch oben zu lassen und mal zu warten, was passiert. Es hat genau 3 Tage gedauert. :D

1635698451313.png
 
Du kannst dir zwar deine CPU mit drei dicken Schichten roten Lippenstift bemahlen und wenn der Promille-Pegel am Ende stimmt, dann könnte dabei für ein Moment eine Claudia Schiffer in besten Jahren dabei rum kommen.
(sorry ich meinte natürlich politisch korrekt eine CPU mit 16 performanten Kernen dabei rumkommen.)

Aber spätestens am nächsten Morgen, wenn die ersten Schichten beginnen zu bröckeln enthüllt sich eben doch,
dass ein Hybrider Mix aus 8p Kernen und 8e Atom Kernen, ohne HT der dir noch so nebenbei 240W aus der Steckdose nuckelt. Doch nur eine mit Intel PR Folien zugekleisterte Sau (Entschuldigung ich meinte natürlich politisch korrekt, eine mit Intel PR Folien zugekleisterte CPU ist.):devil:

Und der Preis für die komischste Analogie der Woche geht an Sandworm!

Wenn du ihn unter Trockeneis, oder besser N2 bei 500W laufen lässt, könnte ich mir vorstellen das er am Ende gar leicht schneller als der 5950X sein könnte.

So wie es aussieht wird dein Vorstellungsvermögen weit übertroffen: mit OC und 330W soll der i9 12900K sogar noch schneller sein, als der R9 5950 und das im Multicore! Das kann man sogar noch mit Wasser kühlen.
 
So wie es aussieht wird dein Vorstellungsvermögen weit übertroffen: mit OC und 330W soll der i9 12900K sogar noch schneller sein, als der R9 5950 und das im Multicore! Das kann man sogar noch mit Wasser kühlen.
Genau, zumindest laut den letzten News (Tests) dazu.

Zumindest, wenn wir denen Glauben schenken wollen. Daher warte ich noch auf aktuelle Tests, die noch folgen werden. Aber bei dem Zitat, was du beantwortet hast, habe ich mich auch gefragt, ob dessen User auf dem Mond lebt. :D
 
So wie es aussieht wird dein Vorstellungsvermögen weit übertroffen: mit OC und 330W soll der i9 12900K sogar noch schneller sein, als der R9 5950 und das im Multicore! Das kann man sogar noch mit Wasser kühlen.
Oh wow,

der Marktführer mit x-fachen an Budget, bringt 12 Monate später eine CPU, die schneller ist als die Konkurrenz mit OC und 330W, ich bin mächtig beeindruckt!
die 3090 ist effektivste rtx die es gibt
Je nach Auflösung nicht mal ansatzweise.
 
Das ist den Spezialisten hier doch egal, es zählt was MAXIMAL möglich ist und da ist AMD aktuell eben niedriger, also der Gewinner. :schief:

Wenn sich irgendwann der Wind dreht, dann ist die Leistungsaufnahme aber wieder egal, da zählt dann nur "was am Ende rauskommt". :D


Auch egal, genauso wie Perf/€. Nen 5950X auf 200 Watt betreiben ist erlaubt, aber für Intel gelten andere Maßstäbe weil die ja Marktführer sind.


Dooooch, genau das heißt es. Sorry, ich dreh hier echt ab bei manchen Aussagen. Das System welches 240 Watt auf der CPU dauerhaft abführt will ich sehen, da können die anderen Komponenten auch nicht gerade sparsam sein.

Aber das wird hier ja suggeriert, AMD ist jetzt der Green-Hero der IT. Dass die jahrelang die mit Abstand höchsten TDP Rekorde aufgestellt haben ist egal, seit 2-3 Jahren ist man mal vorne, und alle anderen sind doof.


This, der Perf-Gain-Per-Gen ist mehr als beeindruckend:

Bei 125 Watt:
Core i9-12900K7.492
Core i9-11900K4.817

Was man daran auszusetzen haben kann, keine Ahnung.


Siehe oben, bei Intel ist es nicht erlaubt dass deren Prozess Probleme macht oder nicht so ausgereift ist wie der von AMD bei TSMC einkaufte. Und natürlich muss man deswegen AMD loben für ihren tollen Prozess. :stupid:
Ich kram gerne die alten Weisheiten aus und Poste mal was die Blauen Jungs hier alles abgelassen hatten mal gerne. Das alles ist wirklich harmlos im vergleich was die üblichen verdächtigen von sich gaben.
Komm ma von deinem hohen Ross runter.
Fakt ist das die Jungs von Intel keinen Green-Award für Alderlake bekommen, nicht mehr nicht weniger.
Das ding wird hier im Forum eh an die Machbarkeitsgrenze getrieben und das ist auch ok.
Aber Strom frisst der wie Freddy Teenager
 
der Marktführer mit x-fachen an Budget, bringt 12 Monate später eine CPU, die schneller ist als die Konkurrenz mit OC und 330W, ich bin mächtig beeindruckt!

Und?

Intel hat die Trendwende geschafft und den R9 5900X wohl sicher eingeholt. Der Rest ist Bonus, ich hätte nicht gedacht, dass sie jetzt schon in Richtung von AMDs 16 Kerner treten können. Für die 16 Kerner ist dann wohl Raptorlake zuständig.
 
Für einen echten Vergleichstest müssten die Prozessoren mit der selben Leistungsaufnahme getestet werden.
Ja und nein. Will man Aussagen zur Architektur (in Verbindung mit dem Fertigungsprozess) treffen hast du zweifelsfrei recht und da müsste man die CPUs tatsächlich verbrauchs- oder frequenztechnisch fest einstellen um sinnvolle Vergleiche zu erhalten.
Für die Praxis relevant ist jedoch natürlich der Betriebsmodus @Stock, d. h. so wie die CPU üblicherweise beim Kunden läuft, d. h. da ist es auch durchaus legitim abweichende Settings miteinander zu vergleichen, schlicht weil die Produkte auf einen derartigen Betrieb hin ausgelegt sind und auch i. d. R. so genutzt werden.
Enthusiast-Gamer werden derart theoretische Aussagen zur Architektur nur am Rande interessieren, insbesondere wenn diese sie davon abhalten noch brach liegende Ressourcen zu heben und noch mehr Fps aus dem Design herauszukitzeln.
Das blödsinnige Thema hatte man ja schon beim Coffee Lake Refresh, denn man zumeist hart auf 5,0 GHz einstellen konnte und im Gaming blieb man i. d. R. dennoch innerhalb der offiziellen 95 W TDP und in Abhängigkeit des Games gar trotz der deutlichen Übertaktung gar noch darunter, was schlicht daran liegt, dass GameEngines hochkernige CPUs schlicht zu wenig auslasten.

Darüber hinaus wird mit dem Cinebench aber auch der Extremfall getestet, d. h. eine maximale Auslastung aller Rechenkerne (wobei noch nicht ganz, da die Vektoreinheiten hier nur teilweise genutzt werden). Hat man als Anwender primär derartige Workloads, will man so etwas natürlich vorab wissen, normale Consumer/Gamer dagegen werden sich weit unterhalb dieser "Horror-Werte" bewegen, sodass deren Relevanz für diese Personengruppe eher gering ist ... und überraschenderweise werden die dennoch mit guten Fps-Werten rechnen können.

[...] Das ding [12900K] wird hier im Forum eh an die Machbarkeitsgrenze getrieben und das ist auch ok.
Aber Strom frisst der wie Freddy Teenager
Ist in der pauschalen Aussageform schlicht eine falsche Aussage, da es von der Nutzung der CPU abhängt und wenn Gaming das Ziel ist, wird der sich absehbar nicht schlechter darstellen als die größeren Zen3-Modelle, ergo spielt keine Rolle, da der mit seinen IPC-Gains wohl mindestens genau so viele Fps hervorbringen wird.
Und im Niedriglastbereich kann man gar annehmen, dass die CPU gar etwas besser abschneiden wird, zumal insbesondere wenn gegen die 2-CCD-Modelle von AMD verglichen und nein, der Bereich ist keinesfalls irrelevant, da nicht jeder seinen PC ausnahmslos mit einem Renderer oder Videoencoding malträtiert. *)
Wenn man schon anderen das hohe Ross unterstellt, sollte man sich bzgl. seiner eigenen Aussage schon um etwas mehr Aussagekraft und Präzision bemühen.

Einfach mal abwarten was Igor & Co in den kommenden Tagen an Tests veröffentlichen werden, dann kann man weiterdiskutieren, aber hier ein CB-Ergebnis zum Maß aller Dinge zu erklären für ein Produkt, das in den meisten Fällen in seiner ganzen Lebenszeit niemals einen auch nur ähnlich gelagerten Hochlastworkload zu sehen bekommen wird, ist halt schlicht unsinnig.

*) Und "Niedriglastbereich" heißt hier nicht Idle sondern schlicht nur deutlich unterhalb einer 100 %-Auslastung.
 
Zuletzt bearbeitet:
Für die 16 Kerner ist dann wohl Raptorlake zuständig.
Wenn es den überhaupt gibt, woran durchaus respektierte Leute erheblichen Zweifel haben.

Intel hat die Trendwende geschafft und den R9 5900X wohl sicher eingeholt. Der Rest ist Bonus
Mit OC und 330W, klar da spricht man noch von Bonus.
Ich bin mal auf die Verkaufzahlen im Retailmarkt gespannt, die Preise haben schon viele Leute wieder geerdet, der Verbrauch wird heiß diskutiert und stößt vielen auf und wie man sieht, würde von der so tollen ADL CPU im 125W Korsett, nicht mehr ganz so viel übrigbleiben.
AMD muss sicher seine Preise senken, aber das nun alle die GEschäfte stürmen, um einen ADL zu bekommen, davon sind wir Lichtjahre entfernt, eher dürfte die Mehrzahl einfach eine neue CPU auf ihren augenblicklichen Chipsatz schnallen und AMD wird sicherlich auch demnächst ihre neuen Produkte bringen und anteasern.
 
Würde die cpu freigeben solange ich unter 90° bleibe. Heutzutage f egsl wenn man bedenkt was gpus brauchen
Oha. Die Friday for Future Gen würde bei der Aussage im Kreis springen.

Natürlich kann man dies so sehen, allerdings muss sich die CPU durchaus an Ihrer Kernarchitektur / Philosopie messen lassen. Wer mit einem Effizienzgedanken antritt und anschliessend so säuft… . Naja.

Zudem, wenn alle so denken würden, verbrauchen Enthusiansten PCs alleine mit CPU + GPU bald 700 - 800 Watt. Naja, Energie wird unter der (wohl) nächsten Bundesregierung nochmals deutlich teurer werden…
 
Zurück