News Core i9-14900KS: Intels 400-Watt-Brechstange mit 6,2 GHz

Mit allem fancy Kram, also Köpfen, Flüssigmetall, dicke Custom-WaKü vielleicht irgendwie knapp aber mit "normaler" Kühlung kriegste 350+W nie im Leben dauerhaft aus nem Raptorlake raus.
Tipp: Nach Finnland ziehen, eine gute Luftkühlung einbauen und den PC nach draußen stellen. Dann bestehen zumindest im Winter Chancen :ugly:
So lange die CPU die 100°C nicht erreicht und sonst keine Begrenzungen gerissen werden kleben die beiden belasteten Kerne bombenfest am maximalen Boosttakt. [...]

Das schwierige daran ist, eine perfekte Einzelkernlast hinzukriegen, das geht praktisch nur synthetisch. In der realen Welt siehste also den Maximalboost bei Intel genau wie bei AMD nur recht selten.
Ganz ehrlich, man muss heutzutage Programme eher deoptimieren als optimieren um die Boostfrequenzen zu sehen. Du musst nämlich nicht nur aufpassen, dass nicht mehr als ein Kern benutzt wird, sondern auch dass der Compiler keine Vektorbefehle wie AVX verwendet - auf Kosten von Performance.

Absoluter Schwachsinn. Aber naja. Mehr ist halt besser.
 
Was bleibt Ihnen übrig, die CPu´s werden ja gekauft.
Die wenigen die sie verkaufen, ob sich der aufwand wirklich lohnt, hmm, ich glaub eher nicht.
Sah man schon bei 13900KS, der normale 13900K hat sich 50mal mehr bei Mindfactory verkauft.
Und die Leistung wenn man ehrlich ist passt doch auch.
Leistung ist aber nicht alles, was die Leute immer mehr erkennen und berücksichtigen, wenn Intel so weitermacht haben sie nur noch ihre Firmentreuen Kunden, davon werden sie nicht leben können.
Sieht man schön bei der großen >Jahresumfrage bei Computerbase<, wo immer weniger Intel CPUs gekauft werden, innerhalb von wenigen Jahren hat sich das Kräfteverhältnis dort umgekehrt, früher eine Intel Hochburg, heute eine AMD Hochburg...
Screenshot 2024-02-13 at 20-36-41 Die ComputerBase-Community-Umfrage 2023.png
 
Zuletzt bearbeitet:
Intel verbrtät nach wie vor maximal 253W.
Leser von PCGH wissen aber, dass sich kaum ein Mainboardhersteller an Intels Angaben hält.
Der große Teil der Nichtleser denkt also, dass alles ok ist und lässt die Kagge glühen, der andere Teil, die PCGH Leser und letzten Intel-Fanboys stellen das aber extra auf 4096 Watt.
Ansonsten verlieren die am Ende noch Leistung und in 99,99% der Fälle ist ja so oder so jede AMD Cpu in jeder Disziplin haushoch überlegen und die bessere Wahl.
Niemand der Ahnung hat wird Intel extra ausbremsen, nur um Strom zu sparen.
Das wäre ein Paradoxon. Das macht doch niemand. Wozu?
Vor allem diese ominösen Mittelklasse-CPUS mit niedriger TDP, die von Haus aus sich selbst bei Last stark ausbremsen.
Jeder, der noch Intel die Stange hält, wird dazu gewzungen oder will mit absoluter Brechstange am Limit gerade so mit AMD mithalten können.
Ja, da muss man leider echt mit dem Kopf schütteln.
Man muss Nackenschläge dazu bekommen, wenn man mit Absicht einen 14900KS für extrem überteuert kauft, und dann stellt man im Bios mit voller Absicht maximal 253 Watt ein.
Was passiert?
Na ganz einfach.
Selbstkastrierung auf niedrige Taktraten.
Wer da noch denkt, dass man auch nur annähernd irgendwelche Leistungswerte halten kann, der irrt sich "Ultra" gewaltig!
Wenn die blöde Kiste 400 Watt will, aber nur 250 bekommt, dann geht der rote Daumen runter, ganz weit runter.
Nix 6,2Ghz, nix x Werte Allcore unter Last.
Mission Impossible.
Das Motto lautet: friss oder stirb.
Du kaufst Intel: gib ihm so viel Strom er haben will und kauf dir eine Wasserkühlung mit neuem Netzteil im 4stelligen Bereich.
Alle anderen kaufen immer AMD.
Zur Info: mein Stromanbieter hebt die Preise schon wieder: um satte 25%+! Bald durchbrechen wir wieder die 40cent-Mauer.
Und die absolut blöde Ausrede von wegen "ja, aber in Spielen saugt der doch weniger" stimmt zwar, aber trotzdem frisst das Vieh locker 3x so viel wie ein ordentlicher AMD Prozi.
Man kann es drehen und wenden wie man will, Intel Prozessoren sind derzeit ein absolutes No-Go.
Dave hat gezeigt, wei man mit AMD im Zweifelsfall auf 24W runter kommt.
Versuch das mal mit Intel.
 
Zuletzt bearbeitet:
Ja und doch habe ich einen Intel Treuen gefunden der für mich hat getestet.Entweder er hat selbst gedrosselt die CPU oder die CPU selbst hat es getrosselt,was davon zutrifft kann ich nicht sagen.
Ich habe auch den Vergleich zum 13900k und nicht nur zum 14900k.
Wärend der 13900k mit 350 Watt bei meiner Anwendung den Strom verballerte,E Kerne waren bei 4 ghz und die P Kerne bei 5,7 ghz Allcore Takt.
Beim 14900k waren es E kerne 4,3 ghz und P Kerne bei 5,1 ghz Allcore Takt.Der Stromverbrauch ging auf 315 Watt runter.Dabei habe ich nichts an meinem Worklaord oder dem verwendeten OS ala WIndows 11 geändert weil der User nix dran geändert hat,der ja beide CPUS in seinem PC hatte.

Hat auch sonst an seinen unterbau nix dran geändert und verwendet noch immer den Luftkühler von Noctua wie den ich selbst bei AM4 verwende.
Temperatur waren so bei 80 Grad.Also an einer Hitze Problem litt diese CPU nicht.
Und es wird spannend sein wie viel wohl die 6 - 6,2 ghz Allcore Takt an Leistung liefern würden.Ohne ne sehr starke Wasserkühlung wird man das wohl nicht schaffen.Die 80 Grad sind ja eh schon nicht ganz wenig.Bei so einer sehr starken Takt erhöhen,wird die 110 Grad wohl sehr schnell unter ner Luftkühung erreichen.Vielleicht kann man ja dann da drauf spiegeleier braten oder sogar kochen.
Aber cool ist das ja nicht.Spaß macht das auch nicht.Denn was will man damit nur.

Wobei das richtige Gehäuse habe ich dafür schon mal.Wenn man das richtig anstellst,dann kann man das sogar machen.Ich habe ein Gehäuse das wie ein Tisch aussieht.Da dann drüber ein paar Herdplatten Zeichen machen und schon kann das PC Kochen los gehen.

Muss nur genug Workload dem Pc geben.Genügend zum Umwandeln hätte ich.Und wenn es drauf an kommt,einfach gefühlt hundert tausend gleiche Aufnahmen umwandeln.Dann bleibt der Pc heiß und das Essen wird bald fertig sein.
 
Intel 400W mit KS Modellen jetzt.
Beim 15900K sind dann wahrscheinlich bereits 400W Standard.
Die Frage wird lauten wie viel verbraucht dann erst der 15900KS? (500W?)

Intel hat die Büchse der Pandora geöffnet es wird daher keinen Weg mehr zurück geben.
Sie werden voraussichtlich den langsamen Tod der mangelhaften Effizenz sterben und Zen5(3D) wird
sich wie eine Anakonda um den Hals von Arrow Lake legen und genüsslich ganz langsam zudrücken bis ihnen das Netzteil schmilzt. Es wird kein entrinnen geben.
Da können sie noch so viel Strom in die Leitung pressen es wird ihnen am Ende nichts nützen.
 
Sie werden voraussichtlich den langsamen Tod der mangelhaften Effizenz sterben und Zen5(3D) wird
sich wie eine Anakonda um den Hals von Arrow Lake legen und genüsslich ganz langsam zudrücken bis ihnen das Netzteil schmilzt. Es wird kein entrinnen geben.
Da können sie noch so viel Strom in die Leitung pressen es wird ihnen am Ende nichts nützen.
:klatsch:

Ja geil.

Hoffentlich zieht sich Intel komplett aus dem Desktop Bereich zurück.
Hoffentlich gibt es nur noch AMD - geil !

Wenn dann der 9800X3D, nicht mehr zur Markteinführung knapp 500 Taler kostet sondern 700.
Dann sind unsere Probleme nicht mehr Intels angeblich so hoher Stromverbrauch, sondern die hohen Preise AMDs.

Die Leute kaufen es schon, weil eine Alternative gibt´s schlicht nicht mehr.

Aber hey, wahrscheinlich hat Lisa die gute Fee einen so sozialen Daum und wird als alleiniger CPU Hersteller im Desktop Bereich dann sicher die CPU Preise nicht erhöhen :schief:
 
Naja es gibt auch bestimmt welche die sagen,Stromverbrauch egal,die Hardware muss Leistung bringen.Von nix kommt nix.Mein Bruder sagt mir lieber so als bei AMD.Lieber einen sparsamen Idle Stromverbrauch und dafür mehr Leistung bei Allcore,dafür das in Kauf nehmen als im Idle mehr Strom zu verbrauchen und dann im Last weniger zu verballern.
Tya wenn es meinen Bruder gehen würde,wäre wohl diese CPU ideal.Wobei das wohl eher rausgeworfenes Geld wäre.Warum sein Pc ist zu 80 % im Idle und nur manchmal braucht er mehr Last.
Genauso für solche User ist Intel wohl wirklich die bessere Wahl.Vielleicht dann den Menschen mit besseren Preisen noch entgegen kommen.Dann nehmen sie es einige User ab.
Für so ein teilweise Power User wie mir,wird das dann schon brenzlig.Denke mal bei 400 Watt und mehr,da nimmt man echt lieber den etwas höheren Idle Stromverbrauch in Kauf.

Naja mich lachen nur die Intel User aus,was 30-35 Watt verballert dein AMD CPU im Idle,wow das ist aber viel.Meiner verbraucht nur die häflte im idle.Wow die Stromrechnung wird ja dabei explodieren bei 20 Watt mehrverbrauch,da tut das einhaben des Pcs schon weh.

Na mal im ernst,das ist ja nicht die Welt.Machen im Jahr vielleicht 20 € mehr kosten aus,bei rund um die uhr das ganze Jahr durchgehend ein zu lassen.
Wohingegen unter last,bei mehreren Stunden ,wird man es hingegen schon merken.Mein Vater damals zu lebzeiten,da sprengt es ja den Stromzähler.Was ich denn so alles ein hätte.Dann sagte ich mein Pc und er so drauf,der ist schuld daran.
Als ich von Core i9 9980xe zu einem 16 Kern Ryzen gewechselt hatte,sagte er drauf als ich sagte hat mehr Leistung.Ja noch mehr Stromverbrauch,willst du das wir Arm werden,das kannst du doch nicht machen.Und nein mein Pc hat am Ende nicht mehr Strom verbraucht.Der i9 9980xe hat auch 140 Watt verbrauch gehabt.

Das mit heutigen Intel System kann man das ja nicht mehr vergleichen.Haben schon längt überrundet.
 
Hoffentlich zieht sich Intel komplett aus dem Desktop Bereich zurück.
Ich hoffe nicht das es nur noch AMD geben wird.
Aus den zu Asche verbrannten Überresten werden sich sicherlich wieder neue, hoffentlich würdigere Kontrahenten erheben und aufs neue versuchen mit AMD zu kontrahieren oder dieses sogar zu überflügeln.
Wenn wir Glück haben entstehen gar mehrere Kontrahenten die sich auf Augenhöhe befinden.
So leid es mir tut aber Intels ineffizienter Jurassic Park hat ausgedient.
 
Ich hoffe nicht das es nur noch AMD geben wird.
Aus den zu Asche verbrannten Überresten werden sich sicherlich wieder neue, hoffentlich würdigere Kontrahenten erheben und aufs neue versuchen mit AMD zu kontrahieren oder dieses sogar zu überflügeln.
Wenn wir Glück haben entstehen gar mehrere Kontrahenten die sich auf Augenhöhe befinden.
So leid es mir tut aber Intels Jurassic Park hat ausgedient.
Na sicher kommen auf einmal irgendwelche Buden da her mit so hochqualifizierten Ingenieuren die mal eben neue Desktop CPUs auf den Markt werfen :schief:

Guck dir bitte einmal die Geschichte der Prozessoren und dessen Hersteller an und dann rechne dir selber die Chancen aus das dein Szenario eintritt.

Wir haben im Desktop Bereich zwei! die solch ein Stück Silizium fertigen können.
Seit wie viel Jahren ? Jahrzehnten ?

Come on...

Wir sollten über die derzeitige Situation im Desktop Bereich eher (noch) froh sein, das es so ist, wie es ist.
Das es überhaupt zwei Buden gibt, die dem Verbraucher so dermaßen viele CPUs anbieten mit so vielen unterschiedlichen Anzahl an Kernen, Leistung, Verbrauch, Preisen dies das jenes...
 
Der 14900ks ist ein schöne Machbarkeit Studie, wie viel Watt kann man auf der Fläche noch ohne Kompressor wegkühlen kann.
Hochfrequenzkerne das ist so 2018(i9-9900k) das sind heute hochvolt kerne :devil:
 
Ich hoffe nicht das es nur noch AMD geben wird.
Aus den zu Asche verbrannten Überresten werden sich sicherlich wieder neue, hoffentlich würdigere Kontrahenten erheben und aufs neue versuchen mit AMD zu kontrahieren oder dieses sogar zu überflügeln.

Zur Entzerrung der Wahrnehmung lies' in der aktuellen PCGH 03/24er Print-Ausgabe im neuen CPU Index nach (insbesondere auch den Index für Anwendungen mit berücksichtigen).

Topic:
Die Brechstange wird in der Tat langsam langweilig, hier ist nun wirklich mal eine neue Architektur fällig. Die 400 Watt sind jedoch lediglich dramaturgisch wertvoll, in keinem Regelszenario werden diese konstant abgerufen. Schon alleine die Luft/AIO Standardkühlungen werden aufgrund ihrer thermischen Hilflosigkeit sofort einen Riegel vorschieben, die Cores throtteln schneller als die Kühlung reagieren kann und die Kiste taktet umgehend runter.

Zudem wird es bei CPUs ähnlich verlaufen, wie es bereits bei GPUs zu erkennen ist. Zusätzliche KI Cores werden immer mehr an Bedeutung gewinnen. Analog zu reinem Rasterizing bei den Grafikkarten werden GHz, klasssiche IPCs und Co. einen wesentlichen, aber nicht allein ausschlaggebenden Teilbereich darstellen. Insofern bleibt es spannend, was in den nächsten Generationen bei AMD und Intel passiert.
 
lol, und heute redete der Intel-Mann bei Lanz darüber, wie wichtig Energieeffizienz bei ihren Produkten sei :ugly:

Ich hoffe nicht das es nur noch AMD geben wird.
[...]

Ich auch nicht, aber AMD sollte endlich mal 50% Marktanteil erreichen, statt immer nur um die 20% herum zu dümpeln, und das trotz ihrer derzeit teils massiven technischen Überlegenheit.

Die Abgesänge auf das marktwirtschaftlich ungebrochen extrem dominante Intel sind so auf unglaublich vielen Ebenen einfach nur absurd grotesk.
 
Es scheint das Intel es nicht kann, begriffen hat. Den P4 hat man gegen die für mobile CPu´s entwickelte Architektur ausgetauscht und der Intel CORE war geboren. Darauf hat man sich lange ausgeruht.

Und jetzt erobert AMD alle wichtigen Segmente. Und Intel weiß nicht wie man kontern sollten, um die TDP Grenzen mit 16 Kernen nicht explodieren zu lassen, nahm man Atom Kerne und kombinierte sie mit den normalen Kernen.

Damit holte man sich die IPC Krone und konnte mit AMD im Multi gleichsetzten.

Jedoch zeigt es ganz deutlich, die haben nix in der Schublade.
 
lol, und heute redete der Intel-Mann bei Lanz darüber, wie wichtig Energieeffizienz bei ihren Produkten sei :ugly:



Ich auch nicht, aber AMD sollte endlich mal 50% Marktanteil erreichen, statt immer nur um die 20% herum zu dümpeln, und das trotz ihrer derzeit teils massiven technischen Überlegenheit.

Die Abgesänge auf das marktwirtschaftlich ungebrochen extrem dominante Intel sind so auf unglaublich vielen Ebenen einfach nur absurd grotesk.
Genau das scheint mir auch so. Hier im Forum mögen inzwischen ja viele AMD kaufen. Aber der Durchschnittskunde kennt wohl immer noch nur Intel und will einen PC oder Laptop mit Intel Logo haben. Das ist bitter für AMD, da hilft der aktuelle technische Vorsprung nichts. Da müsste AMD wohl mal richtig Geld für Marketing in die Hand nehmen, damit auch die breite Masse davon erfährt, dass es eine wirklich gute Alternative zu Intel-CPUs mit Namen AMD Ryzen gibt. Wobei das wirtschaftlich für Intel trotzdem langsam zu einem Problem wird, weil in Servern die CPUs nun mal viel unter hoher Last laufen, und die Server-Kunden wegen des hohen Stromverbrauchs zunehmend zu AMD wechseln. Und im Server-Markt ist nun mal ordentlich Umsatz zu holen.

Zum Thema Energieeffizienz der CPUs muss man fairerweise aber auch mal sagen, dass so eine CPU beim normalen Desktop- oder Laptopkunden nicht gerade immer mit hoher Last läuft. Und klar, unter hoher Last sind die AMDs den Intet aktuell beim Stromverbrauch haushoch überlegen. Aber im Leerlauf verbraucht mein AMD im Vergleich zum Intel vermutlich deutlich mehr Strom: Für den Ryzen 7800X3D zeigt HWinfo im Leerlauf mind. 22 Watt als CPU-Gesamtleistungsaufnahme an (ich habe es nachgeschaut, in Ryzen Master wird auch nicht weniger angezeigt, es liegt also wohl nicht einfach nur am Überwachungstool), bei meinem i7-8700k waren das nur ca. 8 Watt. Wenn ich dann schaue, wieviel Zeit ich mit dem PC tatsächlich spiele und die CPU eine hohe Last hat und wie viel Zeit ich nur E-Mails lese, im Internet surfe oder etwas streame etc., dann kommt meine CPU sicher auf viel mehr Zeit im "Leerlauf" als auf in hoher Last. Von daher bin ich mir noch nicht einmal so sicher, ob mein PC mit dem Ryzen gegenüber sagen wir mal einem PC mit einem 13600k unter dem Strich mehr oder weniger Strom verbraucht. Ich kann da nur spekulieren, weil für die CPUs fast nirgends Vergleichszahlen für den Leerlaufverbrauch methodisch gemessen und angegeben werden. Aber wenn ich nach den Mainboardstests hier bei PCGH gehe, dann säuft mein AMD System im Leerlauf tatsächlich ca. 20 Watt mehr als ein vergleichbares Intel-System. Und das muss man dann erstmal beim Spielen wieder rausholen. Und auch beim Spielen liegt die CPU-Last ja nicht bei 100%. Da reden wir also wohl auch eher von ca. 50 Watt bei meinem AMD gegen ca. 100 Watt Verbrauch bei einem 13600k. Und das wäre jetzt auch nicht so wild. Immerhin kann ich so auf jeden Fall meine CPU günstiger bzw. leiser kühlen, als wenn ich ein Intel System hätte.
 
Zuletzt bearbeitet:
Ach so weit weg ist AMD da auch gar nicht gewesen, wenn man schon von "Brechstangen" als Argument redet.
Anhang anzeigen 1452262
Und dann muss man da aber auch etwas tiefer in der Materie sein um solche einfachen Aussagen zu treffen, wie deine.
So einfach ist es nicht.
Da ich nicht so viel Blender spiele, egal.
---------------
Topic: wozu? Für die CPU-Lotterie oder für Raff, zum Ausschließen des CPU-Limits, sicher ok.
 
Zurück