Alder Lake: Die ersten Preise sortieren sich für Vorbesteller

Es sind noch nichtmal verlässliche Tests von Alderlake (die grobe Richtung steht jedoch wohl schon fast) draußen, geschweige denn von Zen3+, aber die AMD Fans und Fanboys wissen es natürlich alles schon

Keiner weiß, was Zen3+ genau bringen wird, es kann auch durchaus sein, dass der zusätzliche Cache mit ein paar hundert MHz erkauft wird. Aber so wie es heute aussieht, dürfte, gemäß aller Milchmädchenrechnungen, der i9 12900K auch einen R9 6900X schlagen.

Aber erstmal darf man sich auf das Gemecker, dass PCGH keine Anwendungen mit einbezieht, freuen. (das hat dem R9 5959X damals den Sieg gegen i9 11900K gekostet)
Das ist so genial wie du dich im ersten Satz beschwerst, das es noch keine Alderlake Tests gibt und im übernächsten Satz bist du dir sicher das Intel schon die nächste Generation von AMD schlagen wird. :lol:Mehr Fanboi und Glaskugelwissen geht einfach nicht! :daumen::daumen: Kannst du mir die Lottozahlen der nächsten Woche schicken ? Bitte als PM :hail::hail:
 
Ich will demnächst meinen fast 8 Jahre alten Rechner aufrüsten (4770k, 16GB DDR3). Mein Budget liegt bei etwa 600 bis max 700€. Derzeit tendiere ich zu einem 11700k + Z590 + 32GB DDR4 Ram. eigentlich wollte ich ja nicht wieder kurz vor der nächsten Generation auf die alte Ram Generation setzen, aber bei den Preisen, muss ich dann doch ein paar Kompromisse machen. Aber ich warte noch die Tests ab, obs ein 12600k auch machen würde. Ich rechne aber damit dass die letzte Generation dann jetzt bei ebay gebraucht günstig zu bekommen ist, wenn es einige Leute gibt, die Umsteigen und ihnre "alten" sachen loswerden wollen.
Warum so ein sündhaft teures Z590?
Ein B560 gibt es bereits für unter 100 EUR und OC ist bei den Intelchips ohnehin eher schwieriger, da sie bereits recht nah an der berüchtigten Kotzgrenze arbeiten, RAM OC ist ohnehin kaum sinnvoll (Gear 1) und die reine Anhebung des Powerlimits beherrscht es auch. Persönlich sehe ich kaum nutzbare Vorteile beim Z590.
AMD Alternative gefällig?
5800X, B550 und 32GB DDR4 3600 CL16 (ca. 600 EUR)

Tun sich beide nichts, der 11700k ist etwas ineffizienter was in Games kaum merkbar sein dürfte (vieleicht 10W Unterschied), abseits des Gaming aber eher interessant wird. Vorteil AMD, man kann die Plattform noch mal in der Leistung verdoppeln, Intels Plattform ist nahezu ausgereizt.

Dir ist aber bekannt, dass es sich hier um eine Begrenzung handelt, bedeutet... dein 5600X könnte auch mehr Watt ziehen, wenn es im Bios (z.B. PBO) zugelassen wird. Du kannst daher im Bios mit dem 12600K genauso 65 Watt einstellen und dann fangen beide Prozessoren an sich herunter zu takten, damit diese Leistung nicht überschritten wird.
???
Dir ist aber auch bewusst, dass die CPU dann an Leistung verliert? Der Autor war der Meinung, dass 12600k und 5600X sich battlen, darüber kann man aktuell nur mutmaßen. Wenn dem aber so sein würde, wäre der 12600k die schlechtere CPU, weil sie für die gleiche Leistung die doppelte Leistungsaufnahme benötigt. Erstmal ist interessant was die Dinger @Stock bringen und brauchen. Optimierungen kommen erst an zweiter Stelle, da sie immer noch ein Eingriff in die Garantie sind.

enn z.B. mit meinen 5 GHz auf alle Kerne habe ich auch kein Limit gesetzt, trotzdem erreicht mein Prozessor selten eine Leistungsaufnahme über 100 Watt
???
Du brauchst in Games bis zu 95W und kommst selten über 100W? Mit 5Ghz AllCore braucht deine CPU selbst in Games deutlich mehr als 100W. Selbst @4,7Ghz liegt die CPU bereits über 100W Spielelast!


Schau nur mal den Abstand zwischen i3 8100 und 9900k, da liegen bereits über 80W dazwischen, da der 8100 wohl auch ein paar Watt braucht, sieht man schon, dass hier 100W locker verbraucht werden. Mit 5Ghz All Core musst du auch schon ziemlich dicht an der Kotzgrenze liegen und ordentlich OCed haben.
 
Dir ist aber auch bewusst, dass die CPU dann an Leistung verliert?
Ab einem bestimmten Punkt wird die Leistungsaufnahme relativ zur erreichten Leistung zu hoch ausfallen und in einem Game wirst du NICHT die doppelte Leistung erreichen! Es macht immer ein Unterschied ob ich 100 Watt mehr verbraten muss, weil ich 50 Punkte mehr in einem Benchmark erreichen möchte oder wenn ich stink normale Anwendungen, wie beispielsweise Games nutze.

Du brauchst in Games bis zu 95W und kommst selten über 100W? Mit 5Ghz AllCore braucht deine CPU selbst in Games deutlich mehr als 100W. Selbst @4,7Ghz liegt die CPU bereits über 100W Spielelast!
ja...? Komisch bei mir nicht...

K1600_Ashampoo_Snap_Montag, 27. September 2021_11h11m54s_002_.JPG K1600_Ashampoo_Snap_Dienstag, 21. September 2021_18h56m54s_001_.JPG K1600_Cyberpunk2077_2021_07_29_23_07_29_191.JPG K1600_ModernWarfare_2021_07_29_20_21_14_131.JPG K1600_Ashampoo_Snap_Donnerstag, 29. Juli 2021_19h12m03s_001_.JPG K1600_Ashampoo_Snap_Dienstag, 27. Juli 2021_20h40m18s_003_.JPG K1600_Ashampoo_Snap_Mittwoch, 14. Juli 2021_19h58m33s_004_.JPG K1600_Ashampoo_Snap_Montag, 21. Juni 2021_16h39m00s_002_.JPG K1600_Cyberpunk2077_2021_01_06_15_04_42_217.JPG

Natürlich spiele ich auch im GPU-Limit und lasse mein System nicht nur mit 720P laufen, daher wird auch meine Grafikkarte ans Limit laufen und nicht mein Prozessor. Klar erreiche ich auch mal mehr als 100 Watt, aber meist nur im CPU-Limit oder nur kurzfristig je nach Game.

Mit den oberen Bilder sind auch Games enthalten, die einiges an Leistung ziehen, denn andere Spiele wie Overwatch als Beispiel erreichen eine geringere Leistungsaufnahme. Aber hier werden auch nicht alle Kerne voll ausgelastet.

Ashampoo_Snap_Dienstag, 2. November 2021_13h28m06s_001_.png Ashampoo_Snap_Dienstag, 2. November 2021_13h30m14s_002_.png
 
Zuletzt bearbeitet von einem Moderator:
???
Du brauchst in Games bis zu 95W und kommst selten über 100W? Mit 5Ghz AllCore braucht deine CPU selbst in Games deutlich mehr als 100W. Selbst @4,7Ghz liegt die CPU bereits über 100W Spielelast!


Schau nur mal den Abstand zwischen i3 8100 und 9900k, da liegen bereits über 80W dazwischen, da der 8100 wohl auch ein paar Watt braucht, sieht man schon, dass hier 100W locker verbraucht werden. Mit 5Ghz All Core musst du auch schon ziemlich dicht an der Kotzgrenze liegen und ordentlich OCed haben.
Das Diagramm ist Mist. Dort wird der Gesamtverbrauch angezeigt und da der 9900K auch deutlich mehr fps auf die Straße bringt steigt auch der Verbrauch der Grafikkarte und das spielt dann in den Gesamtverbrauch rein ;)
 
@Icarus

Wenn du meinst! Ich hab zwar tatsächlich keinen 9900k verbaut, aber 9700k, 9900ks, und viele Intels vorher und nachher (keine Sorge, kaum ein System ist wirklich meines). 5Ghz beim 9900k sind schon ziemlich viel und weit jenseits des Sweetspots, das es da mal Momente geben wird, wo 100W unterschritten werden, bezweifel ich gar nicht, aber die 100W werden auch nicht selten überschritten werden, nicht mit den Voltages und der Taktrate.
Ansonsten lass uns das Thema begraben, führt hier zu nichts (ich kann jetzt auch Screens schicken, wie mein 5900X @ 5Ghz auf dem Screen 100W anzeigt) und ist nicht Gegenstand der Diskussion.

Fakt ist, selbst der 9900k hat einen PL2 von nur 118W, damit liegt der 12900k 100% über der Angabe. Dazu kommt, dass PL2 beim 9900k nur 26 Sekunden bekommt, danach fällt er auf 95W zurück. Der 12900k haut die 241W konstant (so lange Temps passen) in den Jordan.

Ab einem bestimmten Punkt wird die Leistungsaufnahme relativ zur erreichten Leistung zu hoch ausfallen und in einem Game wirst du NICHT die doppelte Leistung erreichen! Es macht immer ein Unterschied ob ich 100 Watt mehr verbraten muss, weil ich 50 Punkte mehr in einem Benchmark erreichen möchte oder wenn ich stink normale Anwendungen, wie beispielsweise Games nutze.
Aber du kannst doch jetzt nicht beliebig hingehen und alle möglichen Szenarien theoretisieren um den 12900k gut dastehen zu lassen. Setzt du den 12900k auf 95W, dann wird er nochmals massiv an Leistung verlieren, setzt du den 5900X auf 65W verliert er auch Leistung. Das Thema Effizienz ist ein anderes, das hast du meine ich sagen wollen. Dazu gibt es aber derzeit niemanden (außer dem ein oder andere ignorierten Hardcoreintelfan vieleicht) der sagt und beauptet, dass Alder Lake effizienter ist.

Ich bleibe dabei, ich bin extrems gespannt auf die Tests zu der Reihe. PCGH wird zu allererst im Stock testen, was ich grds. gut finde, da wird meines Erachtens nach die Leistung passen, aber es wurde ja schon angedeutet, dass es gar nicht so leicht war, den Hitzkopf kühl zu halten. Bedeutet für mich, die Gamingleistung wird mehr als passen, die Anwendungsleistung wird passen, die Effizienz wird zu wünschen übrig lassen, die Wärmeentwicklung ebenfalls. Bedeutet nachwievor nicht, dass es kein schlechter Chip ist, aber ein guter muss es eben auch nicht sein. Für mich ist irgendwie die Täuschung des Verbrauchers maßgeblich, man schreibt eine TDP von 125W aufs Papier und in Wirklichkeit liegen konstant 241W TDP Korsett an? Weiß nicht ob es bei einer so erheblichen Differenzierung nichtmal Probleme geben kann, juristischer Art. Aber empfinde schon die PL1/PL2 oder auch bei AMD die Verschiebung als Quatsch und Verdoofung der Menschen, aber aktuell schießt Intel mit über 100% Differenz und keiner zeitlichen Begrenzung dem ganzen nochmal die Krone auf.

P.S.
Es macht ja schon Sinn, dass die Hersteller keine Kühler mehr mitliefern, ob nun Tray oder Boxed. Die kleinen Dinger würden ja vom Chip gebraten werden und vermutlich innerhalb kürzester Zeit vollflächlig verschmelzen.
Das Diagramm ist Mist. Dort wird der Gesamtverbrauch angezeigt und da der 9900K auch deutlich mehr fps auf die Straße bringt steigt auch der Verbrauch der Grafikkarte und das spielt dann in den Gesamtverbrauch rein ;)
macht Sinn, der Einwand.
 
Es macht ja schon Sinn, dass die Hersteller keine Kühler mehr mitliefern, ob nun Tray oder Boxed. Die kleinen Dinger würden ja vom Chip gebraten werden und vermutlich innerhalb kürzester Zeit vollflächlig verschmelzen.
Habe mal meinen 9900K in einem offenem Test Aufbau nur mit einem Boxed Kühler eines 4790K betrieben und da ist nichts verschmolzen, weil je nach Last, sobald 100°C erreicht wurden der Prozessor einfach angefangen hat herunter zu takten. Habe damals sogar ein Stresstest von Intel durchlaufen lassen. Prozessor lief aber im Testbetrieb mit Stock... zumindest was MSI dabei als Stock ansieht. :D

IMG_20210218_162407-2.jpg
 
Zuletzt bearbeitet von einem Moderator:
Habe mal meinen 9900K in einem offenem Test Aufbau nur mit einem Boxed Kühler eines 4790K betrieben und da ist nichts verschmolzen, weil je nach Last, sobald 100°C erreicht wurden der Prozessor einfach angefangen hat herunter zu takten. Habe damals sogar ein Stresstest von Intel durchlaufen lassen. Prozessor lief aber im Testbetrieb mit Stock... zumindest was MSI dabei als Stock ansieht. :D

Anhang anzeigen 1378563

Das habe ich auch nirgendwo behauptet.
Wie lang war der Balken im Benchmark noch? Wird doch schon deutlichst an Leistung eingebüßt haben, oder? Gerade MSI hat doch glaube ich 200W pauschal in PL1, 2 und was weiß ich nicht angegeben, oder?
 
Darum ging es damals auch gar nicht. Test ist aber dennoch durchgelaufen. Auch wenn ab und zu bezüglich des Temperaturlimt der Takt runter ging.

Hatte mein System umgebaut und ich dachte mein 9900K wäre defekt. Da ich hierzu Intel angeschrieben hatte, habe ich einen Testlauf durchlaufen lassen müssen, da ich hierzu einige Daten einreichen sollte. Habe eine custom Wakü verbaut und das war damals der einzige Kühler was ich da hatte, was ich für diesen Testaufbau verwenden konnte.

Am Ende hat sich mit diesem Testaufbau herausgestellt, dass der Prozessor gar nicht defekt war.
 
Zuletzt bearbeitet von einem Moderator:
Das ist so genial wie du dich im ersten Satz beschwerst, das es noch keine Alderlake Tests gibt und im übernächsten Satz bist du dir sicher das Intel schon die nächste Generation von AMD schlagen wird. :lol:Mehr Fanboi und Glaskugelwissen geht einfach nicht! :daumen::daumen: Kannst du mir die Lottozahlen der nächsten Woche schicken ? Bitte als PM :hail::hail:

Ich habe es doch extra mit "so wie es heute aussieht" und "Milchmädchenrechnung" gekennzeichnet. Eigentlich sollte jedem klar sein, dass das die bisherigen Spekulationen, bzw. die Aussagen von AMD (+15% IPC) und die momentan verfügbaren Benchmarks von Alderlake sind.

Wie soll ich es sonst noch als kennzeichnen, damit auch du es verstehst?

Sandworm hat es hingen als Tatsache hingestellt.

PS: wie schonmal gesagt, ich bin eigentlich AMD Sympathisant.
 
Darum ging es damals auch gar nicht. Test ist aber dennoch durchgelaufen. Auch wenn ab und zu bezüglich des Temperaturlimt der Takt runter ging.

Hatte mein System umgebaut und ich dachte mein 9900K wäre defekt. Da ich hierzu Intel angeschrieben hatte, habe ich einen Testlauf durchlaufen lassen müssen, da ich hierzu einige Daten einreichen sollte. Habe eine custom Wakü verbaut und das war damals der einzige Kühler was ich da hatte, was ich für diesen Testaufbau verwenden konnte.

Am Ende hat sich mit diesem Testaufbau herausgestellt, dass der Prozessor gar nicht defekt war.
Schade, mich hätte es einfach nur interessiert, nicht um irgendetwas daraus zu schließen. Wäre einfach mal spannend gewesen, wie leistungsfähig so ein Kühler ist, viel mehr als 100W würde er wohl nur kurzfristig puffern können, aber für PL2 hätte es sicher gereicht ;-)
 
Kann ich dir auch gar nicht mehr sagen, weil ich gar nicht darauf geachtet habe. Sollte nur diesen Test durchlaufen lassen, damit eine bestimmte Datei erstellt wird, weil Intel diese Datei haben wollte. Der Test lief auch im Schnitt im 90°C Bereich, nur gelegentlich kam der Prozessor auf 100°C. Der Kühler war halt dazu etwas unterdimensioniert.

Das MSI Board hielt sich auch bis auf das TDP an die Intel Spezifikation.
Also mit Last 4,7 GHz und ansonsten mit dem Turbo Boost bis 5 GHz. Nur die 95 Watt wurden nicht gehalten, das Board hat hier alles an Watt gezogen.

Mein System war damals mit einer Wakü mit einem 10850K Prozessor aufgebaut, daher hatte ich kein anderen Kühler zum austesten da. Da der Prozessor doch kein Defekt hatte, habe ich den Prozessor wieder bei mir verbaut. Da ich mit diesem Glück habe und 5 GHz auf alle Kerne mit nur 1,200v Lastspannung läuft und ich mit dem 10850K nicht ganz zufrieden war.

Damals ging es darum, weil ich das Mainboard nach einem Defekt austauschen musste und der Prozessor danach nicht mehr mit allen vier Arbeitsspeicher lief, was wohl am Ende an einem zu fest gezogenem Kühler lag. Denn in diesem Testlauf liefen alle 4 Speicher sogar mit 4000 MHz. Das MSI Board läuft zusammen mit einem i7 9700K im System meiner Tochter. Mit ihrem Alpenföhn K2 Kühler läuft er auch Temperaturmäßig problemlos.

Was den 12900K angeht, interessieren mich aktuelle Tests, sobald der Prozessor erscheint.
Am Ende werde ich ehe nicht umrüsten, weil ich mit meinem 9900K noch gut auskomme.
 
Zuletzt bearbeitet von einem Moderator:
Und deshalb sind die Chips für mich persönlich auch eine Enttäuschung.
Warum urteilst du schon bevor verlässliche Tests und Messungen veröffentlicht sind?
Vorteil AMD, man kann die Plattform noch mal in der Leistung verdoppeln, Intels Plattform ist nahezu ausgereizt.
Welche AMD CPU verdoppelt die Leistung eines 5800x? Ich halte das für eine Falschaussage.
Erstmal ist interessant was die Dinger @Stock bringen und brauchen. Optimierungen kommen erst an zweiter Stelle, da sie immer noch ein Eingriff in die Garantie sind.
Die Begrenzung der Leistungsaufnahme im BIOS hat keinerlei Auswirkung auf die Garantie einer Intel Alder Lake CPU, auch das ist eine Falschaussage.
 
Zuletzt bearbeitet:
Der 12900k haut die 241W konstant (so lange Temps passen) in den Jordan.
Simples vereinfachtes Beispiel, nach Ende der Berechnung und bis zum Start der nächsten verbrauchen System A (Alder Lake) 30 Watt Idle und System B (Zen 3) 56 Watt Idle. Die nächste relevante Belastung erfolgt nach 30 Sekunden.

-System A verbrät 300 Watt, CPU (12900K) benötigt 241 Watt um die Berechnung in 10 Sekunden zu vollziehen
-System B verbrät 200 Watt , CPU (5900x) benötigt 142 Watt um die Berechnung in 12,5 Sekunden zu vollziehen

System A ist effizienter, obwohl i9 12900K 71% mehr Strom während der Berechnung aus der Dose zieht.
Die CPU leistet etwa 25% mehr, kann die Berechnung schneller ausführen und das System profitiert während eines Leerlaufes von einem niedrigeren Idle Verbrauch.

System A: 300W * 10S + 2,5S* 30W + 30W* 30S = 3975 Wattsekunden (Joule)
System B: 200W* 12,5S + 27,5S* 56W = 4040 Wattsekunden (Joule)
 
Warum so ein sündhaft teures Z590?
Ein B560 gibt es bereits für unter 100 EUR und OC ist bei den Intelchips ohnehin eher schwieriger, da sie bereits recht nah an der berüchtigten Kotzgrenze arbeiten, RAM OC ist ohnehin kaum sinnvoll (Gear 1) und die reine Anhebung des Powerlimits beherrscht es auch. Persönlich sehe ich kaum nutzbare Vorteile beim Z590.
AMD Alternative gefällig?
5800X, B550 und 32GB DDR4 3600 CL16 (ca. 600 EUR)

Wenn ich meine Anforderungen an das MB in die Filter bei Geizhalts und co eingebe, kommen halt nur Z590 Boards, aber ich hab mir mal ein 60€ günstigeres B560 rausgesucht, dass es wohl auch machen würde. Auf jeden Fall eine Option, wenn ich noch etwas günstiger wegkommen will. Hat halt weniger Anschlüsse, aber sollte auch so gehen.
Als erstes versuche ich jetzt eine CPU bei ebay zu ersteigern.
der 5800X geht gebraucht kaum günstiger weg als neu und ist daher deutlich teurer als der i7 11700k bzw 11700KF, beim 11700KF wurde ich gestern nur knapp überboten und er ging für ca 260€ weg. der 5800X geht selten für unter 330€ weg.
Alternativ hatte ich versucht einen 10850k zu ersteigern, der ging für ca 280€ weg, aber im Grunde habe ich mich jetzt eh auf den 11700K/KF eingeschossen.
Das Mainboard werde ich auf jeden Fall neu kaufen, beim RAM muss ich mal sehen. Wenn alles klappt wäre ich dann ja noch weit unter meinem Budget (ca 450€ von 600€) und könnte mir direkt eine m.2 SSD dazu holen.
 
Was natürlich auch sehr oft passiert, wenn man die Graka mit stock-settings betreibt...NICHT. Das ist so unwahrscheinlich, dass diese Aussage für mich 0 zieht. Das würde vllt. bei Bürorechnern mit dedizierter Grafik ziehen, aber da wird die Graka wohl am seltensten abrauchen.

Wer mehrere Monitore betreibt kann die IGPU nützlich finden. Damals hatte mir der zweite Monitor ein paar FPS geklaut. Nur 1 Monitor (fürs Gaming) an der Grafikkarte und die restlichen Monitore über die IGPU bringt da als ein kleinen FPS Vorteil. Dürfte aber nur bei 4K Gaming relevant sein wo man selbst noch +1-2 FPS gebrauchen kann^^
 
Welche AMD CPU verdoppelt die Leistung eines 5800x? Ich halte das für eine Falschaussage.
5950X

Die Begrenzung der Leistungsaufnahme im BIOS hat keinerlei Auswirkung auf die Garantie einer Intel Alder Lake CPU, auch das ist eine Falschaussage.
Meines Wissens nach erlischt streng genommen die Garantie, da die CPU außerhalb der Spezifikationen betrieben wird. Einziger Punkt, der Nachweis wird nie geführt werden können und durch Senkung der Stromaufnahme wird man wohl kaum irreparable Schäden verursachen. Mehr als ein Neustart wegen zu niedriger Spannung wäre mir noch nie untergekommen.
System A ist effizienter, obwohl i9 12900K 71% mehr Strom während der Berechnung aus der Dose zieht.
Die CPU leistet etwa 25% mehr, kann die Berechnung schneller ausführen und das System profitiert während eines Leerlaufes von einem niedrigeren Idle Verbrauch.
Nö, komplett sinnlose Berechnung.

Es geht darum wie effektiv die Aufgabe abgearbeitet wird, da stehen 2500 Wattsekunden bei AMD, derer 3000 Wattsekunden von Intel gegenüber, zumindest in deinem Beispiel. Den Leerlauf mit reinzunehmen macht taktisch gar keinen Sinn, da man nicht einmal bei AMD einen sicheren Verbrauch hat, denn 56W verbraucht meiner ganz sicher nicht im Leerlauf, in Games komme ich knapp dran.
 
Simples vereinfachtes Beispiel, nach Ende der Berechnung und bis zum Start der nächsten verbrauchen System A (Alder Lake) 30 Watt Idle und System B (Zen 3) 56 Watt Idle. Die nächste relevante Belastung erfolgt nach 30 Sekunden.

-System A verbrät 300 Watt, CPU (12900K) benötigt 241 Watt um die Berechnung in 10 Sekunden zu vollziehen
-System B verbrät 200 Watt , CPU (5900x) benötigt 142 Watt um die Berechnung in 12,5 Sekunden zu vollziehen

System A ist effizienter, obwohl i9 12900K 71% mehr Strom während der Berechnung aus der Dose zieht.
Die CPU leistet etwa 25% mehr, kann die Berechnung schneller ausführen und das System profitiert während eines Leerlaufes von einem niedrigeren Idle Verbrauch.

System A: 300W * 10S + 2,5S* 30W + 30W* 30S = 3975 Wattsekunden (Joule)
System B: 200W* 12,5S + 27,5S* 56W = 4040 Wattsekunden (Joule)
Die Rechnung ist aber arg konstruiert. Sobald die Last länger anliegt verlierst du.
An sich ist es auch relativ mit den Stromverbräuchen. Man braucht nur mal rechnen was ein Mitarbeiter bspw. kostet wenn er auf Rechenergebnisse wartet. Da muss der Stromverbrauch vermutlich Faktor 100x höher sein damit du anfängst darüber nachzudenken.
Meines Wissens nach erlischt streng genommen die Garantie, da die CPU außerhalb der Spezifikationen betrieben wird. Einziger Punkt, der Nachweis wird nie geführt werden können und durch Senkung der Stromaufnahme wird man wohl kaum irreparable Schäden verursachen. Mehr als ein Neustart wegen zu niedriger Spannung wäre mir noch nie untergekommen.
Sowohl Intel als auch AMD erlischt die Garantie bei OC. Für Intel ist auch XMP OC. Ich meine LTT hatte dazu mal ein Video wo die das getestet und teilweise wirklich Probleme bekommen haben, aber eben vom Mitarbeiter abhängig.
Unter normalen Bedingungen ist sowas aber nicht nachweisbar und wenn man sich dummstellt passiert auch nichts.
 
Zurück