Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K

Bluebird

Software-Overclocker(in)
Seitdem die tollen Alder Lake CPUs getestet
Wenn ich mir Spiele Benchmarks ansehe, ist der Trend klar.
Man braucht 10-12 Kern CPU bzw 8P+4E CPUs und diese müssten 6GHz oder mehr haben, damit man richtig Performance bei Spielen hat.
Wenn ich z.b. Battlefield 2042 zocke, dann sind 4 Threads von 3 Kernen mit Hintergrundprogrammen beschäftigt (hier wäre 4E Kerne gut) und 10 Threads von 8 Kernen sind mit dem Spiel beschäftigt (ja BF nutzt bei mir bei 6 Kernen nur je 1 Thread ). Knapp 6 Kerne laufen leer (oder gar 18/32 Threads).
Siehe hier: Anhang anzeigen 1380170
Fun Fakt...wenn man die 2 Kerne anguckt die mit je 2 Threads laufen, dann sieht man das die Kurven wie 2 Teile eines Puzzles genau ineinanderpassen, wenn man einen davon umdreht... was AUCH komisch ist XD...

Edit: Kann auch sein, das BF 2042 nicht mit 2 CCXs zurechtkommt... da BF nur CCX0 also den ersten nutzt.
Mein 5950X läuft übrigends mit 1.1V bei 4.2Ghz allCore, Powerlimit wird nicht errreicht.
E Cores halte ich immer noch für Intel Propaganda ...
in denn Leistungsbereichen wo man sich im Desktop PC bewegt , sind auch Stink Normale Kerne sehr Effizient !
AMD nutzt jetzt stink Normale Ryzen Kerne in seinen Strom Spar SoCs, wo vorher optimierte Kerne verwendet wurden ... Grund der Unterschied ist Banane !
Bei einem ARM in einem Smartphone ist die Lage eine andere , die Stromspar Kerne treten da in denn Vordergrund wenn das Smartphone nicht benutzt wird, aber trotzdem im Hintergrund aufgaben erfüllt werden müssen ...
Wo sind denn die Alder Lake Tests wo ein Idle Verbrauch getestet wird, ich meine dazu sollten die E Cores doch am besten taugen ?!
Problem wird hier aber sein das die Boards nicht Sparsamer sein können als die 40-50 Watt die man jetzt aktuell im Schnitt hat, hochgezüchtete Gamer Boards sowieso :)
Der einzige Grund für E Cores ist meiner Meinung nach das man viele davon auf wenig DIE Fläche bekommt, nutzen aber Puste Kuchen .
 

Freiheraus

BIOS-Overclocker(in)
Nenne bitte die Boards! Ich kenne nicht ein Board was automatisch PBO aktiviert. Selbst mein Aorus Master hält sich an die AMD vorgaben out of the Box!
Richtig. Ich hatte bereits über 20 AM4-Boards in den Händen, kein einzige hat per Default die Vorgaben (max. 142 Watt) umgangen. Nur Igors MSI Board macht automatisch bei AM4/Zen 3 alle Limits auf... Humbug, dort wurden manuell die Drosseln geöffnet und Zen3 praktisch bewusst in die Ineffizienz getrieben. Es gab sogar eine Ankündigung in einem Vorgängerartikel, dass alle CPUs ohne Limits getestet werden.

Seine MSI Z690 Wunderboards für Alder Lake wählen auf der anderen Seite die Vcore/SVID so ausgeklügelt inkl. Vdroops, das es einem (Werks)Undervolting gleichkommt.
Ich kann diese Einstellungen bei meinem ASUS Z690 mit 12600K, denn ich momentan durchteste, auch (manuell) wählen, mit dem Ergebnis dass die CPU nur 0,030V vom Absturz unter Volllast entfernt ist, statt üblicherweise 0,100V. Sicherheitsreserve? Klingt nach Fremdwort! So würde ich ein Produktivsystem jedenfalls nicht betreiben wollen.

Ziemlich unseriös und eigentlich schon auf billigster Weise durchsichtig Hersteller A forciert ausserhalb der Spezifikation zu betreiben und Hersteller Bs Top-Modell zusätzlich im 125W Korsett/Sweetspot mitlaufen zu lassen. Dieser Unsinn wird auch noch quer durch die Foren verbreitet und nachgeplappert. Wenn man darauf hinweisst, wird man in den Kommentaren zugemühlt von Leuten die nicht den Schimmer einer Ahnung von der tieferen Materie haben und oft völlig am Thema oder springenden Punkt vorbeiargumentieren. Mit dem Nonsens verplempere ich aber keine Zeit.
 

IICARUS

Kokü-Junkie (m/w)
Wo sind denn die Alder Lake Tests wo ein Idle Verbrauch getestet wird, ich meine dazu sollten die E Cores doch am besten taugen ?! Problem wird hier aber sein das die Boards nicht Sparsamer sein können als die 40-50 Watt die man jetzt aktuell im Schnitt hat,
Mir ist da vom Alder Lake was von 6 Watt bekannt.
Mit meinem 9900K erreiche ich je nach Energiesparplan bereits zwischen 8 und 15 Watt.

Ashampoo_Snap_Donnerstag, 25. November 2021_23h14m16s_005_.png

Um auf 30-40 Watt zu kommen, mussten wir mit dem 3900X meines Sohnes sogar ein Energiesparplan aus dem ComputerBase Forum einrichten, was dort dazu bereitgestellt wurde. Denn mit dem Energiesparplan von AMD Chipsatz oder Windows sind wir nicht unter 60-70 Watt mit Idle gekommen. Zumindest was ich dazu letztens kurz auf seinem Rechner dazu sehen konnte.
 
Zuletzt bearbeitet:

Bluebird

Software-Overclocker(in)
Mir ist da vom Alder Lake was von 6 Watt bekannt.
Mit meinem 9900K erreiche ich je nach Energiesparplan bereits zwischen 8 und 15 Watt.

Anhang anzeigen 1380238

Um auf 30-40 Watt zu kommen, mussten wir mit dem 3900X meines Sohnes sogar ein Energiesparplan aus dem ComputerBase Forum einrichten, was dort dazu bereitgestellt wurde. Denn mit dem Energiesparplan von AMD Chipsatz oder Windows sind wir nicht unter 60-70 Watt mit Idle gekommen. Zumindest was ich dazu letztens kurz auf seinem Rechner dazu sehen konnte.
Sorry wenn ich Idle Sage meine ich Strommessgerät und am Komplett System ...
schade das man in der Richtung kaum noch daten bekommt .
Wenn man aber wie ich nur 10 mbit Inet hat, läuft die Kiste bei einem Spiele Download Stunden und Tage lang und da ist da jedes Watt interessant :)
 

Prozessorarchitektur

Lötkolbengott/-göttin
natürlich verstehe ich das man 720p nehmen sollte um ein gpu limit auszuschließen das wäre bei ner gpu wie einer rtx3060 sinnvoll aber die rtx3090 ist doppelt bis 2,5fach schneller
Es kommt auf die spiele an
das ist nicht einfach da teils kaum spiele gibt bis auf ältere die primär cpu gebunden sind und wenn dann sind es oft Strategie oder simulatoren wo die fps sowieso egal sind.
Oder die fps so hoch das es kein unterschied macht
Ein Kompromiss wäre max settings in HD 720p ohne kantenglättung
Die spiel die heute erschiene sind auf 1080p-.1440p hin designt und zukünftig variable Auflösung hin
Was 720p bis 4k bedeuten würde.
Die meiste werden wohl eher 900p bis 1440p variable funktionieren.
Die technik dahinter kann man schon heute testen in der UE5
ich bin mir ziemlich sicher das später die gpu Erkennung entscheiden wird wieviel detail sichtbar sein werden.
Was Test mit den games quasi fasst unmöglich macht.
Das wurde schon oft versucht und scheiterte immer nachdem neue gpu gen gekommen sind was am ende zu einer Deaktivierung des features führte bsp mirrors edge catalyst, gta 4, grid usw

Der Vorteil der ue5 ist es das texturen jetzt nativ an die Auflösung und gpu Leistung angepasst wird (nanite)
Es wird also nix mehr hochskaliert
Das führt dazu das man optische unterscheide hat je nach gpu level und nicht mehr die fps gelten gut möglich das man feste fps vorgegeben werden.
Da dies vermutlich abschaltbar ist wird das Geschrei groß wenn dann die physik zusammenbricht.
Nur für was sich die entwicker entscheiden weiß noch keiner. variabel shading zur performance feste qualität Vorgabe.
Oder manuell variable fps mit fester auflösung anhand des monitoreinstellung
Letzterer wäre wünschenswert für den Ist zustand.

Zurück zu Sinn von 1080p cpu Test es hängt von den games ab.
Und maßgebend ist eben das die gpu core load was aussagt da ich selber keine rtx 3090 habe kann ich das kaum belegen aber fc6 bsp zeigt es deutlich trotz dxr und max settings ohne taa oder nachschärfen
1637861506729.png


Intrigierter benchmark im spielverlauf ist ähnlich
Liege im spiel immer zwischen 50-60fps mit dxr
beim vaas dlc ist die Auslastung höher
das ist 1080p max settings
1637861690480.png
1637861722818.png

kann sein das ichn tick später auf meine benchtaste gedrückt habe

Das wird mit einen r9 5900x oder ci 7 12700k voll ausgelastet sein
je höher die gpu also den ga104 und ga102 wird sicherlich nicht über 60% load kommen
Und das ist ein aktuelles spiel
Die einzigen games die solche gpu nahezu auslasten sind derzeit watch dogs legion mit dxr und cyberpunk 2077
Eventuell noch metro exodus ee
Der Rest wird vermutlich nicht ansatzweise über 85% load kommen mit nen ci7 12700k
Also wozu sollte man dann.
Ein Grund dafür wäre ja die anderen gpu.... nun das stimmt.
Nur welche gpu ist den die langsamste in den Tests.
Soweit ich weis die rx580 respektive Vorgänger r9 390
und bei nvidia gtx1060 respektive gtx1650s da könnte es zu gpu limits kommen.
ich habe zwar nicht exakt dieselben spiele wie ihr aber etwa 47getestet in 1080p (2016-2020) und der gtx1060
Im schnitt etwa 98% gpu load
Und mit der rtx3060 93% load was aber eher die Ausnahme ist
Da dies oft die Anfänge von spielen sind erste level paar meter gehen oder standard benchmars aus den spielen.
Richtige schlimmste stellen sind das nicht

Dabei fällt mir ein was sinn machen würde eine Tabelle welche cpu passt zur gpu anhand Testauswertung der gpu core load
Und das je spiel
Wie etwa so
1637873560806.png

natürlich ausgefüllt
ich nahm mein benchmark wert ohne dxr sind etwa 74fps
1637867293719.png

Und rechnete die cb15 score dagegen 208 cb15 zen2 geteilt durch wert der anderen cpu bsp fx8350 112=1,85=*0,54 (74*0,54=40fps)
Warum cb15 nun das hat nen Grund es ist ein singlecore benchmark was die drawcalls eines kernes der für directx maßgebend ist für max fps zu ermitteln.
Folglich resultiert das wenn kein bandbreiten flaschenhals vorliegt die leistung 1=1 tendenziell etwas mehr
natürlich kann viel mehr l3 cache sowie mehr channels beim ram dass verfälschen ist aber marginal zwischen 5-10%
grundlegend ist die cb15 singlecore ziemlich gut auf games anzuwenden beim cpu limit.
Getestet ist natürlich besser

Farbliche Absetzungen wären ideal. wobei ich so vorgehe würde
unter 20fps dunkelrot
unter 30 hellgelb 1
unter 40 dunkelgelb 1
unter 50 hellgrün 1
unter 60fps hellgrün 2
über 70 dunkelgrün 1
darüber dunkelgrün 2

maßgebend ist natürlich die gpu load nicht die fps
In dem bsp kann ich leider nicht vorhersagen wie viel die rtx3090 ausgelastet wird zwar ist diese doppelt so schnell aber wie sehr das game drawcalls von der cpu fordert ???
mein verdacht ist das die gpu nicht ausgelastet wird

Bei euren Werten der 720p test sind die abstände der cpu relativ willkürlich was auf ein engine limit hindeuten könnte
bzw die gpu taktet in idle
was bei nvidia durchaus sein kann.

das neueste spiel seitens ubisoft ist bei mir valhalla was auch primär cpu limitiert ist (ab ner rtx3080)
was ich noch testen müsste wäre the ascent auch kürzlich geholt

Natürlich ist das pro spiel zu sehen und einer festen benchszene
Ich sammle eher als das ich vieles beende

Im übrigen nvidia verkack ab und an den Treiber /472,xx an zuletzt derbe cpu limitierungen und ich kam nicht über 65% gpu load hinaus in fc6
Erst der letzte 496,76 entfernte das Problem
aber solche Probleme kenne ich aus vergangenen release von nvidia gpu
das war bei tesla (2007) fermi (2010) kepler (2013) und pascal (2016) auch so
Erst nach 3-6 Monaten liefen die treiber wie sie sollten

Ich habe nur sorgen bei lovelace die menge an tf wird definitiv keine cpu bewältigen in 1080p
vermutet lovelace zwischen 26-57tf
meine rtx3060 9,30 tf
Nächste gpu shrink ga104 etwa 20tf ~2024 tsmc 6nm 2,2-2,4ghz

Die nächste cpu gen zen4 2023 vermutlich +40% ipc vs zen3
konsolen derzeit 10 bis 12tf Dauer bis ps6 etwa 2026
vermutlich refresh ps5 (pro) 2024 ~50cu =16tf
das aber ist völlig geraten aber möglich wenn sony das will.
Ein n33 chip 80cu /~175w 50cu 2,5ghz 5nm
Ein n22 chip ps5 40cu (36 aktiv) 175w 2,3ghz
ob amd einen n34 bringt ist unklar wenn dann wird der sicherlich 40cu haben
Was die option mcm auf ps6 möglich macht 2*40cu reduziert auf 60cu mit cpu an hbm3
man bedenke das ps5 auf rdna1 basiert und nur teilweise dxr beherrscht
daher kann man die konsole als rdna1,5 bezeichnen.
und solange diese am markt ist wird 60fps bei 1080p bei etwa rx5700 bis rx5700xt leistung sein ( rtx2070s rtx3060 rx6600)
Somit ist ein upgrade frühestens 2024 zu rechnen bis keine 60fps mehr drin sind auf 1080p
ich gehe sogar davon aus das dies bis 2025 so sein wird.
Die einzige Lösung ist auf 1440p upgraden für lovelace was aber seitens sehschärfe ein problem ist. Und die skalierung in windows ein horror.
nix ist scharf sobald man den scaler auf 125 oder höher stellt. es hängt wirklich vom monitor ab wie gut der skaliert. (27 Zoll)
Und nen 32 zoll aufn Schreibtisch???
Die Spielanforderungen werden bis 2023 kaum steigen bei ner rtx3060 ich habe derzeit im schnitt 125fps in raster und in dxr schon jetzt mit dlss fsr 45fps Schlimmste zustand.
Dann sehe ich beim schlimmste zustand raster 60fps und 20fps mit dxr
Letztere würde mich zum Wechsel zwingen
Nächste große Titel 2022
halo inf
stalker 2
elden ring
dying light 2
Der Rest ist noch stark im dunkeln und das meiste basiert auf ue4 oder andere ältere engines
Die ersten neuen spiele mit neuer engines die für die xsx und ps5 gedacht sind kommen so 2023 herum raus
 

Freiheraus

BIOS-Overclocker(in)
@Bluebird
Mit etwas Wissen/Erfahrung kommt man mit einem 12600K leicht auf 1 bis 2 Watt CPU Package Power und unter 10W Gesamtsystem-Leistungsaufnahmen im Leerlauf (inkl. 80+ Gold 550W Netzteil). Allerdings taugt HWINFO nicht dazu das auszulesen, da es die Cores und den Uncore-Bereich permanent aufweckt und zwar so heftig, dass der Systemverbrauch zwischen wahnwitzigen 12 und 40 (!) Watt herumspringt, im Schnitt zeigt HWINFO dann Minimum 5-7 Watt CPU Package Power an, oft deutlich mehr.

HardwareMonitorPro von CPUID ist dazu besser geeignet, der Systemverbrauch pendelt dann bei 10-12 Watt, so bekommt man die 1-2 Watt CPU Package Power auch zu Gesicht.

Alder Lake.png


AMDs Monolith Cezanne kommt allerdings selbst mit HWINFO auf nur 1-2 Watt CPU Package Power im Leerlauf, der lässt sich nicht so leicht reizen^^. Und er verliert nicht wie Alder Lake gleich 3-4% Performance im Cinebench & Co. nur weil HWINFO mitläuft :lol:
 
Zuletzt bearbeitet:

IICARUS

Kokü-Junkie (m/w)
Leistung austesten ist für mich ein anderes Wort für OC :)
Wieso OC? Lässt Cinebench oder ein Game laufen, dann willst du ja wissen welcher Prozessor besser abschneidet. Wenn der AMD aber limitiert wird, dann geht er ja vorzeitig auf die Bremse und kann nicht seine volle Leistung entfalten. Das hat mit OC rein gar nichts zu tun.
 

Bluebird

Software-Overclocker(in)
Wieso OC? Lässt Cinebench oder ein Game laufen, dann willst du ja wissen welcher Prozessor besser abschneidet. Wenn der AMD aber limitiert wird, dann geht er ja vorzeitig auf die Bremse und kann nicht seine volle Leistung entfalten. Das hat mit OC rein gar nichts zu tun.
tut mir leid aber Hersteller angaben im BIOS Manuel verändern ist für mich per Definition OC
Klar ist das nicht mehr so wie damals , heute sagst du nicht nimm soviel Strom und Takte auf Gedeih und verderb so Hoch ... heute gehts nur noch um wie Heiss wie viel Strom und los :)
 

IICARUS

Kokü-Junkie (m/w)
tut mir leid aber Hersteller angaben im BIOS Manuel verändern ist für mich per Definition OC
Nur wenn du dazu dieses PBO aktivierst, du kannst aber auch selbst bestimmen bei welcher Leistung begrenzt werden soll und Prozessoren egal ob AMD oder Intel ziehen mehr, wenn hierzu nichts begrenzt wird. Denn bei Intel wurde ja auch kein OC auf den max. Turbo Boost Takt auf alle Kerne gesetzt, hier zieht der Prozessor halt bis zu 241 Watt, weil hier diese Begrenzung gesetzt ist. Ohne Begrenzung würde der Intel sogar an die 300 Watt ziehen.

Klar ist das nicht mehr so wie damals , heute sagst du nicht nimm soviel Strom und Takte auf Gedeih und verderb so Hoch ... heute gehts nur noch um wie Heiss wie viel Strom und los :)
Alles halb so schlimm, denn in Tests werden auch Benchmarks getestet und reguläre Anwendungen und Spiel werden gar nicht so viel ziehen. Ganz davon abgesehen sehe ich es auch sinnvoll an, die Langzeitleistungsaufnahme auf 125 Watt zu stellen und die Kurzzeitleistungsaufnahme auf 180 Watt oder niedriger zu stellen. Dann wird der Prozessor je nach Anwendung an Leistung verlieren, aber auch nur noch das verbrauchen, was dir lieb ist. Darauf werden sich dann auch die Temperaturen beziehen.

Ganz davon abgesehen, dass solch eine Begrenzung nicht immer erreicht wird, denn Prozessoren ziehen immer so viel, was an Leistung abverlangt wird. Dein Prozessor wird ja in Games im GPU-Limit auch keine 105 Watt erreichen.
 
Zuletzt bearbeitet:

sethdiabolos

Volt-Modder(in)
In den Game Benches bekommt Amd schon jetzt von Intel ganz schön auf den Hintern :D

Wird lustig zu sehen was passiert wenn Intel die Fertigung noch optimiert , also weniger Stromverbrauch und noch ein klein wenig mehr Takt ;)

Naja, das ist aktuell eh immer ein Hin und Her. In wenigen Monaten kommt AMD mit den ersten Prozessoren in der 6000er oder gar 7000er-Reihe und dann sind die wieder vorne. Ist aktuell doch ein wenig langweilig, insbesondere, da alle CPUs der letzten Jahre im GPU-Limit die gleiche Performance liefern. Bei Anwendungen macht es klar einen Unterschied, in Games aber eher weniger, das sieht man mit den ganzen 720p-Benches nur nicht wirklich. Mal schauen wann ich den 3950X austauschen muss, ein wenig kribbelt es mich wegen dem Basteldrang, aber es aktuell ist es einfach noch nicht nötig.
 

plusminus

BIOS-Overclocker(in)
Naja, das ist aktuell eh immer ein Hin und Her. In wenigen Monaten kommt AMD mit den ersten Prozessoren in der 6000er oder gar 7000er-Reihe und dann sind die wieder vorne. Ist aktuell doch ein wenig langweilig, insbesondere, da alle CPUs der letzten Jahre im GPU-Limit die gleiche Performance liefern. Bei Anwendungen macht es klar einen Unterschied, in Games aber eher weniger, das sieht man mit den ganzen 720p-Benches nur nicht wirklich. Mal schauen wann ich den 3950X austauschen muss, ein wenig kribbelt es mich wegen dem Basteldrang, aber es aktuell ist es einfach noch nicht nötig.

Intel,s 10nm 12700K schlägt Amd,s 7nm Ryzen in Games ziemlich klar . :daumen:

Bei den Anwendungen ist Amd zumeist nur noch wegen ihrer grösseren Anzahl der Performance Kerne mal mehr mal weniger knapp vorne !

Auch das wird sich ändern .

Intel,s erster Wurf wird bei der Fertigung und bei der Nutzung seiner Big Little CPU,s noch ganz schön drauflegen. ;)

Intel hat in ca. einemJahr geschafft wofür Amd 10Jahre gebraucht hat.

Amd wird versuchen Intel zu Kopieren und man kann nur hoffen das das nicht wieder ein Bulldozer Desaster wird :schief:
 

sethdiabolos

Volt-Modder(in)
Du bist aber ein ganz schöner Fanboy oder? AMD hatte sich 2012 aus dem Desktop-Markt zurück gezogen und wollte sich auf den Server-Bereich konzentrieren. Erst 2015 wurde wieder bekannt, dass AMD doch weiterhin Desktop-Prozzies entwickeln möchte und 2017 ist dann der erste Ryzen erschienen, der Intels Preispolitik ins lächerliche zog. Der 2000€ 6950X wurde plötzlich von Prozessoren tangiert, die deutlich weniger kosteten und Quadcores auf dem Mainstream-Markt waren plötzlich outdatet. Das Intel reagieren musste war das Beste, was in den letzten 10 Jahren passiert ist und aktuell liefern sich beide Hersteller einfach nur einen Schlagabtausch. Kopieren tun btw. alle in der Branche vom Konkurrenten. Das ist nichts außergewöhnliches und hat Intel auch schon gemacht.
 
Zuletzt bearbeitet:

derneuemann

BIOS-Overclocker(in)
Danke für dein Feedback. Da ist mir tatsächlich ein Zahlendreher unterlaufen :schief:
Die neuen Werte gehen gleich online, ein 12700K ist nicht effizienter als ein 5900X. Ich hatte versehentlich die Leistungsdaten in die Effizienz-Tabelle eingetragen, die Zahl steht im Excel direkt daneben, das kann also schnell mal passieren. :wall:

Wird auch noch eine Spieleeffizienz betrachtet? weil die meisten dieser CPUs, die an Privatkunden gehen, werden wohl in erster Linie nur für Spiele gefordert.
 

Lamaan

Freizeitschrauber(in)
Richtig. Ich hatte bereits über 20 AM4-Boards in den Händen, kein einzige hat per Default die Vorgaben (max. 142 Watt) umgangen. Nur Igors MSI Board macht automatisch bei AM4/Zen 3 alle Limits auf... Humbug, dort wurden manuell die Drosseln geöffnet und Zen3 praktisch bewusst in die Ineffizienz getrieben. Es gab sogar eine Ankündigung in einem Vorgängerartikel, dass alle CPUs ohne Limits getestet werden.

Seine MSI Z690 Wunderboards für Alder Lake wählen auf der anderen Seite die Vcore/SVID so ausgeklügelt inkl. Vdroops, das es einem (Werks)Undervolting gleichkommt.
Ich kann diese Einstellungen bei meinem ASUS Z690 mit 12600K, denn ich momentan durchteste, auch (manuell) wählen, mit dem Ergebnis dass die CPU nur 0,030V vom Absturz unter Volllast entfernt ist, statt üblicherweise 0,100V. Sicherheitsreserve? Klingt nach Fremdwort! So würde ich ein Produktivsystem jedenfalls nicht betreiben wollen.

Ziemlich unseriös und eigentlich schon auf billigster Weise durchsichtig Hersteller A forciert ausserhalb der Spezifikation zu betreiben und Hersteller Bs Top-Modell zusätzlich im 125W Korsett/Sweetspot mitlaufen zu lassen. Dieser Unsinn wird auch noch quer durch die Foren verbreitet und nachgeplappert. Wenn man darauf hinweisst, wird man in den Kommentaren zugemühlt von Leuten die nicht den Schimmer einer Ahnung von der tieferen Materie haben und oft völlig am Thema oder springenden Punkt vorbeiargumentieren. Mit dem Nonsens verplempere ich aber keine Zeit.
Mir ist bei Igor in der letzten Zeit auch schon so einiges an merkwürdigen Verhaltem/ Artikeln aufgefallen. Ich fand den bis vor kurzem wirklich gut.
Jetzt frage ich mich woran der Gute leidet. Für Bias ist er ja eigentlich zu alt, sollte man denken, aber die Realität belehrt einen hier wohl des Besseren.
Intel,s 10nm 12700K schlägt Amd,s 7nm Ryzen in Games ziemlich klar . :daumen:

Bei den Anwendungen ist Amd zumeist nur noch wegen ihrer grösseren Anzahl der Performance Kerne mal mehr mal weniger knapp vorne !

Auch das wird sich ändern .

Intel,s erster Wurf wird bei der Fertigung und bei der Nutzung seiner Big Little CPU,s noch ganz schön drauflegen. ;)

Intel hat in ca. einemJahr geschafft wofür Amd 10Jahre gebraucht hat.

Amd wird versuchen Intel zu Kopieren und man kann nur hoffen das das nicht wieder ein Bulldozer Desaster wird :schief:
Also, jetzt ist ein halber sieg Intels, oder 1/3 Sieg (Games+ Anwendungen- Energieeffizienz -) schon ein Grund zum abfeiern und zum beschwören wie toll Intel doch ist.
Naja, in schlechten Zeiten nimmt man was man kriegen kann oder ?
Von wegen mal mehr mal weniger knapp:
Ich möchte gar nicht wissen was du hier wieder erzählen würdest, wenn Intel mal irgendwo 90% in Führung wäre.
Du legst Dir die Fakten immer so wie es Dir gerade passt.
Wenn es um den Node geht heißt es Intel7
Wenn es um den Vergleich zu AMD geht heißt es, Intel nutzt 10nm. Was beides wirklich nichts aussagt.

Sobald AMD den neuen rausbringt, bist du sicher wieder weg, um dann später neutral aufzutreten.
Bis Intel wieder Iwo etwas schafft.
Dann kommt wieder sowas wie oben von Dir
Wieso OC? Lässt Cinebench oder ein Game laufen, dann willst du ja wissen welcher Prozessor besser abschneidet. Wenn der AMD aber limitiert wird, dann geht er ja vorzeitig auf die Bremse und kann nicht seine volle Leistung entfalten. Das hat mit OC rein gar nichts zu tun.
Entweder man betreibt den Prozessor innerhalb der Spezifikation oder man macht OC.
Einen Prozessor für mehr Leistung außerhalb der Spezifikation zu betreiben ist der Inbegriff von OC
 
Zuletzt bearbeitet:

owned139

BIOS-Overclocker(in)
Nur Igors MSI Board macht automatisch bei AM4/Zen 3 alle Limits auf... Humbug, dort wurden manuell die Drosseln geöffnet und Zen3 praktisch bewusst in die Ineffizienz getrieben. Es gab sogar eine Ankündigung in einem Vorgängerartikel, dass alle CPUs ohne Limits getestet werden.
Könntest du zu beiden Aussagen eine Quelle liefern?
 

FormatC

igor'sLAB
Wer mir in Bezug zu AMD vs. Intel Bias unterstellt, hat scheinbar die vier (!) Artikel nicht gelesen bzw. nicht mal ansatzweise verstanden. Es gibt im Übrigen auch zu den beiden Launchreviews noch zwei Folgeartikel, von denen der letzte dann auch bis ins letzte Detail erklärt, wo die bis zu 23 Watt Mehraufnahme nun genau herkommen. Das Problem ist die Radeon, aber bis dahin müsste man wenigstens mal gelesen haben. Ich kenne kaum jemanden, der jemals aufwändiger nachgetestet hätte. Und zwar mit verschiedenen Grafikkarten. Hätten sich andere die Mühe gemacht, müsste ich mich hier nicht beleidigen lassen.

Und ansonsten würde ich noch um eins bitten.
Klärt doch nun mal eindeutig, ob ich nun ein AMD-, NVIDIA oder Intel-Fanboy bin. Wenn ihr Euch dann endlich mal einig wärt, macht dies Vieles in Zukunft einfacher :D

Das Godlike lässt Leistungsaufnahmen jenseits der 140-Marke auch ohne Entsperrung zu, wenn PBO aktiv ist. Das ist wie mit den übervoltenden Asus-Brettern bei Intel. Ein günstigeres Z690 Carbon hat mit derselben CPU auch 5 Watt mehr auf der Uhr als das Ace. Die Spannungswandler sind schlechter und man lässt mehr laufen, um bei Spikes nicht zu weit einzuknicken. das lässt sich am Oszi sogar sehen. Ansonsten empfehle ich den Artikel, wo ich die GeForce UND die Radeon vergleiche. Da würde ich mal drüber nachdenken. :D
 
Zuletzt bearbeitet:
Oben Unten