News Details zu Arrow Lake und 800er-PCH: Meteor Lake wohl gestrichen

Die FPS beziehen sich immer mit auf die Settings, daher sind sie in diesem Screenshot beabsichtigt nicht mit dabei.

Weil ich kann die Settings auch soweit runterdrehen, sodass ich Augenkrebs bekomme und dafür recht viele FPS bekomme. Zudem kommt es immer auch auf die Grafikkarte mit an und der Auflösung, was dazu mit verwendet wird. Es macht ja bereits ein Unterschied, wenn ich von 3440x1440 auf 2560x1440P gehe.

Um unnötige Diskussionen zu verhindern, sind deshalb die FPS nicht mit enthalten.

Aber in WZ2 sind es im Schnitt mit meinen Settigs die ich dazu bestimmt habe zwischen 100 - 120 FPS. Da ich G-Sync habe und ein Monitor mit 120 Hz, reichen mir die FPS gut aus.
 
Zuletzt bearbeitet von einem Moderator:
Die CPU wird ja auch nur zu ~20 Prozent ausgelastet ^^
True meint da wohl eher Volllast, das ist ne ganz andere Hausnummer.
Selbst für Single-Core kann eine viel höhere Spannung anliegen.

Aber ihr wisst schon, dass ihr da CPUs mit völlig verschiedener Fertigung vergleicht, was keinen Sinn macht? Ein 10900K mit "1.40 Volt" ist etwas völlig anderes als ein 13900K mit "1,40 Volt".
 
Die CPU wird ja auch nur zu ~20 Prozent ausgelastet ^^
True meint da wohl eher Volllast, das ist ne ganz andere Hausnummer.
Das ist schon klar und ich beziehe mich auch nur auf Gaming und nicht auf Benchmark oder gar Stresstests. Aber das ist genau, was manche Leute, die Intel schlecht machen, nicht mit beachten und dann mit unsinnige 300 % mehr Stromverbrauch daher kommen.

Deshalb hatte ich heute auch mal geschrieben, er solle mit BF2042 testen, weil dieses Spiel mit Stock ohne UV bei mir um die 140 - 160 Watt erreicht. Mit UV sind es immer noch um die 120 - 130 Watt, was ich so mit keinem anderen Spiel anliegen habe.

Aber ihr wisst schon, dass ihr da CPUs mit völlig verschiedener Fertigung vergleicht, was keinen Sinn macht? Ein 10900K mit "1.40 Volt" ist etwas völlig anderes als ein 13900K mit "1,40 Volt".
Natürlich, ist aber dennoch erstaunlich, wie sich so Technik ändert und obwohl mehr Leistung anliegt, die Spannung dazu mehr mitmacht. Das habe ich auch damals schon gemerkt als ich von einem 6700K inkl. OC auf einen 9900K mit OC umgestiegen bin.
 
Zuletzt bearbeitet von einem Moderator:
Aber in WZ2 sind es im Schnitt mit meinen Settigs die ich dazu bestimmt habe zwischen 100 - 120 FPS. Da ich G-Sync habe und ein Monitor mit 120 Hz, reichen mir die FPS gut aus.
Alles klar, das erklärt einiges! Die CPU packt dort ja weit über 200 FPS im AVG. Daher habe ich gefragt. :)

Es ist ja immerhin ein Unterschied, ob jemand beispielsweise auf einem 360Hz-Monitor spielt und die CPU dort quasi ungebremst laufen kann, mit Framelimit bei 236 FPS auf einem 240Hz-Monitor zockt oder ob jemand vielleicht "nur" mit 140 FPS auf einem 144Hz-Monitor spielt. Je nachdem, wie sehr die CPU beansprucht wird, ist sie ja auch unterschiedlich versoffen.

Unter Teillast, (stark) eingebremst und/oder mit UV ist Intel aber durchaus effizient. Das muss man schon sagen. Kommt halt drauf an, was man will, ne. Ich sehe das ja bei mir selbst auch immer wieder. Ich habe unterschiedliche Profile im BIOS angelegt und wenn ich mein "nur" 5,0GHz-Allcore-Profil statt 5,3GHz-Allcore-Profil auswähle, welches über 200 mV mehr Spannung braucht, dann sehe ich in Spielen keine dreistelligen Wattzahlen bei der Leistungsaufnahme, selbst ungebremst nicht. Mit 300 MHz mehr Takt und entsprechend mehr Spannung kann es dann aber auf der Kehrseite fast doppelt so viel Verbrauch sein.

Man hats letztendlich immer selber in der Hand. Deshalb lasse ich mir Intel auch von niemandem madig reden. :)
 
Alles klar, das erklärt einiges. Daher habe ich auch gefragt. Die CPU packt dort ja weit über 200 FPS im AVG. Daher habe ich gefragt. :)
Die Grafikkarte wird ja auf 100 % ausgelastet und dann wird der Prozessor auch seine volle Leistung nicht aufbringen müssen. Zudem wird sich dieses je nach Spiel immer anders auswirken, denn wenn ein Spiel nur wenige Kerne nutzt, dann werden 16 Kerne auch nicht voll ausgelastet.

Warzon 2 lastet auch nicht alle Kerne mit aus, daher wird zwar im CPU-Limt auch die Leistungsaufnahme mit ansteigen, aber sich dennoch in Grenzen halten. Kann es ja bei Gelegenheit mal austesten. Aber ich möchte momentan meine gesetzte Settings nicht verstellen.
 
Die Grafikkarte wird ja auf 100 % ausgelastet und dann wird der Prozessor auch seine volle Leistung nicht aufbringen müssen. Zudem wird sich dieses je nach Spiel immer anders auswirken, denn wenn ein Spiel nur wenige Kerne nutzt, dann werden 16 Kerne auch nicht voll ausgelastet.

Warzon 2 lastet auch nicht alle Kerne mit aus, daher wird zwar im CPU-Limt auch die Leistungsaufnahme mit ansteigen, aber sich dennoch in Grenzen halten. Kann es ja bei Gelegenheit mal austesten. Aber ich möchte momentan meine gesetzte Settings nicht verstellen.
Verstehe ich absolut!

Was immer noch hervorragend auslastet, ist Shadow of the Tomb Raider. Das nehme ich gerne immer wieder her. Einfach zu gut optimiert das Spiel. Das springt auf jede noch so kleine Veränderung an, sei es auch RAM-OC oder Cache-OC.
 
Hier mal zum Vergleich auch 100 % Auslastung der Grafikkarte. Es handelt sich um den Rechner meines Sohnes. Verbaut hat er auch einen 13900K, aber mit einer RTX 4080 Grafikkarte. Die Settings dazu sind auch recht hoch eingestellt. Aber er nutzt kein UWQHD, sondern hat zu dem Zeitpunkt sein Bildschirm auf 2560x1440p (Samsung Odyssey) gesetzt.
(Bildschirm ist auf 2x 2560x1440p gesetzt.)

System läuft aber komplett auf Stock.
(Auch kein UV!)
K1600_cod_2023_03_02_15_10_34_584.JPG


Ohne UV komme ich auch 100 Watt.
Aber ich habe auch keine RTX 4080, sondern eine RTX 3080 verbaut. Ist aber auch wieder eine Auflösung mit 3440x 1440p.
K1600_cod_2023_03_04_16_23_41_971.JPG


Die Settings werden sich aber dennoch unterscheiden, da mir nicht bekannt ist, was für Settings mein Sohn bei sich gesetzt hat. Aber seine RTX 4080 wird auch eine höhere Leistung aufbringen können und wird daher auch nicht mit meiner RTX 3080 vergleichbar sein.

Was immer noch hervorragend auslastet, ist Shadow of the Tomb Raider.
Da kann ich dir dazu sogar ein Vergleichsvideo von meinem 13900K mit Stock vs. UV zeigen. :D

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet von einem Moderator:
Ja bin ich auch, ich rede von Spezifikationen und du von OC, das beinhaltet auch irgendwelche Implementirungen Seitens der Boardhersteller in ihrem Bios/UEFI.
Achso ist das....
Jetzt biegst du dir die Wahrheit zurecht...

Na wenn du damit besser schlafen kannst von mir aus....

Fakt ist das jeder ein anderes Ergebnis erzielen kann wenn die Kühlung anders ist....

Aber naja was solls du bist ja "der experte"

Ich bin daraus und verschwende keine Zeit mit solchen Besserwisser wie dir...
Das ist heftig. Bei der Spannung schaffe ich gerade einmal 5,1 GHz allcore mit meinem i9-10900K und da ist sogar HT deaktiviert (10c/10t), allerdings Prime95-stabil.

Hier zockt einer mit 6,3GHz allcore (HT deaktiviert) Diablo IV:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wüsste zu gerne, was der für eine Spannung anliegen hat dabei. Das ist ja brutal, muss ja quasi ein "God-Bin" sein. Der ist übrigens auch vertrauenswürdig (HWbot-Mitglied, hat viele RAM-OC-Videos online, mit Handy abgefilmt, etc.).

Wenn man sich sein Setup anschaut und was der für Aufwand betreibt, ist das aber auch kein Wunder, dass das möglich ist:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
:D

Ich hoffe, dass wir bei Arrow Lake die 6 GHz allcore im undervolteten Zustand sehen können. Sollte ja mit dem Node-Shrink so langsam möglich werden.
Der 12900k war schon super mit seinen 5,1 bis 5,2 bei 1,17v

Aber 3s hat sich hier ja nochmal etwas getan

Allerdings schaut das im Anwendungsbereich wieder anders aus
 
Was er meint ist, dass Default mit Mainboards nicht immer was mit der Vorgabe seitens Intel zu tun hat.

Beispiel:
Ein 9900K hätte ein Turbo Boost bis 5 GHz anliegen haben dürfen und mit Last auf alle Kerne nur noch 4,7 GHz auf alle Kerne aufbringen müssen. Trotzdem haben manche Mainboards darauf 5 GHz auf alle Kerne gemacht. Entsprechend fiel dann auch die Leistungsaufnahme und die Temperaturen höher aus.

Mein MSI Edge DDR4 z690 Board hält sich an die Vorgaben von Intel.

Der Turbo Boost liegt bei 5,8 GHz mit zwei Kerne an und mit Last auf alle Kerne sind es 5,5 GHz. Jedoch wird kein Limit gesetzt oder besser gesagt, es wird nach der Kühlung gefragt und selbst mit der Luftkühlung würde die Leistungsaufnahme als Limit immer noch zu hoch angesetzt sein. Wähle ich Wasserkühlung aus, dann wird ein Limit mit 4096 Watt gesetzt, was wiederum Vollgas bedeutet.
Kühlung.JPG
 
@Showstopper2403

Du solltest mal meine Beiträge ganz genau lesen, verbiege tue ich nichts, sondern wie gesagt, wir reden aneinander vorbei, aber anscheinend hilft dir nich einmal die Erklärung dazu weiter.

Das was du hier leistet nennt man Troll-Arbeit, weder Fakten noch Beweise machen hier die Runde, sondern nur heiße Luft.

Wie schon gesagt, nochmal, falls auch noch nicht alle dem mehr folgen können, es gibt derweil keine CPU seitens Intel(So1700) die Out-of-the-Box 6GHz Allcore via Spezifikation macht.
 
sondern wie gesagt, wir reden aneinander vorbei
Das wird auch der Fall sein, denn er schreibt ja selbst, dass es von seinem Board kommt.
Das Board hält sich daher nicht an die Intel Vorgaben und setzt ein eigenes OC an. Denn 6 GHz auf alle Kerne ist OC, ganz gleich ob dieses selbst gesetzt wurde oder das Board selbst dabei seine Finger im Spiel hat.

Siehe:
Nochmal bei meinem Gigabyte aorus Master war das schon so eingestellt vom BIOS....
 
Ein "Konter" ist relativ, aber eigentlich war ja schon lange abzusehen, dass da nichts direkt folgen würde, denn RPL ist ja gerade erst mal vor wenigen Monaten gelauncht worden. Und bei der aktuellen wirtschaftlichen sowie Marktlage allgemein ist auch fraglich ob Intel hier frühzeitig ein komplexes und teueres Design neu in den Markt bringen will, während der Markt in nächster Zeit eher absehbar zögerlich reagieren wird, selbst wenn es ein sehr gutes Design werden sollte. AMD kämpft ja gleichermaßen diesbezüglich und muss nicht umsonst Preise senken und mit zusätzlichen Anreizen arbeiten um die neue AM5-Plattform unters Volk bringen zu können.

Aus dem zeitlichen Abstand lässt sich nichts ableiten, zumal von RPL weiterhin keine Änderungen bekannt sind, die über eine Voll-Implementation von Golden Cove und geänderte Taktraten hinausgehen. Leute, die es besser wissen sollten, hatten mir gegenüber von 18 Monaten Marktpräsenz für ADL und RPL als Respin zusammen gesprochen. Es war also vermutlich tatsächlich geplant, dass RPL nach einem relativ kurzen Verkaufszeitraum durch MTL abgelöst (oder ergänzt) wird, aber offensichtlich hat man diese Pläne grundlegend geändert.

In Anbetracht dessen, dass man in die aktuelle Marktlage gestolpert ist, wird das aber nicht auf wirtschaftliche Überlegungen zurückgehen. Hätte MTL dieses Frühjahr oder spätestens diesen Herbst auf breiter Front in Verkauf gehen sollen, müsste die Produktion bei TSMC längst anlaufen und die zugehörigen Verträge wären im letzten Jahr geschlossen worden – zu einem Zeitpunkt, zu dem Intel noch vollmundig Wachstum versprochen hat. Dass sie trotzdem nicht auf Raptor Lake gesetzt haben, den sie gegen X3D und Phoenix definitiv gut gebrauchen könnten, hat gemäß zahlreicher Leaks einen viel banaleren Grund: Sie können es nicht. Der "one year after ADL"-Intel-4-Prozess hat, genau wie 10 nm zuvor und 14 nm davor, offensichtlich mal wieder massive Probleme mit der Taktbarkeit und Intel muss sich, trotz Verschiebung, erst einmal auf in dieser Hinsicht genügsame Mobile-Prozessoren beschränken.

So gesehen können wir froh sein, dass Intel 3 ganz aus der Desktop-Roadmap gestrichen wurde – und gespannt, ob es bei Intel 20A zur Abwechslung mal wieder reibungslos läuft.
 
Zurück