Intel: Core i9-11900K zeigt sich mit starker Single Thread Performance

Cascade Lake...netter Name...dürfte man sich bei Intel angesichts vermeintlicher "Hot Chips" wohl von der Kaskadenkühlung einstiger Tage hat inspirieren lassen... :lol:
 
.
Intel wird erst wieder interessant mit Alder Lake und dem 8+8 Kernen. Wenn man die Leistung von AMD nicht erreichen kann, dann versucht man zumindest den geringsten IDLE Desktop Stromverbrauch zu haben.
Ein 15W IDLE System würde ich mir wünschen...
 
Ehrlich gesagt. Mir ist die Performance schon fast irrelevant geworden, wenn die CPUs mehr schlucken als meine GPU.
Ich müsste mir mal eine CPU holen, weil meine schon zu alt ist, aber der Markt ist derzeit nicht so mein Fall.
Ich wäre ja AMD zugeneigt, weil derzeit die Intel einfach zuviel fressen.
Aber der Hauptgrund, warum ich aktuell noch warte ist das alle aktuellen Sockel EoL sind. Es wird keine neuen AMD und nach dem 11er kein Intel CPU mehr für die Sockel geben.
Darüberhinaus haben die darauffolgenden CPU Generationen DDR5.
Ich warte also auf ZEN3+ oder Alder Lake mit DDR5.

Mein i7-7700k läuft übrigends mit 4,8Ghz all Core mit 65W Spitze.
Meine 3080 läuft aktuell mit 800mv 1800Mhz und max 240-250W, kann aber auch runtergehen bis 700mv und <200W.
 
Hab ich bis jetzt noch nie erlebt, Spiele lasten eine CPU nie so aus wie Anwendungen. Geht schon gar nicht weil durch die GPU immer irgendwo Leerlaufzeiten entstehen.
Nutzlos nicht, insofern der Singlecore Boost auf alle Kerne ausgeweitet werden kann.
Es gibt immer mehr Spiele die mind. 4 Kerne auslasten, da hilft die Single Core auch nicht mehr...

Wenn jetzt Firmen aufhören würden wie zuletzt CD Projekt mit CyberPunk Avx aus Ihrer Enging zu Patches weil 10 Jahre alte CPUS kein AVX kann dann würden CPUS auch besser ausgenützt
 
Singlecore Performance ist unwichtig geworden. Ich spiele seit ein paar Tagen auf meiner 5900X alle möglichen PS3 Spiele mit dem rpcs3 Emulator, der alle Kerne schön nutzt! Viel Spaß mit Intel und 8 Kernen... Da lache ich ja mal!
Lachst du auch über 6- und 8-Kerner von AMD mit, oder gibt es die bei dir nicht und alle die AMD nutzen haben sich einen 5900X geholt für 700 Euro alleine für die CPU? Nachdem sie ihre 2600X/3600X2700X/3700X entsorgt haben versteht sich, weil man über die nur lachen kann. :schief: Den 5600X gleich mit in die Tonne, sind ja nur sechs Kerne.
 
Zuletzt bearbeitet:
Es gibt immer mehr Spiele die mind. 4 Kerne auslasten, da hilft die Single Core auch nicht mehr...

Wenn jetzt Firmen aufhören würden wie zuletzt CD Projekt mit CyberPunk Avx aus Ihrer Enging zu Patches weil 10 Jahre alte CPUS kein AVX kann dann würden CPUS auch besser ausgenützt
jedes Triple A Spiel seit hmm lass mich nicht irren etwa 2015 braucht mindestens einen Quad oder DUAL mit HT und das ist auch verdammt noch mal Gut so ! so langsam ist jedes Spiel das was gelten will aber keine 6 Kerne gut auslastet eher eine Schande und 8 Kerne sind eigentlich schon die Regel , wieder mal zum Glück !
Alle Gamer die ich kenne haben dieses Jahr ihren 7700K ausgetauscht weil 4 Kerne heute eben Meh sind .
 
Kommt auf die Auflösung, das Game, die Settings und den FPS Anspruch an, aber ab einer 3080 würde ich einen 3700X austauschen.
Ich auch ! Und zwar gegen einen RYZEN 5800 XT mit 4 GHz Base / 5 GHz Boost ... ;-)

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Doch bestimmt eh nur wegen der 250 Watt TDP, die Intel für die paar Sekunden nutzen darf, um eben solche Benches zu erreichen.
Nichts von dauer, daher relativ egal.
Im Single Core 250 Watt? Na da irrst du dich aber, oder lügst du bewusst?
Für die meisten ist hier der Spieleverbrauch von Relevanz, besonders bei denen die immer Stresstests als erstes anführen und sich ihre Realität wie Corona Leugner zusammenphantasieren.
Ehrlich gesagt. Mir ist die Performance schon fast irrelevant geworden, wenn die CPUs mehr schlucken als meine GPU.
Ich müsste mir mal eine CPU holen, weil meine schon zu alt ist, aber der Markt ist derzeit nicht so mein Fall.
Ich wäre ja AMD zugeneigt, weil derzeit die Intel einfach zuviel fressen.
Dabei benötigen Intel Prozessoren je näher das GPU Limit ist, sogar weniger Strom und in Spielen nicht mehr.
Liest du die PCGH nicht, also auf der Website auf der du herumsurfst?
 
Zuletzt bearbeitet:
Dann unterstellst du anderen lügen
Nein - ich stelle nur fest das du lügst.

Das ist das was an Informationen bereit steht
Ja - und wenn du lesen würdest und nicht lügen dann würdest du dort sehen das der Poster selbst sagt das die Ausgelesenen Daten nicht vertrauenswürdig sind. Die 250W kommen vom selben Programm das auch 1.4V ausliest - was seiner Angabe nach angeblich nicht stimmt.
Und es ist eine Übertaktete CPU nach 30 Minuten unter vollem Turbo im AVX2 Stresstest.


Erst Mal kann man nichts anderes zu sagen
Wo sind deine Quellen das es anders ist
Wo sind deine Quellen für deine Behauptungen? Denn was du verlinkst widerspricht direkt deinen Aussagen.

Aber zwing nicht anderen deine Sachen auf
Sagte er und ist nur am rumstänkern ohne Sinn.

Du stellst mich als Lügner da ?
Nein, das machst du schon selbst.

Ich soll trollig sein ?
und noch mehr Falschaussagen von dir. Bleib doch mal bei der Wahrheit.
Ich habe sogar explizit geschrieben das du Kein Troll bist - die sind wenigstens unterhaltsam.

Du hast den Sinn eines Forums nicht verstanden sowie den Sinn was diskutieren bedeutet
XD
Immer wieder Lustig - Sein, der Sinn eines Forums ist nicht deine Lügen zu verbreiten.


Ergänzend zu deinem Post: Es ist immer verwunderlich welche völlig zusammenhangslosen Zahlen gerne in einen Topf geworfen werden um irgendwas "zu beweisen".
Aber dafür müssten die ewigen Intel-Hater auch an der Realität interessiert sein und es ist für sie doch viel einfacher zu behaupten das der maximal gemessene Stromverbrauch der Normalverbrauch ist. Sonst müssten sie ja gar noch anfangen richtige Argumente zu formulieren oder - schreck oh schreck - denken.
Unter Volllast kann ein i9 10900K schon seine 250W im Stresstest ziehen - für die 56 Sekunden. Aber das hängt auch sehr von den Mainboards ab und sie, wie leider eher die Regel aus Ausnahme ist, legen meist noch unnötig hohe Spannungen an. Ist leider nicht selten das die Boards >1.35V anlegen obwohl 1.3 schon vollkommen ausreicht - und entsprechend höher fällt der verbrauch dann aus.
 
jedes Triple A Spiel seit hmm lass mich nicht irren etwa 2015 braucht mindestens einen Quad oder DUAL mit HT und das ist auch verdammt noch mal Gut so ! so langsam ist jedes Spiel das was gelten will aber keine 6 Kerne gut auslastet eher eine Schande und 8 Kerne sind eigentlich schon die Regel , wieder mal zum Glück !
Alle Gamer die ich kenne haben dieses Jahr ihren 7700K ausgetauscht weil 4 Kerne heute eben Meh sind .
Ist ja meine Aussage das es zum zockn ziemlich schnuppe ist das so ne CPU unter 250 Watt kurzzeitig extrem hochhalten wenn nur ein Kern ausgelastet ist..
Dank AMD haben wir ja heute auch mehr als 4 Kerne im Mainstream
 
Naja, das Intel auf - oder sogar überholt habe ich mir fast gedacht.
Das ist ja auch normal. Dann legt AMD irgendwann dieses Jahr mit den "T" Modellen nach. Sowas nennt man Wettbewerb. Für die Verbraucher wäre es allerdings besser, wenn die Chips auch gut verfügbar sind.
Normalerweise haben die Hersteller im Vorfeld dafür zu sorgen, damit die Verbraucher auch UVP und faire Preise bezahlen. Das selbe gilt für Grafikkarten. Wobei manche Faktoren wohl auch von den Herstellern nicht vorhergesagt werden können.
 
Passmark ist es noch nicht mal Wert dass man sich damit den Arsch abwischt.

PASSMARK für den Arsch.png
 
Wenn der 3700X und die 2080 Ti soweit untervoltet werden damit sie zusammen 235W ziehen, sollte man sich aber ernsthaft fragen ob man das richtige Hobby hat. Besonders bezogen auf die Grafikkarte. Bei einem derart engen Korsett verkommt die 2080 Ti zur non-Ti
Seltsame Ansicht. Warum? Er hat ein paar Prozent weniger Leistung bei deutlich weniger Verbrauch. Machvich auch immer so und brauche selbst mit dem uralt i7, der alten GPU 160W, selten um die 190.
Wenn der Leistungsunterschied nicht fühlbar ist, ist Optimierung das Zauberwort. Also ja, man kann sich eine dicke GPU kaufen und ohne große Verluste deutlich effizienter laufen lassen. Das hat viele Vorteile.
Ich hab im Auto auch einen großen Motor, fahr den aber nicht auf Anschlag
 
Das ist dasselbe.

Und darüber hinaus genau das Problem, welches gewisse Leute mit dem Testverfahren haben, weil sie lieber Tests mit ihren individuellen Wunscheinstellungen sehen würden.
"Gewisse Leute" sind nun Mal eine Vielzahl anderer Tester, die alle CPUs mit demselben Speichertakt testen, nichts individuelles für jeweils jede CPU. Was GamersNexus, HardwareLuxx und auch CB macht, um einige zu nennen.

Möchte man diese Tests sich anschauen, wird man dann da fündig.

Beide Testweisen und Methodologien haben ihren Sinn, sowohl von PCGH die dann alle CPUs nur mit Standardtakt testet, wie auch von GN, Hardwareluxx und CB, die dann alle CPUs unter gleichen Bedingungen bei dem Speichertakt testen.

Wie ich finde, kann man da nicht eine Testweise einfach zu allgemein gültigen erklären, denn die Spezifizierung den verbauten DDR4 RAM spielt da eine genauso wichtige Rolle. Die Mehrzahl der Speicherkits die vom Hersteller für den Betrieb mit der vom Speicherhersteller beworbenen Speichergeschwindigkeit laufen so nur unter XMP/A-XMP/DOCP Profilen und nicht mit JEDEC, was sowohl für Intel wie auch AMD gilt, wie GamersNexus zu Recht dazu anmerkt. Kein Wunder auch, denn das besagte XMP/DOCP für den Speicherbetrieb gibt es schließlich immerhin seit 8 Jahren.

Deswegen machen auch beide Testweisen Sinn.
 
Zuletzt bearbeitet:
Naja was stört dich daran denn jetzt? Das ist ein 3900X und kein 5900X.
ich denke der Punkt ist das bei der alten Passmark Version der 3900 noch vor dem 9900 war und bei der neuen auf einmal Überraschung der Intel Deutlich flotter daher kommt !
da kann man schon auf die Idee kommen das Intel freundlich optimiert wurde, denn es kann doch nicht sein was nicht sein darf ;)

Seltsame Ansicht. Warum? Er hat ein paar Prozent weniger Leistung bei deutlich weniger Verbrauch. Machvich auch immer so und brauche selbst mit dem uralt i7, der alten GPU 160W, selten um die 190.
Wenn der Leistungsunterschied nicht fühlbar ist, ist Optimierung das Zauberwort. Also ja, man kann sich eine dicke GPU kaufen und ohne große Verluste deutlich effizienter laufen lassen. Das hat viele Vorteile.
Ich hab im Auto auch einen großen Motor, fahr den aber nicht auf Anschlag
geb ich dir zum Teil recht , aber die Rechnung geht auch nicht auf , in 1-2 Jahren wird er seine 2080Ti eben doch etwas aufdrehen , die CPU ebenfalls . wenn man dann rechnet denn verbrauch dank UV von heute auf 3 Jahre passt es eben nicht so ganz .
Ich hab auch noch jede meiner Grakas am Anfang UV , aber gegen ende der Laufzeit sagt man sich dann doch scheiss auf Verbrauch und dreht bis Anschlag , dagegen kann man ja auch nichts sagen .
Denn für die Umwelt ist es besser denn neu Kauf so lange zu auf zu schieben wie es geht, ob man dabei kurzfristig mehr verbraucht geschenkt ...

PS: der Vergleich mit dem Auto hinkt auch , eine High End Hardware ist kein Auto die ist eher ein Rennwagen und Rennwagen werden geschunden das sie nur 1m länger halten als das Rennen geht ;)
 
Zuletzt bearbeitet:
Zurück