Intel Core 12000: Kleinere i5- und i3-Modelle meist schneller als die Ryzen-Konkurrenz

DarthSlayer

Freizeitschrauber(in)
Strategie gerade mit vielen Einheiten schaffen es ganz gut die cpu aus dem tiefschlaf zu wecken. Shooter und mmog und viele andere games profitieren kaum von mehr als 4 Kernen. Und in HD spielt eh niemand mehr, wqhd ist mittlerweile schon unterster Standard. Habe selber doe rtx3060ti und intel i5 10400f. Der Intel wird dabei nichtmal auf Betriebstemp. warm
Das stimmt dass Shooter dann eher die Grafikkarte belasten wobei ich habe schon DOOM 4 das von 2016 auf allen 16 Kernen gespielt. So viel zur nur 4 Kerne. Keine Ahnung von wo Du den Bullshit hast aber schau Dir mal ein paar Systemanforderungen von neuen Spielen. Far Cry 6 8 Kerne. Nur um eines zu nennen
 

pommgreif

Kabelverknoter(in)
die sind bestimmt genauso sparsam wie der i9-12900k . mit der brechstange an schwache amds vorbei ziehen und dann noch sparsam sein ? alleine der i9-12900k verbraucht um seine leistung ausfahren zu können alleine schon 241 watt . da sollen die i3 aufeinmal super sparsam mit strom sein . verarschen kann man ja versuchen .
 

IICARUS

Kokü-Junkie (m/w)
Ein CPU-Limit kann zwar bei deutlich unter 100 Prozent Auslastung gemäß Windows-Anzeige vorliegen, aber einer gewissen Kernanzahl ist eine Single-Thread-CPU-Limitierung mit genauso diesem Ergebnis sogar die wahrscheinlichere und hier vermutlich gegeben. Aber die Schlussfolgerung "wenn die Grafikkarte nicht voll ausgelastet wird, herrscht ein CPU-Limit" stimmt keineswegs immer und hier ging es um die Wärmeentwicklung einer CPU in ausgelastetem Zustand. Ein CPU-Limit, dass schon teilweiser CPU-Auslastung auftritt, erlaubt darüber keine Aussagen.
Ich bin nur von BF 2042 ausgegangen, denn darum ging es im Grunde in meiner Aussage. Kenne natürlich auch andere Games wie z.B. ETS2 oder Cities-Skylines, wo es auch nach deiner Aussage zutrifft.

In diesem Game erreichte meine Grafikkarte nur eine Auslastung von 80% Auslastung mit meinem vorherigem 9900K Prozessor. Die FPS sind zwischen 70 und 80 FPS gelegen. Dann kam mein neuer 12900K rein. Verbaut wurde nur ein neues Mainboard und der 12900K Prozessor, der Rest ist identisch geblieben. An den Settings hat sich nichts geändert. Nun erreicht die Grafikkarte zwischen 90 und 93% und ich komme mit den FPS auf 120-130 FPS.

In einem Fall habe ich dann den Prozessor auf 5000/4000 MHz übertaktet, denn mit Stock erreicht der Prozessor etwa 4900/3700 MHz in diesem Spiel. Hiermit konnte ich nochmals 10 FPS gut machen und die Grafikkarte bekam ich sogar auf 99% ausgelastet.

Ich sehe es auch an der Leistungsaufnahme des Prozessors. Denn im GPU-Limit komme ich nicht über 55-75 Watt, im CPU Limit erreiche ich aber um die 100 Watt. In diesem Game schwankt die Leistungsaufnahme zwischen 90 und 100 Watt.

Natürlich kann ich auch 300 FPS erreichen, aber das hat jetzt nichts zu sagen, da es immer auf die Settings dazu mit ankommt. Meine FPS Angaben beziehen sich daher immer auf meine 3080 Grafikkarte und der verbauten Prozessoren, immer mit denselben Settings, die natürlich nicht knapp ausgefallen sind.
 
Zuletzt bearbeitet:

wishi

Freizeitschrauber(in)
Und jetzt stelle man sich vor, die Intel CPU´s währen im 7nm verfahren vom Band gelaufen, dann währe da noch mehr drin gewesen. :D:lol:
 

sonny1606

Freizeitschrauber(in)
Aber mit FHD macht eine Fette GPU wenig Sinn
Das war glaube ich der Ansatz
Richtig. Wer zockt den noch in fhd? Entweder Leute mit einem 10 Jahre alten pc oder esport spieler den 200fps wichtig sind. Also ich kenne keine Leute die nicht mindestens in wqhd zocken. Sieht man ja auch an den Monitoren die verkauft werden, das sind vorallem wqh/uhd.
 

DarthSlayer

Freizeitschrauber(in)
Richtig. Wer zockt den noch in fhd? Entweder Leute mit einem 10 Jahre alten pc oder esport spieler den 200fps wichtig sind. Also ich kenne keine Leute die nicht mindestens in wqhd zocken. Sieht man ja auch an den Monitoren die verkauft werden, das sind vorallem wqh/uhd.
Ich kenne einen Ex-Praktikanten von uns der einen 8 Kerner Intel seit letztem Jahr hat und dennoch 3 HD Monitore
 

RyzA

PCGH-Community-Veteran(in)
Richtig. Wer zockt den noch in fhd? Entweder Leute mit einem 10 Jahre alten pc oder esport spieler den 200fps wichtig sind.
Ich z.B. und ich habe keinen 10 Jahren alten PC und bin auch kein Progamer.
Also ich kenne keine Leute die nicht mindestens in wqhd zocken. Sieht man ja auch an den Monitoren die verkauft werden, das sind vorallem wqh/uhd.
Dann kennst du wohl nur HW-Enthusiasten. Aber wie ich schon mal schrieb: die meisten PC User haben FHD Monitore. Die sind immer noch in der Mehrzahl.
 

Registrierzwang

PC-Selbstbauer(in)
Wieso?
Für mich funktioniert das gut :ka:
Um mal bei einem Vergleich zu bleiben: Ein VW Käfer auf eine 4-spurige Autobahn bringen geht auch (Mindestgeschwindigkeit 60 Km/h erfüllt), aber ob es was bringt ist eine andere Frage.
Bei dem Vergleich ein Porsche Carrera GT2 RS auf einen Feldweg zu bringen wird die Sinnfrage gestellt, aber beim Vergleich mit dem Käfer ist alles gut ?
Eine RX580 bringt bei Spielen wie Cyberpunk 2077 mit Ultra-Settings in 4K sicherlich weniger als 10 fps.
Bei FullHD sieht das natürlich anders aus, da gehen sicherlich noch 30fps.
Trotzdem ist die RX580 eher für ältere Spiele und niedrigen Einstellungen bei höheren Monitor-Auflösungen geeignet. Daher bleibe ich bei der Aussage, das nicht nur der Monitor zur Grafikkarte passen muss, sondern auch die Grafikkarte zur Monitorauflösung. Mit meiner RTX 3060TI schaffe ich die 4K auch nur mit mittleren Settings mit über 30fps, da wirst Du bei der RX580 sicherlich noch weniger erreichen...
 

chill_eule

¡el moderador!
Teammitglied
Trotzdem ist die RX580 eher für ältere Spiele und niedrigen Einstellungen bei höheren Monitor-Auflösungen geeignet.
Aber das ist doch nicht sinnbefreit?
Meine Games kann ich auch in WQHD teilweise auf hoch spielen und erreiche meist auch 60FPS.
Der Sinn ist doch, dass man Spaß hat und nicht, dass man X FPS in Auflösung Y und alle Regler auf Anschlag erreichen muss :confused:
 

Incredible Alk

Moderator
Teammitglied
Sie können es auch Bockwurst 7 nennen, es wäre kein Unterschied.
Eine CPU die den Namen offiziell hat würde ich sofort kaufen. :sabber:

Aber zum Thema: für mich sind die "kleinen" CPUs alleine schon deswegen interessant, weil sie eben eine gute Alltagsleistung ab Werk liefern OHNE Hunderte von Watt rauszuballern. So ein 12400er oder 5600X der von mir manuell im UEFI auf 60W max eingebremst wird wäre ein super (Silent-)Upgrade für die Möhre meiner Frau. Da gehts nicht um die letzten 10% Performance und die zählt auch nicht die fps wenn ab und zu mal ne Runde Diablo (Resurrected) gespielt wird - der aktuelle 6600K ist im Vergleich zu den hier diskutierten CPUs trotz der ein oder anderen "Optimierung" eine Leistungskartoffel aber selbst der reicht noch für alles was gemacht werden soll aus (weswegen er ja auch noch nicht ersetzt wurde...).

Mal sehen wie lange die Kiste noch (schnell genug) läuft. Vielleicht wirds auch am Ende erst ein Ryzen 7600X oder ein i5-13600 oder sowas - nur eben im Betriebspunkt "effizient" bitte, Performance ist, man mag es kaum glauben, nebensächlich.
 

Rainer B. Trug

PC-Selbstbauer(in)
Im Grunde haut auch kein Prozessor hunderte Watt raus. In der Spitze vielleicht kurzzeitig, wenn man alle Schleusen im Bios öffnet, aber das ist für 5% Gewinn völliger Nonsens.

Ich habe mich jüngst genau darum gekümmert, da ich den 10700 noch gar nicht so lange habe. Mir war ja bewußt, daß ich mich verbrauchstechnisch von einem 4670 kommend auf den 8Kerner verschlechtere. Ist aber alles halb so wild.

Igor(slab) hatte kürzlich in einem Bericht zu einem emulierten 12400 auch Werte der Leistungsaufnahmen diverser Prozessoren gepostet, die sich je nach Spiel zwischen ~50w (5600x) und 125w einpendelten (5950x oder 11900k). Jeder mit einem etwas "normalerem" Modell wie meinem 10700 wird sich bei rund 100w wiederfinden. Ich wahrscheinlich noch darunter, da immer auf 60fps begrenzt, Kerne langweilen sich alle vor sich hin, trotz aller Einschränkungen im Bios. Das soll nicht heißen, daß es nicht ein gewaltiger Unterschied ist, ob 50 oder 100 Watt (objektiv ist das aus rationalen Gesichtspunkten ein Schlag in die Fresse für Intel). Aber ich hab's für mich als Intel-only-User (mein letzter AMD war ein Barton aus 2002 oder so) derart begründet, das es bei soundsovielen Spielstunden im Jahr vielleicht 30€ Unterschied sind. 5 Schachteln Kippen, 2x Kino, einmal halb voll tanken, es war mir wurscht.

Aber auch, weil der eigentliche Fresser ganz woanders hockt, nämlich als Graka senkrecht in einem Slot. Hier sind 400w Leistungsaufnahme bei den Spitzenmodellen auch nicht mehr weit weg, keine Ahnung, ob die 3090 das schon "geschafft" hat.

Unter'm Strich: Für deine Ansprüche da, Diablo, Briefmarken-Auflösung, im Grunde würde ich dir raten, kauf' dir egal was, Hauptsache, das Spiel läuft vernünftig. Für euer Anwendungsgebiet liest es sich eben so, als würde die Kiste eh dermaßen selten in Betrieb sein, daß es egal ob CPU 1 oder 2 eh kaum zu einem Unterschied größer 10€ pro Jahr kommen würde.
 

sonny1606

Freizeitschrauber(in)
In der aktuellen Zeit sind cpu's so unwichtig geworden. Man kann quasi planlos jede cpu kaufen so es ein core I/Ryzen der letzten 2 Gen bei AMD und letzten 3 Gen bei Intel handelt. Die Unterschieden in Sachen Leistung und Preis sind gering. Die mit Abstand größten Leistungs/Preis/Stromverbrauchs Faktoren liegen bei der gpu. Es ist quasi Wurst ob eine cpu 50€ mehr oder weniger kostet, 50W mehr oder weniger Verbraucht bei gpu die aktuell min 1000€ kosten und 300-400W ziehen.
 

sonny1606

Freizeitschrauber(in)
Kann man pauschal nicht sagen. Nicht jeder ist ein HighEnd Gamer.
Das stimmt aber selbst die billigsten/schlechtesten Einstiegs GPU's sind quasi teurer als eine non plus Ultra high End cpu wie I7 11700k/Ryzen 5800x. Ich rede natürlich von reinem gaming. Wenn man cpu power für irgendwelche Anwendungen braucht ist das natürlich was anderes. Ich würde aktuell sogar jedem zu so einem pci 4.0 8 kerner raten. Der reicht auch in 5-7 Jahren sicher locker aus um dann alle high End gpu's voll auszulasten. Da hat man sehr viele Leistungsreserver für die Zukunft.
 
Oben Unten