Intel Raptor Lake: Gerüchte im Release im September

tigra456

Software-Overclocker(in)
Kinderkrankheiten seh ich auch keine mit dem 12700K… OC Ram war zu Beginn teilweise etwas zickig aber sonst….?
 

belle

PCGH-Community-Veteran(in)
Welche Kinderkrankheiten? Hier läuft alles supi ☺

Es gibt noch immer Games, bei denen die tollen E-Cores und der hybride Ansatz Probleme machen (Watch Dogs: Legion). Alder Lake ist vor allem durch die P-Cores und die Fertigung eine sehr gelungene Architektur geworden. Ich sehe es eher skeptisch, dass bei Raptor Lake nur mehr E-Cores Einzug erhalten.
Man mag die Schuld auf die Software schieben und über Watch Dogs lachen, dennoch gibt es noch Probleme. Normalen Usern, die entweder wenig Ahnung oder Lust auf Experimente haben, empfehle ich nichts über Core i5 12500.
(Korrektur: Bei zwingender Nutzung von Windows 10)
 
Zuletzt bearbeitet:

lucky1levin

Software-Overclocker(in)
Es gibt noch immer Games, bei denen die tollen E-Cores und der hybride Ansatz Probleme machen
In deinen link geht es um tests unter Win10 und ja, Windows 10 ist Schrott mit Alder Lake, Windows 11 hat das Problem jedenfalls nicht. Hab es auch mit dem neuen Watch Dogs getestet läuft alles wie es soll.

Unter Windows 10 hat man sogar das Problem das manche Games nicht starten da das Anti Cheat tool die E-Cores anscheinend als Cheat ansehen :ugly:

Aber wer die Plattform mit Win10 betreibt ist eh selber schuld.
 
Zuletzt bearbeitet:

lucky1levin

Software-Overclocker(in)
@belle

Gerne.

Musste aber auch erst im text suchen was für Windows er verwendet. Zumindest hat mich seine Probleme an meine Erfahrung unter Win10 erinnert.

Niewieder sag ich nur, Win10 kommt einfach nicht zurecht mit e-core.
 

derneuemann

Volt-Modder(in)
"Ganz interessant könnte das Thema Spannungsversorgung werden"

INTEL wird sich denken, wenn nVidia schon einen neuen Stecker (bis 600 Watt) "anleiert" und deren neue Gen bis zu 450 Watt verbraten darf/muss damit "Leistung" dabei rüber kommt, machen/können wir das auch bei unseren neuen CPU´s ... :ugly:

Die neue 12900KS darf sich ja jetzt schon 260 Watt genehmigen.

MfG Föhn.
Du meinst also ganz genau wie bei AMD ;)
CPUs 170W (unter bestimmten Umständen sogar weit über 200W) und die GPU wird auch mit 375W gemunktelt. Ja, das wären 75W weniger, als bei der bisher spekulierten RTX4090, mit 450W, aber da müsste man erst sehen, wie beide performen, gerade in modernen Games mit maximalen Details, also mit RT.
 

onkel-foehn

BIOS-Overclocker(in)
Du willst doch aber jetzt nicht allen Ernstes ein "Stromverbrat Battle" Green/Blue/Red machen ?!?
Die Muse hat meiner einer just nicht. Aber wenn drauf "bestehst", mach ich mir evtl. heut Nacht noch die Mühe ... :-P:bier:


p.s. hatte doch noch kurz Bock ;-) und ja, ALLES Cherry :nicken:

p.p.s. RT macht ein ein Game vielleicht schöner, aber NICHT besser (und das zu welchem "Preis" ? bzgl. FPS/€

MfG Föhn.
 

Anhänge

  • CPU Watt Games.jpg
    CPU Watt Games.jpg
    276,8 KB · Aufrufe: 6
  • 3090 550 Watt.jpg
    3090 550 Watt.jpg
    421,4 KB · Aufrufe: 5
  • 3090 Ti.jpg
    3090 Ti.jpg
    329,9 KB · Aufrufe: 6
  • Watt FPS.jpg
    Watt FPS.jpg
    286,1 KB · Aufrufe: 6
  • Watt Games.jpg
    Watt Games.jpg
    295,2 KB · Aufrufe: 6
Zuletzt bearbeitet:

derneuemann

Volt-Modder(in)
Du willst doch aber jetzt nicht allen Ernstes ein "Stromverbrat Battle" Green/Blue/Red machen ?!?
Die Muse hat meiner einer just nicht. Aber wenn drauf "bestehst", mach ich mir evtl. heut Nacht noch die Mühe ... :-P:bier:


p.s. hatte doch noch kurz Bock ;-) und ja, ALLES Cherry :nicken:

p.p.s. RT macht ein ein Game vielleicht schöner, aber NICHT besser (und das zu welchem "Preis" ? bzgl. FPS/€

MfG Föhn.

Wer spricht vom Battle, doch wenn man nun mal dazu neigt bewusst nur einen Hersteller zu kritisieren, dann muss man damit rechnen, das sowas angesprochen wird.

Es gibt genügend Tests, die zeigen, das Alder Lake in Spielen mit Ausnahme des 12900KS genauso effizient ist, wie ZEN 3, wieder mit Ausnahme des 5800X3D. Hier hat AMD just ein tolles Paket abgeliefert.

Das macht nach wie vor, nicht alle bisherigen CPUs zu Schrott.

Fps/W/€ wird doch immer so hoch gelobt. Demnach ein Hoch auf den 12400F. Oder den 5600, 5700X, 5800X3D, aber auch Intel´s 12600, 12700 laufen unter diesen Gesichtspunkten als ernste Konkurrenz, für jeden der eine Zockermaschine betreibt.

Das ganze sollte weit individueller betrachtet werden. Als Intel/Nvidia Pfui.


Was du über RT denkst ist dabei auch relativ. Denn die aktuelleren RT Umsetzungen zeigen das die Szenarie glaubwürdiger wird und demnach als besser einzustufen ist.

Ob du jetzt ohne RT spielen willst, oder ohne AA, ohne T&L, ohne HBAO, oder was auch immer und am besten in 720p. Weil alles Leistung kostet.

Maximale Details werden halt zunehmend mit RT bedeuten.
Außerdem muss man schon sagen, das RT bei Nvidia doch überwiegend gut nutzbar ist. Auch bei AMD kann man gut zurecht kommen, nur leider ist Nvidia hier meilenweit voraus, wenn RT etwas heftiger genutzt wird.

Also wo war das Problem nochmal...

Selbst deine eigenen Cherrygepickten Bilder könnte man jetzt auseinander nehmen, aber dazu habe ich keine Lust.

Jeder kann Tests lesen und interpretieren, oder nicht. Jedem, empfehle ich einfach nach den für sich relevanten Dingen zu schauen und Tests im ganzen zu lesen :)

Wer mit seiner Kiste als anspruchsvollstes Szenario, Spielen hat braucht nicht nach dem Cinebench Verbrauch zu gehen und umgekehrt.
Bei deinem CPU Verbrauchspic, kann man gut sehen, das der 12900K und der 5950X quasi gleich konsumieren. Nur am Rande.


PCGH hat Tests mit RT on gemacht, in denen die 3090 bis zu 40-80% schneller ist, in manchen Titeln. Ohne die TDP dazu anzuheben. Das bedeutet, in diesen Beispielen ist die 3090 sogar deutlich effizienter als eine 6950 ;)
 
Zuletzt bearbeitet:
Oben Unten