News Core Ultra 200: Geleakte Intel-Folien sorgen für gemischte Gefühle bei der Gaming-Leistung

Wenn man nicht das beste vom besten benötigt, sind die Intels ja dennoch brauchbar.
Und für Büro Rechner für Word und Youtube sicher wieder super geeignet.
Intel müsste die CPU,s nur günstig genug Anbieten.
Klar es ist kein Quantensprung, aber besser als garnichts.
Es braucht nicht jeder die Power eines 9800X3D oder 9950X3D.
 
Sach Mal was für ein Gras raucht ihr denn?
Ein 7800X3D benötigt halt nur 50-70W bei 100% CPU auslastung beim Zocken. Mit Undervolting gar 40W.
Mein 5800X3D kann auch nicht mehr als 56W ziehen bei 100% CPU Last beim Zocken.
SC CPU Load 5800X3D Hurston.jpg

Da war so ein 14900K mit 330W schon eine andere Hausnummer. Davon 80W abziehen sind halt immer noch recht viel, und dafür hat die CPU dann halt auch weniger Gaming Leistung als ein 14900K.
Es reicht halt nicht um einen Wechsel zu Rechtfertigen.
 
Da war so ein 14900K mit 330W schon eine andere Hausnummer. Davon 80W abziehen sind halt immer noch recht viel, und dafür hat die CPU dann halt auch weniger Gaming Leistung als ein 14900K.

In welchem Spiel zieht ein 14900K bitte 330Watt? 250W soll die neue maximale Leistungsaufnahme von AL-S sein, das macht überhaupt keinen Sinn was du da schreibst.

Die 56W die AMD da angibt sind ebenfalls geschönigt, in HWinfo würdest du die GesamtLeistungsaufnahme sehen, die ist meist 30W höher.
 
Zuletzt bearbeitet:

"gemischte Gefühle bei der Gaming-Leistung"​


A) Ist doch eigentlich egal...:)
"Gaming" läuft ja nicht mit HD sondern dann mit einer RTX 5080/5090 in 4K
Da ist ja wohl die GPU wichtiger.

B) laut leak fast 14900k Performance bei 80 Watt weniger.
dann mal ein wenig OC + 200MHz mehr und das Ding rennt gut.
 
Zuletzt bearbeitet:
Die 56W die AMD da angibt sind ebenfalls geschönigt, in HWinfo würdest du die GesamtLeistungsaufnahme sehen, die ist meist 30W höher.
Dass stimmt nicht. PCGH Test. Angaben in Watt beim Spielen.
Im selben Test kam ein 14900K auf über 200W.
1728418176540.png

Der neue Intel wird also beim Zocken immer noch weit über 100W verbraten, und noch langsamer als Intels alte CPU bleiben.
Der Effizienz Index bei Videospielen sah nicht umsonst so aus, dass Intel noch nicht mal an die normalen Zen 3 von 2020 ran kam, und höchstens Zen 2 Niveau hatte. Wir dürfen gespannt sein ob Intel dieses mal an Zen 3 ohne X3D ran kommt.
Intel meilenweit hinter Zen 3.jpg

Intel ist auf AMD 2018 niveau.jpg
 
Zuletzt bearbeitet:
Bei den 56 Watt beziehe ich mich das Overlay, welches du eingeblendet hast.

1728419089499.png


Eigentlich sind die PPT der relevante Wert


Außerdem finde ich, wenn du schon irgendwelche Durchschnittswerte heranziehst, dann machs wenigstens für alle CPUs und cherrypick dir nicht die Sachen wie sie dir gefallen:

1728418817874.png


Würde man da jetzt stumpf 80 Watt von einem 13900K abziehen, wäre man fast im Schnitt auf X3D Niveau.
 
Zuletzt bearbeitet:
Bei den 56 Watt beziehe ich mich das Overlay, welches du eingeblendet hast
Das Overlay gibt halt ca den Verbrauch an den auch PCGH ermittelt hat.
Und ich weiß dass 14900K in Star Citizen über 200W fressen.
Hier ein Beispiel: 216W in Star Citizen (gepaart mit einer RTX4090)
1728420786723.png

Davon 80W abziehen ist immernoch doppelt so viel W Verbrauch wie ein 16 Kerner von AMD (7950X3D), und langsamer als die alte Intel CPU noch dazu. Es ist besser als nix, aber an AMD kommt es halt nicht ran.
 
Zuletzt bearbeitet:
Das Overlay gibt halt ca den Verbrauch an den auch PCGH ermittelt hat.

PCGH gibt einen Durchschnittsverbrauch für eine CPU an, du zeigst einen Screenshot von irgendeinem Spiel. Ich sag dir, dass zum Overlay noch mehr drauf kommt und das nicht die Leistungsaufnahme ist, weil die PPT ( zu sehen im HWInfo Screenshot) eigentlich der Verbrauch sind. AMD macht hier so ein wenig was wie bei RDNA2 mit TGP und TBP. Da wird ja auch nur gesagt "der Chip saugt X" den Rest lassen wir Mal außen vor...

Ich will auch überhaupt nicht ausdrücken, dass AL-S effizienter sein wird, mir ist nur wichtig, dass wir hier ein wenig bei den Fakten und Vergleichbarkeit bleiben und Dinge nicht schlechter Reden als sie sind
 
Hab mal Hwinfo mitlaufen lassen. (Hab im Hintergrund Star Citizen laufen)
Rechts dass AMD overlay, links HW Info. Kein Riesen unterschied wenn du mich fragst.
AMD Overlay.jpg

Da verbraucht der 14900K schon dass 4 Fache, und der 14900K ist neuer als mein 5800X3D.
PCGH sagt nicht umsonst Intel ist noch nicht mal auf Zen 3 Niveau von 2020 beim Gaming, sondern auf Zen 2 2018 Niveau.
 
Immer noch nix was mich bewegen würde vom 5800X3D aufzurüsten...

Und dann noch dieses Hybrid P/E Core Gedönst was per se zwar super klingt.. ich aber keinerlei Vertrauen in den Sheduler habe(egal ob Intel oder Windows}
Ich mag es einfach nicht
 
Nein noch lange nicht.
Die Rechenleistungen der Chips steigen nach wie vor sehr schnell und stark an, wenn auch nicht mehr derart exponentiell wie vor 20-30 Jahren.
Wir sind aber schon länger an einem Punkt angekommen, wo erstens für die allermeisten Anwendungen der meisten Leute mehr Rechenleistung einfach kein spürbarer Vorteil mehr ist (ob ich ein Programm/Tab/Speichervorgang/etc. in 0,4 oder 0,3 Sekunden erledigt habe spielt keine Rolle mehr) und zweitens wo kleinere Verbesserungen beispielsweise in der Spielewelt (durch hochwertigeres Raytracing bessere Schatten etwa) unverhältnismäßig viel Mehrleistung erfordern.

Dadurch entsteht der Eindruck, dass CPUs/GPUs nicht mehr wirklich schneller werden. Dass dem bei Weitem nicht so ist sieht man dann, wenn man Anwendungen hat die neue Chips gut ausnutzen können und tatsächlich viel Rechenleistung erfordern. Wer beispielsweise das gleiche Video auf einem 10900K, 12900K, 14900K (und wohl demnächst 285K) durch einen hochwertigen x265 Encode laufen lässt stellt schnell fest, dass CPUs durchaus in solchen Szenarien auch heute noch deutlich schneller werden.
Man muss vor allem auch bedenken, jedes Jahr ~10% mehr ist zwar relativ immer dieselbe Zahl.
Aber absolut gesehen steigt die Rechenleistung ja stärker an, quasi ein „Zinseszins“ Effekt.
 
Man muss vor allem auch bedenken, jedes Jahr ~10% mehr ist zwar relativ immer dieselbe Zahl.
Aber absolut gesehen steigt die Rechenleistung ja stärker an, quasi ein „Zinseszins“ Effekt.
Wenns jedes Jahr +10% sind wäre das eine Performanceverdopplung alle etwa 7,5 Jahre.
Das ist dann aber auch die tatsächlich praktisch im Schnitt beobachtete Performance - die dafür nötige Steigerung der theoretioschen Rechenleistung (und die Performance von Workloads die das sehr gut ausnutzen können) muss dafür aber weitaus stärker steigen.

Siehe auch Grafikkarten - eine 4090 ist beispielsweise in der Praxis im Mittel 50-70% schneller als eine 3090Ti vor ihr je nachdem was man wie bencht (Ausnahmen in beide Richtungen mal ausgenommen).
Die Rohleistung hat sich dafür aber von ~40 auf ~82 TFlops (FP32) mehr als verdoppeln müssen.


Bei den neuen Intels wird auch interessant sein wo die Rechenleistungswerte hingehen bei Workloads die theoretische Power fast perfekt ausnutzen (yCruncher beispielsweise).
 
Bulldozer 3.0?
Der war in Cinebench auch ziemlich gut, sah aber in Spielen kein Land und
zog ziemlich viel Strom aus der Leitung.
Alles deutet darauf hin, dass für Intel ihr Bulldozer Moment nicht mehr weit entfernt ist.
 
Zuletzt bearbeitet:
Hab mal Hwinfo mitlaufen lassen. (Hab im Hintergrund Star Citizen laufen)
Rechts dass AMD overlay, links HW Info. Kein Riesen unterschied wenn du mich fragst.
AMD Overlay.jpg

Das sieht beim 7800X3D anders aus. Da habe ich z.b. im Time Spy CPU Test ca. 35 Watt stehen, was völliger Quatsch ist. Anscheinend passt die Metrik mit Zen 3. Das ist bei einem Cinebench Run.

1728449898565.png

1728449927588.png


Warten wir die Tests ab, dass 9000X3D das Gamingkrönchen behalten wird gehe ich mit, die Frage die sich für mich stellt ist die Allroundperformance.
Da bin ich dann grundsätzlich gespannt wie das Gesamtpaket liefert. Was man auch nicht bei der Bewertung außer Acht lassen sollte, wie ARL-S durch RAM OC im Bereich Gaming noch zulegen kann
 
Zuletzt bearbeitet:
Die Frage ist: Sind wir schon bei der CPU-Konvergenz angekommen?
Ja.

Der Sweet Spot für Silizium liegt bei 3...4 GHz, alles über 4 GHz ist Overclocking. Ob das Overclocking jetzt vom CPU-Hersteller, von Mainboard oder vom User kommt, ist egal.

Intel musste aus Marketinggründen immer extremer an der Taktschraube drehen, bis sie mit 13th und 14th gen den Bogen endgültig überspannt haben. Deswegen müssen sie jetzt zurückrudern, selbst wenn die Architekturverbesserungen die Taktverringerung nicht vollständig abfangen können.

Und AMD steht vor dem gleichen Problem. Zen hatte diverse Kinderkrankheiten, die Zen 2 und Zen 3 ausgebügelt haben. Deswegen sind die 3000er und 5000er eingeschlagen wie Bombe. Es hat spürbare Verbesserungen gegeben.

Aber damit war Zen soweit optimiert, dass Zen 4 und Zen 5 nur noch bescheidene Verbesserungen bringen. Und prompt jammern alle rum und fordern, dass AMD den Weg von Intel geht und 60% mehr Verbrauch für 15% mehr Leistung freischaltet... :wall:


Ich lese das recht häufig, aber es stimmt meiner Meinung nach schlicht nicht. "Nur" 5% im Jahr sind nach einem Jahrzehnt halt doch was.

Aber halt nur 62% Mehrleistung nach 10 Jahren. Das hatten wir mal alle 18 Monate. Ich kann mich noch gut an die ct-Artikel erinnern, wo drin stand, dass sich unter 50% Mehrleistung ein CPU Upgrade nicht lohnt, weil man das in der Praxis eh nicht spürt.

Die fetten Jahre sind vorbei. Daher bin ich auch noch am Zweifeln, ob ich meinen 5800X3D gegen einen 9800X3D tauschen werde.
 
Zurück