News Intel Arrow Lake: Deutliches Performance-Plus gegenüber Raptor Lake Refresh [Gerücht]

Intel ist scheinbar dabei sich noch ein Problem einzufangen was die CPU angeht

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ich hab mir das jetzt doch angesehen (eigentlich ein Unding in einem schriftlichen Forum ein VIdeo zu posten, ohne in 2-3 Sätzen zu beschreiben, was darin vorkommt und dafür sollen andere 10+ Minuten schauen worums geht?).
Wir haben das am Vormittag in der Arbeit ausprobiert.
Wir haben hier ein paar PCs (Intel i5 + iGPU) und Laptops.
Fazit: das ist ein Softwareproblem und hängt mit dem Energiesparen zusammen, kein Hardwareproblem.
Wir haben probiert
Intel only (also mit iGPU)
Intel + Nvidia
Intel + AMD

Und haben festgestellt: bei vielen Systemen ist das mal überhaupt nicht der fall. Wenn doch: zumeist reicht es bei den Windows-Energieeinstellungen und im Bios (C-State) Hand anzulegen. Hier läuft einfach der Treiber bzw die GPU langsam und die Treiber sind zu aggressiv beim Stromsparen.
 
Klar, da geb ich dir Recht, 20% für Intel 7 auf 20A ist wenig (sofern diese Folien nicht sowieso an den Haaren herbei gezogen sind :-P), aber ich glaube selbst AMD hat doch keine 20% bei gleiche Cores beim letzten mal geschaft (korrigier mich bitte wenn ich mich täusche).
Wie schon an mehreren Stellen erwähnt, wir reden hier von 3 Nodes, Intel 7, Intel 4, Intel 3 und Intel 20A, 20% bei gleicher TDP wären viel viel viel zu wenig!

Kommt drauf an was 20% bei dir bedeutet, Intels Folien deuten auf Leistung hin, was AMD relativ betrachtet eigentlich immer (knapp) geschafft hat. Leistungssteigerung bedeutet aber in dem Fall die Kombination aus IPC und Takt! Reine IPC Steigerungen von 20% in einer Generation sind dagegen eher selten, PCGH hat mal einen IPC Test gemacht, wobei IPC ist es eigentlich nicht mehr, von der wir reden. Aber bei dem Test damals (ich nehme mal die 3D Mark Werte), sieht man bspw. dass Zen zu Zen+ keine 5% ergeben, Zen 2 zu Zen + ergeben dann schon beachtliche 17%, Zen 3 zu Zen 2 dann herausragende 35%, was aber super selten ist. Bspw. hat Intel seit Skylake zu Alder Lake nur 37% geholt, in 6 Generationen! Von Sandy ausgehend (10 Generationen) sind es 78%, damit im Schnitt "nur" 6% je Generation.

P.S.
Aber wie gesagt die IPC über die wir so oft reden, hat eigentlich nichts mit dem Begriff zu tun, wenn wir Leistung pro Mhz sagen würden, wäre dies wesentlich näher an der Realität. Allerdings ist diese Leistung eben extrem UseCase abhängig und nicht sinnvoll meßbar.
 
Hast du nicht bei AMD auch die Aussagen für "sehr voll" genommen, dass man bei Starfield evtl. Einfluss nehmen könnte?
Du vergleichst eine "Folie" mit der fehlenden Unterstützung von DLSS? :ugly:
Ich finde es auffällig, wie viele an diese ominöse Folie glauben, weil Igors Lab sie veröffentlicht hat.
3 Nodes und 20% mehr Leistung? Viel zu wenig für den Aufwand den man betreiben musste! Der IPC Gain wird auch viel größer sein und in Richtung 30% gehen müssen.
Der Node hat doch mit dem IPC Gain nichts zu tun.
Und wie hoch dieser ist, weiß man nicht. Ich sagte nur Zen 4 brachte auch keine große Steigerung und deshalb wären Rückschlüsse einfach viel zu früh.
 
Zuletzt bearbeitet:
Die 20% sind nur der absolute Bestcase auf den Folien hier.
AMD hatte solche Sprünge von Zen2 auf Zen3 im Mittel, von 3 auf 4 wars etwas weniger. Aber die sagen wir mal zwischen 10 und 20% pro Generation haben sie die letzten Male schon eingehalten - was ja der Grund dafür ist dass Intel sich seit Zen3 (also Ryzen5000) derart quälen muss um mitzuhalten bzw. 250+ Watt reinschiebt um am Ende noch den Balkenvergleich mit 2% Vorsprung zu gewinnen.
Hier ist für mich interessant, wie lange man braucht um tatsächlich zu reagieren.
Klar, Intel hat früher ihre Architekturen sehr stark an den Prozess genäht (etwa der 3-4 Jahre zu späte Ice Lake), aber auch, dass man bei der Architektur nicht noch größer Umbut. Ok bigLITTLE, Tiles... aber die Kernarchitektur der P Kerne ist (was die IPC betrifft) seit Rocket Lake (was ja ICE/Tiger Lake entspricht, die 2015 fertig designed waren) kaum vorwärts gekommen. Der Riese schlaft noch immer, vor dem Arrow Lake Nachfolger "Lunar Lake"(nur mobile?) ist ja kaum besserung in Sicht, vielleicht überhaupt erst 2026 mit einer ganz neuen Architektur? Dann hätte man 10 (!) Jahre gebraucht um auf die Zen-Bedrohung zu reagieren. Etwas lächerlich für ein Unternehmen, dass grad alles rauswirft, was keinen Gewinn macht und sich voll auf die Tugenden - x86 CPUs - konzentrieren möchte
 
Du vergleichst eine "Folie" mit der fehlenden Unterstützung von DLSS? :ugly:
Hüben wie drüben sind es nur Spekulationen, hüben ging es ja nicht per se um das Fehlen von DLSS, sondern um das Gerücht, dass AMD an eben diesem Fehlen von DLSS einen Anteil hat. Hier geht es eben um das Gerücht hinsichtlich der Leistung.

Der Node hat doch mit dem IPC Gain nichts zu tun.
Und wie hoch dieser ist, weiß man nicht. Ich sagte nur Zen 4 brachte auch keine große Steigerung und deshalb wären Rückschlüsse einfach viel zu früh.
Der Node hat nichts mit einem IPC Gain zu tun, habe ich auch nicht behauptet. Ich habe gesagt, dass 20% Leistungssteigerung bei gleichzeitigem Beibehalt der TDP für insgesamt 3 Nodes (wobei man sich hier gerne streiten kann, ob es Full Nodes sind, oder eher 1 Full und 2 Half Nodes) viel zu wenig wäre.

AMD hatte einen Node gewonnen und 20-30% mehr Leistung bei gleichzeitigem Beibehalt der Leistungsaufnahme geholt, schon ein gravierender Unterschied zu 20% (im Best Case; diese müssten daher eher mit den 30% von Zen 3 auf Zen 4; eben auch BestCase) verglichen werden) und 3 (oder 2 Nodes).

Dann hätte man 10 (!) Jahre gebraucht um auf die Zen-Bedrohung zu reagieren. Etwas lächerlich für ein Unternehmen, dass grad alles rauswirft, was keinen Gewinn macht und sich voll auf die Tugenden - x86 CPUs - konzentrieren möchte
Ganz so ist es ja nicht!

Intel hat anders bspw. als AMD grundlegend andere Strukturen. Bei AMD basiert quasi alles, vom Notebook, über Desktop, zu Workstations und Servern auf einer einzelnen Architektur, das ist am Ende ja auch der riesige Vorteil den AMD derzeit zu haben scheint. Bei Intel ist die Entwicklung immer mehrgleisig gewesen und auch wenn die einzelne "Core" Struktur keine kompletten Neudesigns sind, so sieht man schon, dass man seit der 9th Gen einiges getan hat und gerade mit Alder Lake auch enorm was geschaffen hat. AMD hat ja auch bspw. in den Jahren 2003 bis 2011 auf die grundlegend gleiche Struktur K8 ff. gehört, seit 2011 dann auch Bulldozer (trotz keinem Erfolg) und erst seit 2017 vertraut man nun auf Zen, was aber auch seitdem nur Evolutionen sind und bis mind. 2025/2026 ist ja der aktuelle Fahrplan da, wird sich auch bis dahin nicht ändern.

Im Serverbereich hat Intel ja durchaus etwas mehr vorzuweisen, auch Meteor Lake ist ja grds. eine gute Gen, problem ist halt aktuell, dass die neuen Fertigungsstrukturen scheinbar ein massives Problem haben um Takt zu generieren. AMD hat hier einen geringen Vorteil, da sie mit weniger Takt die gleiche Leistung bringen, was aktuell scheinbar ein Vorteil ist, gerade mit Blick auf die Effizienz.

Ich bin mir auch nicht sicher, dass es soweit noch einmal vollständige Redesigns geben wird, der x86 Markt wird zunehmend ein "Spezialmarkt" und wird immer unwichtiger werden. ARM Designs kommen zunehmend in vielen vielen vormals x86 dominanten Bereichen zum Einsatz und erwecken preislich wie effizienztechnisch schon Begehrlichkeiten. Windows wird an ARM angepasst usw. Ich denke, wir werden in den nächsten Jahren zunehmend sehen, dass x86 ein Spezialmarkt wird, die Spannen geringer werden und der Fokus immer mehr und mehr in den ARM Bereich verschwinden wird.
 
Ich bin mir auch nicht sicher, dass es soweit noch einmal vollständige Redesigns geben wird, der x86 Markt wird zunehmend ein "Spezialmarkt" und wird immer unwichtiger werden.
Natürlich arbeitet man weiterhin an deutlichen Überarbeitungen.
Und was mit ARM möglich ist,ist ja auch mit x86 möglich (wenn man will)
 
Natürlich arbeitet man weiterhin an deutlichen Überarbeitungen.
Überarbeitungen streite ich auch nicht ab, aber ob es nochmal ein Zen! oder ein Core2Duo, oder ein Nehalem geben wird?


Und was mit ARM möglich ist,ist ja auch mit x86 möglich (wenn man will)
Nicht wirklich, x86 ist in vielen vielen Belangen in der Vergangenheit gefangen! Ohne da jetzt Zahlen zu haben, aber ich schätze mal, dass 50% eines x86 Chips nur der Kompatibilität wegen vorhanden sind. Genau das ist aber der Vorteil von ARM (noch), es ist nicht mit dem Müll der Vergangenheit zugemüllt.
 
Die 6Ghz des 14900K stimmen wohl. Recht schwach. Vielleicht steigt dadurch wenigstens nicht der Strombedarf.
 
Nicht wirklich, x86 ist in vielen vielen Belangen in der Vergangenheit gefangen! Ohne da jetzt Zahlen zu haben, aber ich schätze mal, dass 50% eines x86 Chips nur der Kompatibilität wegen vorhanden sind. Genau das ist aber der Vorteil von ARM (noch), es ist nicht mit dem Müll der Vergangenheit zugemüllt.
Nope. Weit daneben geraten. Das Kompatibilitätszeug ist ein (kleiner) Teil der Decode Einheit. Und selbst die nimmt deutlich weniger als 50% eines Kerns ein
5017e5_982e0e47d7c04dctkcg.jpg

 
Überarbeitungen streite ich auch nicht ab, aber ob es nochmal ein Zen! oder ein Core2Duo, oder ein Nehalem geben wird?



Nicht wirklich, x86 ist in vielen vielen Belangen in der Vergangenheit gefangen! Ohne da jetzt Zahlen zu haben, aber ich schätze mal, dass 50% eines x86 Chips nur der Kompatibilität wegen vorhanden sind. Genau das ist aber der Vorteil von ARM (noch), es ist nicht mit dem Müll der Vergangenheit zugemüllt.
und genau diese Annahme ist falsch. Aktuelle x86 Chips haben was die Transistorfläche betrifft wenige Prozent die der Kompatibilität wegen erhalten sind
Anders gesagt: ob Medien von RISC, CISC, X86,ARM usw, das ist im Prinzip nur so bedeutend wie das Papier auf dem du malst, es hat nichts mit Performance oder Effizienz deiner Berechnung zu tun
 
Zuletzt bearbeitet:
Nope. Weit daneben geraten.
Danke, hätte nicht erwartet, dass es nur so ein kleiner Teil ist. Denn wenn man sieht, wie "extrem" ARM aufholt hätte ich wirklich gedacht, dass x86 ein großes Problem ist.

und genau diese Annahme ist falsch. Aktuelle x86 Chips haben was die Transistorfläche betrifft wenige Prozent die der Kompatibilität wegen erhalten sind
Hab echt gedacht, dass dies einen nicht unerheblichen Teil ausmacht, aber ich lasse mich ja gerne in meiner Unwissenheit aufklären.

IPC heißt ja nichts anderes als Instructions per cycle, es sollte als Ergebnis eines solchen Vergleiches also eine Zahl herauskommen! Bspw. hat ein Zuse Z1 einen IPC von (bestenfalls) genau 1, sprich eine Operation pro Zyklus (skalare Architektur). Dies könnten wir sicherlich auch für heutige CPUs bestimmen, einzig würde es keinerlei Grundlage für eine Vergleichbarkeit bieten. Denn man wird in 99,9999% der Fälle eben keine Zahl herausbekommen, da alleine schon die gleichen Operationen unterschiedliche IPC Werte ausweisen könnten, es braucht nur mal eine Sprungvorhersage nicht identisch sein und schon hast du eine Operation weniger, da er erst mal "nachladen" muss.

Die IPC müsste der Definition nach über ein arithmetisches Mittel der verschiedenen Berechnungen berechnet werden, was per se schon wenig bis keinen Sinn machen würde, da eine Gewichtung (die ja nunmal vorgenommen werden müsste) schlicht einen Hersteller besser stellen würde (was unvermeidbar ist). Deswegen sehe ich auch nicht, dass der Begriff IPC derzeit noch eine Bedeutung hat, es interessiert doch schlichtweg nicht ob eine CPU 6437826478238 IPC oder 6756623562 IPC hat, wichtig ist am Ende eben das was ich erwähne, Leistung je Mhz (um eine Vergleichbarkeit von CPUs über einzelne Tests hinweg zu gewährleisten; bspw. werden oftmals die Topmodelle getestet, die kleineren dagegen nicht; um diese jetzt aber irgendwie vergleichen zu können, kann man eben mit der Leistung je Mhz herunterbrechen, wo sich die CPU in etwa einsortiert). Daneben gilt die Gesamtleistung, wo die IPC im Kontext steht, aber letzlich uns nicht mehr wirklich interessiert.

Wir sehen ja auch, wo wir den Begriff IPC (wie gesagt, wir können ja dabei bleiben) nutzen, meistens bei Gerüchten zu einer Mehrleistung einer kommenden CPU. Da ist es uns oftmals ganz wichtig, dass eine hohe IPC Steigerung gleichbedeutend mit einer guten CPU ist. Was oftmals so ist, da eine hohe IPC einen geringeren Takt benötigt und demnach oftmals sehr effizient zu Werke geht. Es ist aber eben auch nicht immer so, Zen hat glaube ich seit Version 2 eine höhere IPC, dennoch waren die Cores von Intel den Zen 2 noch überlegen.
 
Danke, hätte nicht erwartet, dass es nur so ein kleiner Teil ist. Denn wenn man sieht, wie "extrem" ARM aufholt hätte ich wirklich gedacht, dass x86 ein großes Problem ist.
ARM hat vorallem "extrem aufgeholt" weil z.B. ein Apple nun CPUs mit dieser ISA mit sehr viel Cache und extrem modernem Prozess fertigt.
x86 CPUs mit dem selben "Materialaufwand" wie er bei M1/M2 pro Performance Kern getrieben wird gibt es gar nicht.
 
Warum nimmt eigentlich fast jeder PCGH_User solche "Folien" für voll?
Solche Folien kann jeder in seiner Freizeit erstellen und "leaken".
Warum glauben Leute wie du immer, dass sie sich ein Urteil darüber erlauben können, was andere für voll nehmen? Lies Beiträge erst mal komplett. Dann wäre dir auch der Konjunktiv nicht entgangen. ^^

AMD hat mit Zen 4 nur 13% mehr IPC draufgelegt.
Nehmen wir an Arrow Lake schafft die gleichen Taktraten, dann ist das auch in diesem Bereich.
Irrelevant. Es ging erstens nicht um Zen 4. Und zweitens war die Rede von 1T Performance, nicht IPC. Was nützt dem Kunden 13% mehr IPC, wenn am Ende trotzdem nur 4% mehr 1T Performance rausspringt?

AMD hat ja schon angekündigt die Kernzahlen nicht mehr zu steigern.
Was wäre auch der Sinn? "Niemand" hat Verwendung dafür.
Das hat AMD mitnichten. Sie haben nirgendwo gesagt, die Kernzahl nicht mehr steigern zu wollen. Woher hast du diesen Unsinn? Es stehen lediglich weiterhin bis zu 16 Kerne für den Zen 5 Desktop Launch im Raum. Mehr erst mal nicht.
 
Gerüchte halt. Die Gerüchte lagen bei ArrowLake auch irgendwo bei 20 bis 30% und so wie das jetzt aussieht, könnten es weniger als 15% sein.
AMD ist aber nicht Intel. Was Intel in den letzten Jahren "geliefert" hat, war alles sehr unbeständig. Logisch dass man da Gerüchte mit Vorsicht betrachten sollte. AMD hat da deutlich konstanter geliefert. Und wenn man sich die optimistischen Aussagen von Papiermaster über Zen 5 noch vor dem Zen 4 Launch anschaut. Oder den "Leak" von Mr. Zen Jim Keller. Oder nicht zuletzt die Ankündigungen von AMD selbst, dann sollten etwa 20% relativ gut im Bereich des zu Erwartenden liegen. Ich würde eher vorsichtig bei den Leuten sein, die behaupten, es werden 30% oder gar mehr.
 
Zurück