News Ryzen 9000: Gerüchte nennen neue Spezifikationen und erstmals ein mögliches Release

Da mir keine "+5 Prozent"-Werte für Arrow Lake vorliegen, kann ich zu deiner Leistungseinschätzung an sich nichts sagen.
Aber ich denke, eins ist klar: Wenn Intel bei einem Fertigungs-Sprung von zwei Full-Nodes sowie mutmaßlich einem echten Architekturschritt nur +5 Prozent Leistung bring, dann werden alle nur über Intels Fail reden. Wenn Intel wenigstens einen Bruchteil dieses mehr-als-von-Rocket-zu-Alder-Lake-Potenzials auf die Straße bringt, dann werden 10 Prozent nicht reichen und alle nur über stärkere Intels reden. So oder so reden also alle über Intel und niemand für einen Plus-10-Prozent-Chip der Konkurrenz. Wenn das Gerücht bezüglich der Leistungseckdaten recht hat, dann könnte es also auch bezüglich des deutlich-vor-ARL-Termins recht haben. Wenn nicht, dann braucht man über das Gerücht halt nicht weiter sprechen.
In Der Rohleistung erwarte ich nicht sehr viel von Arrow Lake, in der Effizienz hingegen sieht es nach erheblichen Verbesserungen aus. Und das Gesamtbild wäre auch relativ stimmig, wenn die 3D CPUs von Intel zeitgleich mit Arrow Lake kämen.
 
das Compute Tile auf den N3 von TSMC
Was ist bei dir der Compute Tile?
CPU-Tile? Der soll doch in Intels 20A vom Band laufen. Was ein Node hinsichtlich des Taktes bringen soll, erschließt sich mir auch nicht so ganz, denn eines ist uns allen doch wohl bewusst geworden, dass Intels Prozesse in den letzten Jahren insbesondere mit der Taktung ein großes Problem hatten. Da es sich hier eben auch um 20A von Intel handelt, wäre es eine deutliche Überaschung wenn man dies in Richtung 6Ghz bewegen könnte.


udem, sollten TSMCs 3nm in 2024 relativ taktfreudig sein,
Wo kommen die 3nm ins Spiel? Einzig beim SoC und den 2 darin wohl enthaltenen E-Cores wäre das denkbar, wobei das schon wieder witzig wäre, wenn die E-Cores in 3nm TSMC die P-Cores in Intel 20A ausbeschleunigen :-) Aber eben nur witzig und nicht denkbar.

Zudem sollte man die CPU-Mehrleistung nicht mit FPS-Zugewinnen verwechseln,
Wobei ich da bei AMDs Zen 5 eher eine 1:1 Rechnung sehe, da die Zugewinne vermutlich im Wesentlichen aus diversen Optimierungen kommen. Bei Intel darf man da deutlich gespannter sein, durch den Wechsel in ein MCM Design wird man dort im Desktop erstmals mit den daraus resultierenden Latenzen zu tun bekommen, meine Tendenz geht dazu; dass man hier zwar am Ende CPU seitig etwas Leistung gewinnt, im Paradebereich Gaming dafür eher verlieren wird. Aber nur eine Vermutung und sicherlich vollständig überkompensierbar durch Adamantine, sofern es denn kommt.

n Zugewinnen erwarten, wobei der realistisch-konservativere Wert vermutlich eher an der unteren Grenze zu verorten sein dürfte
sehe ich auch so, die Arch dürfte auch weitesgehend optimiert sein, so dass man hier nun auch im Wesentlichen Takt, Corecount, Effizienz abarbeiten dürfte (wobei CoreCount im Desktop halt mittlerweile erstmal irrelevant ist). Dazu wird man alles etwas aufbohren und verbreitern, aber Sprünge erwarte ich da nicht mehr.

Ja dann machen wir das mal,nur wie wird das die Umfrage dann aussehen?
wer ist bereit für 24 Kerne 1.000 EUR zu bezahlen? Recht simpel gehalten.

Nö. Das Chiplet würde ja genausoviel kosten. Ob ich da jetzt 8 größere oder 16 kleinere Cores hab spielt keine Rolle. Plus: man könnte dafür einen deutlich höheren Preis erzielen und noch mehr Marge fahren. Stand jetzt hab ich einfach kein Angebot, ich kann nur bezahlen was im Angebot ist.
Nö!
Vor allem nicht klar was du überhaupt meinst, ein 16 Core CCD (selbst wenn es C Cores sind) ist größer als ein 8 Core CCD, ergo mehr Chipfläche = teurer. Marge ist halt so ein Punkt. Wieviel kann man erzielen? Ich glaube bspw. dass bei Intel gar nicht soviele am Ende wirklich Interesse an den E-Cores zeigen, sondern viele die sehr performanten P-Cores wollen und 6Ghz Takt! Das da dann irgendwo noch 16 E-Cores mitgeliefert werden, na gut, was ich hab hab ich halt. Aber Mehrpreis? Schwierig zu schätzen.

Nein sie würden sich dumm und dusselig verdienen denn einen TR ohne V-Cache kauft kein Schwein der ernsthaft daddeln will aber eine CPU mit mehr Saft als nötig kaufen viele Gamer wiederum.
Ich sag doch, dass es Leute geben würde. Aber "viele" halte ich für ausgeschlossen. Dazu kommt eben, dass so ein Chip ja auch Entwicklungskosten hat und überhaupt erst ab einer gewissen Stückzahl in einen Gewinnbereich kommen kann. Diese Stückzahl wird auch gar nicht so gering sein und die Anzahl der User dagegen wird deutlich geringer sein.

Unnötigste CPU ever. Der wird doch nur verkauft um einen kleinen Einstieg in die HEDT Welt zu bieten für die Leute die auch die anderen Features (mehr Memory, mehr PCIe) gerne hätten aber nicht besonders viel Performance brauchen.
Gibt auch noch eine Million andere Gründe, bspw. gibt es Threadripper auch Server zertifiziert, ECC RAM usw. Ich persönlich würde aber auch immer eher zum 32 Core greifen, wenn man aber mal in Richtung Core LIzensierung denkt, ergibt so ein 24er vieleicht doch Sinn?

Die 7950er sind für 799 gestartet. Hast du das Gefühl 200 mehr lassen mich aus dem Mülleimer essen und alle die sich so einen geholt haben ? Mehrwert zu gering ? Für 25% Mehrwert zahlen die Leute bei einer 4090 auch 100% Aufpreis. Wen willst du hier für dumm verkaufen ? :-D
1.) Naja, bei all deiner Überheblichkeit und Arroganz frage ich mich schon, was du isst :-)
2.) 25% Mehrpreis sind eine ganze Menge, vor allem für welchen Mehrwert?
Eine 4090 bietet einen echten Mehrwert, Raster, RT Leistung satt. Was bietet der 24 Kern Desktop Chip? Im Gaming nichts, vermutlich wird es da sogar langsamer, aber eben maximal gleich auf. So, ich müsste also 25% Aufpreis (oder mehr) zahlen für einen etwas längeren Benchmarkbalken in einer Anwendung, die mich eigentlich nicht interessiert? Ja, es gibt sicherlich Menschen die mit diesen Balken etwas kompensieren müssen und kaufen würden, ja es gibt sicherlich auch Menschen die so eine CPU sinnvoll nutzen würden;
aber wie groß ist diese Schnittmenge?

in meinen Augen viel zu klein
 
Also vielleicht doch ein früherer Release als noch vor ein paar Wochen vermutet?

Ich werde wohl Zen 4 überspringen und mit dann irgendwann im Laufe des Jahres einen Zen 5 Achtkerner holen.
Eventuell auch einen mit 3D Cache.
Solange bei mir nichts vorher kaputt geht. :)
 
Wenn Intel architektonisch was verändert und zwei Nodes springt dann wird man mit deutlich mehr wie 15% IPC Gain rechnen dürfen.
1.) Was haben Nodes mit IPC zu tun?
2.) Selbst wenn Intel 20% IPC gewinnt (was enorm wäre); wo würde man stehen?
Nehmen wir mal Meteor Lake, Taktbarkeit bis 5,1Ghz (statt 5,8 Ghz im RLR (13900HX); man würde bei knapp 87% des Taktes landen, ergo 13% verlieren, selbst mit dann 20% IPC Gain würde man rechnerisch bei 104% vom RLR landen!

Keine Sorge, sind unfassbar viele Unwägbarkeiten drin, die aber eben in beide Richtungen pendeln können, wobei mein Szenario rechnerisch gar nicht soweit weg von den Gerüchten liegt, denn mit 15% IPC Gain und 10% weniger Takt, würde man vermutlich im Bereich SC +5% landen, im Bereich MultiCore dagegen deutlich mehr gewinnen, da der Takt nicht mehr begrenzt; 15% sind absolut vorstellbar.

Dann kann man auch auf Takt verzichten bzw. arbeitet dann evtl. sogar mit dem Ziel den zu verringern.
Genau; Intel ist dafür bekannt einen deutlichen Abstand zur Konkurenz in Kauf zu nehmen um die Effizienz hoch zu halten? Hast du seit der 9th Serie eigentlich alle Intelchips übersprungen?
 
1.) Was haben Nodes mit IPC zu tun?
Nichts und habe ich auch nicht geschrieben. Nodesprung mit Architektonischer Anpassung. Letzteres ist wird teilweise maßgeblich vom Node bestimmt. Bspw. wie viel Cache man verbauen kann. Und mit zwei Nodesprungs hat man auch deutlich Freiheiten gewonnen die man nutzen kann.
2.) Selbst wenn Intel 20% IPC gewinnt (was enorm wäre); wo würde man stehen?
Nehmen wir mal Meteor Lake, Taktbarkeit bis 5,1Ghz (statt 5,8 Ghz im RLR (13900HX); man würde bei knapp 87% des Taktes landen, ergo 13% verlieren, selbst mit dann 20% IPC Gain würde man rechnerisch bei 104% vom RLR landen!
20% sind auch ein Witz. Das hat Intel alleine mit Alder Lake in etwa hingelegt. Selbst der Sprung auf Raptor Lake zeigt schon etwa um die 10% bei gleichem Node.
Keine Sorge, sind unfassbar viele Unwägbarkeiten drin, die aber eben in beide Richtungen pendeln können, wobei mein Szenario rechnerisch gar nicht soweit weg von den Gerüchten liegt, denn mit 15% IPC Gain und 10% weniger Takt, würde man vermutlich im Bereich SC +5% landen, im Bereich MultiCore dagegen deutlich mehr gewinnen, da der Takt nicht mehr begrenzt; 15% sind absolut vorstellbar.
Gerüchte so früh vor dem Release sind nix wert.
Genau; Intel ist dafür bekannt einen deutlichen Abstand zur Konkurenz in Kauf zu nehmen um die Effizienz hoch zu halten? Hast du seit der 9th Serie eigentlich alle Intelchips übersprungen?
:klatsch:
Leider komplett am Thema vorbei. Schade dass man anscheinend nicht versteht dass Takt alleine keine schnelle CPU ausmacht. Bulldozer lässt grüßen ;)
 
Nichts und habe ich auch nicht geschrieben. Nodesprung mit Architektonischer Anpassung. Letzteres ist wird teilweise maßgeblich vom Node bestimmt. Bspw. wie viel Cache man verbauen kann. Und mit zwei Nodesprungs hat man auch deutlich Freiheiten gewonnen die man nutzen kann.
Cache hat keinen Einfluss auf die IPC

Daher nochmal der Hinweis, denn auch wenn du es bestreitest, du sagst hier und oben klar, dass zwei Nodes mehr Anpassungen ermöglicht als 10% IPC, was so einfach nicht stimmig ist. Dazu kommt, dass man nicht zwangsläufig auf Grund einer feineren Fertigung mehr Platz hat, denn es kommt ganz bedeutend auf die Kosten je mm² an und hier sind neuere Verfahren teurer (teils extrem deutlich teurer) als die gröberen Strukturen, dazu kommen mitunter erhöhte Yield Raten, die wiederum dafür sorgen, dass Chipfläche gespart werden muss.

Aber ja, in der Regel ist eine feinere Fertigung gut für mehr Tranistoren je CPU, dem würde ich natürlich nicht widersprechen. Dennoch darf man hier eben die Besonderheit nicht ausblenden, dass man einen neuen Ansatz wählt und ich hier vorsichtig bin. 20% IPC sind eine Seltenheit und gerade Alder Lake war eine riesige Überarbeitung der bestehenden Struktur, man hat bspw. die Anzahl der Executionports von 10 auf 17 erhöht, was zeigt, wie extrem Alder Lake aufgepusht wurde. Das Spiel zog sich bei Alder Lake eigentlich relativ gut durch und daher kam der schon recht enorme IPC Sprung zu Stande. Schaut man in die Vergangenheit, sind Werte um 20% in meiner Erinnerung eher selten bis nie erreicht worden (Klugscheiß an, selbst Alder Lake erreichte lt. Intel nur 19%)




20% sind auch ein Witz. Das hat Intel alleine mit Alder Lake in etwa hingelegt. Selbst der Sprung auf Raptor Lake zeigt schon etwa um die 10% bei gleichem Node.
jetzt doch wieder Node?

Gerüchte so früh vor dem Release sind nix wert.
dafür diskutierst du aber sehr hartnäckig

Leider komplett am Thema vorbei. Schade dass man anscheinend nicht versteht dass Takt alleine keine schnelle CPU ausmacht. Bulldozer lässt grüßen ;)
Hää? Du erzählst doch was davon, dass Intel (die ja in den letzten Generationen immer Effizienz für Maximalleistung geopfert haben) jetzt auf einmal lieber auf Leistung verzichtet um dafür effizienter zu werden. Ich weiß das alles und auch ein Zen läuft mit 4Ghz nochmal wesentlich effizienter als mit 5,7Ghz. Nur wird keiner der beiden Hersteller diese Schiene fahren, beide werden am Ende den längsten Balken haben wollen und dafür sehr wahrscheinlich (sofern nicht eine Wunderarch erfunden wird) Takt brauchen und diesen eben präferieren auf Kosten der Effizienz.
 
Das kann man so pauschal nicht sagen. Es gibt nur einen Punkt, ab dem mehr Cache sie für bestimmte Anwendungen nicht mehr erhöht.
Auch OK, doch zeigt die Realität, dass mehr Cache nur in einem sehr begrenzten Radius wirksam ist. Schau dir mal den 7950X3D an, dann weißt du was ich meine. Denn außerhalb des Gamings verliert er an Boden gegenüber seinem non Cache Konkurenten aus dem eigenen Haus. Eben weil der Cache bei AMD Takt kostet, ein Nachteil des Stackings.
 
Auch OK, doch zeigt die Realität, dass mehr Cache nur in einem sehr begrenzten Radius wirksam ist. Schau dir mal den 7950X3D an, dann weißt du was ich meine. Denn außerhalb des Gamings verliert er an Boden gegenüber seinem non Cache Konkurenten aus dem eigenen Haus. Eben weil der Cache bei AMD Takt kostet, ein Nachteil des Stackings.
Ich hatte es jetzt so verstanden, dass es um mehr Cache durch höhere Transistordichte allgemein ging und dann geht es nicht mehr nur um den gestackten Cache, sondern eventuell auch um interne High-Level-Caches und da könnte die Welt schon wieder ganz anders aussehen und die Nachteile des Stackings spielen dann auch keine Rolle.
 
Das kann man so pauschal nicht sagen. Es gibt nur einen Punkt, ab dem mehr Cache sie für bestimmte Anwendungen nicht mehr erhöht.
Ja und das ist dann wenn alles in den cache rein passt oder die Aufteilung schon so klein ist das nicht weiter angepasst werden kann an den cache und es keine missraten mehr gibt weil die vorhersage schon so optimal ist dann limitiert der Cache auch nicht. Das würde auch bedeuten warum ein großer l3 cache sowie l2 auch nicht mehr bringt. Dann müsste im umkehrschluss auch l1 Cache keine auswirkung mehr.
 
Cache hat keinen Einfluss auf die IPC
Natürlich hat sie das. Ohne Cache würden alle Einheiten verhungern und du führst quasi keine Insturktionen mehr aus.
Daher nochmal der Hinweis, denn auch wenn du es bestreitest, du sagst hier und oben klar, dass zwei Nodes mehr Anpassungen ermöglicht als 10% IPC, was so einfach nicht stimmig ist. Dazu kommt, dass man nicht zwangsläufig auf Grund einer feineren Fertigung mehr Platz hat, denn es kommt ganz bedeutend auf die Kosten je mm² an und hier sind neuere Verfahren teurer (teils extrem deutlich teurer) als die gröberen Strukturen, dazu kommen mitunter erhöhte Yield Raten, die wiederum dafür sorgen, dass Chipfläche gespart werden muss.
Dann liefere doch etwas handfesteres als mehr wie 10% sind nicht drin. Egal welche architektonische Iteration ich mir anschaue(Intel oder AMD) da war wesentlich war 10% locker drin, eher mehr.
Aber ja, in der Regel ist eine feinere Fertigung gut für mehr Tranistoren je CPU, dem würde ich natürlich nicht widersprechen. Dennoch darf man hier eben die Besonderheit nicht ausblenden, dass man einen neuen Ansatz wählt und ich hier vorsichtig bin. 20% IPC sind eine Seltenheit und gerade Alder Lake war eine riesige Überarbeitung der bestehenden Struktur, man hat bspw. die Anzahl der Executionports von 10 auf 17 erhöht, was zeigt, wie extrem Alder Lake aufgepusht wurde. Das Spiel zog sich bei Alder Lake eigentlich relativ gut durch und daher kam der schon recht enorme IPC Sprung zu Stande. Schaut man in die Vergangenheit, sind Werte um 20% in meiner Erinnerung eher selten bis nie erreicht worden (Klugscheiß an, selbst Alder Lake erreichte lt. Intel nur 19%)
Stimmt siehe Zen1->2 Zen2->3 Zen3->4 oder Skylake -> Alderlake. Selbst eine relativ kleine Iteration wie Raptorlake liefert rund 10% und nun soll Intel mit den Freiheiten von zwei Nodesprüngen nicht in der Lage sein 20% zu toppen?
jetzt doch wieder Node?
Lies doch mal den Kontext. Ein Node beeinflusst deine Architektur nunmal. Sowas geht Hand in Hand...
dafür diskutierst du aber sehr hartnäckig
Wenn man vehement verkaufen will dass ein Sprung von 20% IPC hoch wäre was bisher sowohl AMD mit jeder Zen Iteration abgeliefert hat und Intel bei größeren Architektonischen Anpassungen ebenfalls geschafft hat dann ist das leider lächerlích und da argumentier ich halt gegen ;)
Hää? Du erzählst doch was davon, dass Intel (die ja in den letzten Generationen immer Effizienz für Maximalleistung geopfert haben) jetzt auf einmal lieber auf Leistung verzichtet um dafür effizienter zu werden. Ich weiß das alles und auch ein Zen läuft mit 4Ghz nochmal wesentlich effizienter als mit 5,7Ghz. Nur wird keiner der beiden Hersteller diese Schiene fahren, beide werden am Ende den längsten Balken haben wollen und dafür sehr wahrscheinlich (sofern nicht eine Wunderarch erfunden wird) Takt brauchen und diesen eben präferieren auf Kosten der Effizienz.
Zitier das mal bitte. Ich sehe nicht wo ich davon spreche dass sie effizienter werden wollen. Der Takt entscheidet nicht alleine über den verbrauch und auch nicht alleine über die Leistung.
 
Ja und das ist dann wenn alles in den cache rein passt oder die Aufteilung schon so klein ist das nicht weiter angepasst werden kann an den cache und es keine missraten mehr gibt weil die vorhersage schon so optimal ist dann limitiert der Cache auch nicht. Das würde auch bedeuten warum ein großer l3 cache sowie l2 auch nicht mehr bringt. Dann müsste im umkehrschluss auch l1 Cache keine auswirkung mehr.
Es würde erst keinen Unterschied mehr machen, wenn alles in den L1-Cache passt. Es macht nun mal einen Unterschied für die Performance, auf welcher Cachestufe sich die Daten befinden.
 
achso,wenn alles in L2 cache schon passt,dann gibt es zwar noch einen kleinen boost aber ist nicht mehr so groß wie bei den meisten anderen Programmen.Also müsste erst mal der L1 Cache von der Größe her noch wachsen,das es dann wirklich 0 Wirkung auf den Cache mehr hat.Und was sagt es denn aus wenn es schon beim L2 Cache die Größe völlig ausreicht?
 
Egal welche architektonische Iteration ich mir anschaue(Intel oder AMD) da war wesentlich war 10% locker drin, eher mehr.
1000037943.jpg

Soviel zu, ich bin mir relativ sicher, Alder Lake bspw. legt gerade einmal um 7% zu (4C/4T mit 3,2Ghz fix und 3D Mark), in Spielen ist es teils mehr, aber dort ist halt der fast doppelte Cache von Vorteil. Dort wo Cache keine Rolle spielt, werden es also eher 5 bis 8% sein.
 
Anhang anzeigen 1450162
Soviel zu, ich bin mir relativ sicher, Alder Lake bspw. legt gerade einmal um 7% zu (4C/4T mit 3,2Ghz fix und 3D Mark), in Spielen ist es teils mehr, aber dort ist halt der fast doppelte Cache von Vorteil. Dort wo Cache keine Rolle spielt, werden es also eher 5 bis 8% sein.
Ok beim Cherrypicking kann man nicht gewinnen....
Aber deine Schlussfolgerung passt einfach nicht. Wenn man sich Cinebench Singlecore Scores anschaut liegt 12th gen so brutal vor 11th Gen! Da sind es keine 20% zu Skylake mehr sondern geht eher Richtung 30-40%. Und das Programm profitiert 0 vom Cash, siehe X3D Ergebnisse die sich nicht absetzen können.
1706293127755.png

1706293142281.png

Am Ende ist IPC kein einzelner Wert den man mit einem Programm abtesten kann. Es schwankt entsprechend hat man bessere und schlechtere Ergebnisse.
 
Ok beim Cherrypicking kann man nicht gewinnen....
Aber deine Schlussfolgerung passt einfach nicht. Wenn man sich Cinebench Singlecore Scores anschaut liegt 12th gen so brutal vor 11th Gen! Da sind es keine 20% zu Skylake mehr sondern geht eher Richtung 30-40%. Und das Programm profitiert 0 vom Cash, siehe X3D Ergebnisse die sich nicht absetzen können.
Anhang anzeigen 1450168
Anhang anzeigen 1450169
Am Ende ist IPC kein einzelner Wert den man mit einem Programm abtesten kann. Es schwankt entsprechend hat man bessere und schlechtere Ergebnisse.

Später, hier stand quatsch
 
Sehr schön, der 9800X3D wird dann meinen 2500K wohl endgültig in Rente schicken !
Aber je nachdem wie Arrow Lake wird könnte ich auch Intel treu bleiben :-)

Luxusprobleme, ich weiß. Aber irgendetwas sagt mir, dass Intel bei Arrow Lake den Cache ordentlich erhöhen wird + effizienter wird. Raptor Lake war ja mal sowas von ineffizient da sträuben sich einem die Nackenhaare :wall:
 
Zurück