Alder Lake & Sapphire Rapids: Intel sieht AMDs Erfolgszeit am Ende

Schauen wir mal lieber erst wie der Scheduler in Win 11 sich mit dem Thread Director in Alder Lake verstehen wird... Wenn evtl. Kinderkrankheiten ausgemerzt sind könnte sich so ein 12900K auch in der Anwendungsleistung mit nem 5900X anlegen...

Ich persönlich freu mich auf Alder Lake und Sapphire Rapids. Denke aber nicht, dass Intel direkt die Leistungskrone komplett an sich reißt. Was die Spieleleistung angeht: Sicherlich, aber bei Anwendungsleistung wird AMD wahrscheinlich nochmal mit Zen 4 noch die Nase ein wenig vorne haben. Vor Allem, wenn die Gerüchte von nem Mainstream 24 Kerner und Server 96 Kerner stimmen sollten... Und wer weiß wie Zen 5 mit dem gleichen Konzept von Alder Lake performen wird... Der Leistungskrieg ist definitiv noch nicht entschieden..
In der Zwischenzeit: Endlich mal neues Silizium mit neuer Fertigungstechnik von Intel und dann noch gleich mit dem neuem Ansatz. Da würde ich gerne mal wieder Hand an nen Intelprozi legen. Nach gefühlt 6 Jahren Skylake und 2 Jahren Intel Abstinenz ;) ...
Ja, schon klar, ARM hat big.LITTLE schon lange, aber dass hier wird imho ehr so big.MIDDLE. Quasi en 11900K mit nem 6700T on Top. Und ja ich weiß, Rocket Lake ist genau genommen nicht mehr Skylake...
Der einzige Wermutstropfen bei Sapphire Rapids ist, dass es keine volle CXL 1.1 Unterstützung gibt, aber naja...
So bleibt Resizable BAR also wohl noch ein wenig von Bedeutung... Und alle scheinen eh auf CXL 2.0 zuwarten.
Der eine PCIe 5.0 x16 Slot auf Z690 holt mich dagegen nicht hinter Ofen hervor. Sicher nice to have, aber es gibt noch keine Grafikkarte, die PCIe 4.0 ausreitzt und ich glaube nicht, dass RTX 4000 bzw. RDNA3 das volle Potential von PCIe 5.0 nutzen werden und dass jemand da per Adapter ne 30 TB E3.L SSD reinstöpselt... (Ne Videoidee für Linus?!)
Ja genau, die M.2 SSD an der CPU und alle anderen Slots vom PCH werden PCIe 4.0 bleiben.

Edit: Und ja, endlich werden Nerds wieder gebraucht! Erklär mal nem Normalo, dass der 6+0+32 Prozi schneller ist als 2+4+96 wird bestimmt lustig...
 
Zuletzt bearbeitet:
Ich glaube, ich habe eine sehr aktive Abneigung gegen Marketinggeblubber entwickelt.

Interessant werden für mich ab 2022 die Verhältnis-Entwicklungen für
Gamer GPU Intel-vs-NVidia-vs-AMD
Prof./AI/.. GPU Intel-vs-NVidia-vs-AMD
Mining GPU Intel-vs-NVidia-vs-AMD
Office GPU/APU Intel-vs-NVidia-vs-AMD
Mobile GPU Intel-vs-NVidia-vs-AMD

Desktop CPU Intel-vs-AMD
Mobile CPU Intel-vs-AMD-vs-ARM-vs-Apple
Server CPU Intel-vs-AMD-vs-ARM

Es ist einfach viel und überall gleich alle zu schlagen halt ich für etwas zu viel Marketing. Kann mir nicht vorstellen, dass die Konkurrenz in allen Bereichen schon Winterschlaf macht.

Ich finds ja eigtl. auch gut, dass Intel, abgesehen von der angestrebten Marktherrschaft im CPU-Bereich, auch bei den GPUs mit mischen will. Ich kann nur diesen ganzen utopischen Voraussage-Marketing-Aussagen einfach nichts abgewinnen ...
 
Zuletzt bearbeitet:
guckt euch mal an, wie viel Kraft ihr in eure Marke steckt.

Ich bin AMD Sympathisant, das bedeutet aber nicht, dass ich mein Hirn ausschalte und jeden Mist zwanghaft schön Rede. Wenn etwas im Argen liegt, dann sage ich das auch so, wenn jemand sich etwas zwanghaft schönredet, dann muß er damit rechnen, dass ich widerspreche.

Ich hoffe jedenfalls, dass AMD noch einige Zeit Gelegenheit haben wird, ordentlich Marktanteile zu erobern, aber ich werde es nicht zwanghaft in Abrede stellen, wenn Intel die besseren oder innovativeren Produkte hat.

Man kann fast sicher sein, am Ende des Threads steht ein pro Nvidia oder pro Intel Beitrag.

Da kennst du mich nicht gut. Ich war und bin hier einer der größten Kritiker von Nvidias VRAM Geiz (RTX 3080Ti bis 3080Ti), das habe ich angekreidet wie kaum ein anderer (und ich habe mit FC6 recht bekommen). Ich mache das aber eben auch bei AMD, wenn die ihre verhältnismäßig gurkige RX 6600XT ins Feld schicken.

Ich habe auch immer angekreidet, dass Intel von 2012 bis 2017 seine CPUs, mit mehr Kernen, künstlich zurückgehalten hat. Genauso habe ich den Mist mit dem Userbenchmark kritisiert.

(...) und dazu erzählt ihr einen Unsinn, (...)

Wo habe ich denn bitteschön Unsinn erzählt? Führe das mal näher aus, alles entspricht den Tatsachen.

(...) dass ich mich oft frage ob das überhaupt noch unter freie Meinungsäußerung fällt, aber bitte.

Oh wie nett, du erlaubst es uns unsere Meinung zu äußern.

Mich würde interessieren, wie es aussieht, wenn du nicht so gnädig bist. Rufst du dann die 110 an und verlangst, dass sie augenblich etwas dagegen tun, dass jemand AMD kritisiert :ugly:

Ich bin damit im Frieden.

Der Absatz oben läßt anderes vermuten.

Da liegt der Hase im Pfeffer. Es wird keine Gaming-GPU in diesem Zeitraum geben, die PCIE 5.0 braucht. Das ist nur Prestige ohne einen realen Nutzen für uns Prosumer weit über 2023 hinaus.

Schwer zu sagen, eventuell geizt AMD bei der 7000er oder 8000er Serie wieder mit Lanes, wenn die PCIe 5.0 verwenden. Quasi 8 Lanes für die oberen Karten, 4 Lanes für die unteren Karten und 16 Lanes nur für das Spitzenmodell.

Wobei das ein wirklicher Anwendungsfall wäre: 8 Lanes für die Graka und dann hat man nochmal 8 Lanes für PCIe SSDs oder andere Karten. Funktioniert auf meinem Mainboard mit PCIe 3.0.

Ich sehe den praktischen Nutzen bei PCIe 5.0 SSDs, das ist ein Vorteil, den man tatsächlich spüren könnte, wenn auch nicht so viel.
 
Alder Schwede (no pun intended).

Manche hier sind so extrem toxic und holen irgendwas von vor 20 Jahren raus wenn das blaue Kalb angegriffen wird.

Habt ihr nen Werbevertrag mit Intel/AMD oder was da los?
Hört doch mal auf zu streiten und euch so billig anzupflaumen wegen nem Hardware Standard. Meine Güte.

Ist doch super wie sich die Dinge für uns entwickeln. Dank AMD baut Intel das erste mal seit nem Jahrzehnt was anderes als 4-Kerner und der Markt bewegt sich. Da kann man als unvoreingenommener User doch nur dankbar sein.
 
guckt euch mal an, wie viel Kraft ihr in eure Marke steckt.
Man kann fast sicher sein, am Ende des Threads steht ein pro Nvidia oder pro Intel Beitrag . Darauf achtet ihr schon. Mag sein das es hier mehr AMD Sympathisanten gibt. Den Zwang hier die eigene Marke am Ende gut und die andere Seite samt deren Fans schlecht darzustellen habt eindeutig ihr auf eurer Seite und dazu erzählt ihr einen Unsinn, dass ich mich oft frage ob das überhaupt noch unter freie Meinungsäußerung fällt, aber bitte. Jeder normal begabte Mensch, der das hier verfolgt, wird das auch erkennen können. Ich bin damit im Frieden.

Viele Grüße
Weder Intel noch Nvidia ist "meine Marke" und ich achte auch nicht darauf dass am Ende jedes Threads ein "Pro" Beitrag diesbezüglich steht. Schau doch mal im Thread nach in welche Richtung, und mit welchen Argumenten / Behauptungen, zuerst geschossen wurde. Auch habe ich niemanden "schlecht" dargestellt, genau so wenig wie @Pu244 der nur darauf hingewiesen hat dass es auch auf AMD Seite einige Fails gab und die AMD Fans wie ein Fähnchen im Wind mit "ihrer Marke" umschwenken.

Es ist ja reproduzierbar was hier passiert, in "Intel / Nvidia" Threads wird scharf der Hersteller kritisiert, und Leute die "Pro" Argumente bringen werden angegangen.

In "AMD" Threads wird gehyped, jeglicher "Kontra" Kommentar ist sowieso Unsinn und eigentlich sollten die vermeintlich "Blauen / Grünen" dort gar nicht kommentieren.

Jeder normale intelligente Mensch der das liest lacht sich doch kaputt über diese Doppelmoral...

Alder Schwede (no pun intended).

Manche hier sind so extrem toxic und holen irgendwas von vor 20 Jahren raus wenn das blaue Kalb angegriffen wird.

Habt ihr nen Werbevertrag mit Intel/AMD oder was da los?
Hört doch mal auf zu streiten und euch so billig anzupflaumen wegen nem Hardware Standard. Meine Güte.

Ist doch super wie sich die Dinge für uns entwickeln. Dank AMD baut Intel das erste mal seit nem Jahrzehnt was anderes als 4-Kerner und der Markt bewegt sich. Da kann man als unvoreingenommener User doch nur dankbar sein.
Ach, in "Intel / Nvidia" Threads wird auch ständig rausgeholt was die Firma vor 5-10-20 Jahren böses gemacht hat. Da tun sich die User nichts, bei Nvidia ist es oft der RAM auf den 970er Karten und bei Intel häufig die geschönten Benchmarks. Mein Standpunkt: Alle Firmen haben Dreck am Stecken.

Ich zitiere mich hier mal selbst:

Schau doch mal im Thread nach in welche Richtung, und mit welchen Argumenten / Behauptungen, zuerst geschossen wurde.

Und ich stimme Dir beim letzten Punkt zu, Konkurrenz belebt den Markt. Ich freu mich auf Ende 2022, da wird entweder Zen4 oder Raptor Lake gekauft.
 
Wenn wer liefern kann dann Intel, die könnten Nvidia und AMD kaufen. Was mach Intel in einem Quartal 20 Milliarden?
Weder Intel noch Nvidia ist "meine Marke" und ich achte auch nicht darauf dass am Ende jedes Threads ein "Pro" Beitrag diesbezüglich steht. Schau doch mal im Thread nach in welche Richtung, und mit welchen Argumenten / Behauptungen, zuerst geschossen wurde. Auch habe ich niemanden "schlecht" dargestellt, genau so wenig wie @Pu244 der nur darauf hingewiesen hat dass es auch auf AMD Seite einige Fails gab und die AMD Fans wie ein Fähnchen im Wind mit "ihrer Marke" umschwenken.

Es ist ja reproduzierbar was hier passiert, in "Intel / Nvidia" Threads wird scharf der Hersteller kritisiert, und Leute die "Pro" Argumente bringen werden angegangen.

In "AMD" Threads wird gehyped, jeglicher "Kontra" Kommentar ist sowieso Unsinn und eigentlich sollten die vermeintlich "Blauen / Grünen" dort gar nicht kommentieren.

Jeder normale intelligente Mensch der das liest lacht sich doch kaputt über diese Doppelmoral...


Ach, in "Intel / Nvidia" Threads wird auch ständig rausgeholt was die Firma vor 5-10-20 Jahren böses gemacht hat. Da tun sich die User nichts, bei Nvidia ist es oft der RAM auf den 970er Karten und bei Intel häufig die geschönten Benchmarks. Mein Standpunkt: Alle Firmen haben Dreck am Stecken.

Ich zitiere mich hier mal selbst:



Und ich stimme Dir beim letzten Punkt zu, Konkurrenz belebt den Markt. Ich freu mich auf Ende 2022, da wird entweder Zen4 oder Raptor Lake gekauft.
Du merkst es nichtmal, aber dich könnte man locker in der Werbung verwenden. Nicht Böse gemeint.
 
Ich wechsele doch nicht alle 1 bis 2 Jahre mein Board und die CPU. Dafür hab ich echt noch zu viel Leben :ugly:

Hatte zuvor 8 Jahre lang einen i5 2500k drin und 2019 direkt zum Release der Ryzen 3000 bei Mindfactory den 3700x samt neuen Kühler, RAM und Board bestellt, später noch ein neues Gehäuse usw.. Der Unterschied war echt krass. Und für Intel müsste ich (gefühlt) jetzt noch ein neues Netzteil bestellen, nee :schief: Ich hoffe, dass der 3700x auch so wenigstens 7-8 Jahre drin bleiben kann. Aber vermutlich bleibt AMD bei dem Tempo und haut sicherlich irgendwann die nächsten Kracher raus. Für uns Kunden ist es doch hervorragend.
 
Wenn wer liefern kann dann Intel, die könnten Nvidia und AMD kaufen. Was mach Intel in einem Quartal 20 Milliarden?
Intel hat 2020 knapp 21 Milliarden $ Gewinn gemacht. Pro Quartal macht Intel um die 20 Milliarden Umsatz. Kommt jetzt drauf an was Du gemeint hast.

Nvidia Marktkapitalisierung: 517,50 Mrd. USD
AMD Marktkapitalisierung: 125,71 Mrd. USD
Intel Marktkapitalisierung: 219,00 Mrd. USD

Mal eben kaufen kann Intel keinen von beiden.

Du merkst es nichtmal, aber dich könnte man locker in der Werbung verwenden. Nicht Böse gemeint.
Werbung für wen? Vielleicht bewerbe ich mich da mal. :D
 
Ein Wort: Fertigung.

AMD hat in der Vergangenheit nahezu immer die besseren Preise gemacht. Deswegen bleibt bei Endkunden in Erinnerung, sie hätten "oft" die besseren CPUs gemacht. Meistens gab es in höheren Preisklassen aber gleichwertige Intels, die aber halt kaum jemand mit Ahnung in Betracht gezogen hat. Rein technisch konnte aber selbst der viel gescholtene Pentium 4 in der 130 nm Generation mit den Athlon XP mithalten, und als Extreme Edition sogar einen Gleichstand mit den ersten Athlon 64 aushandeln, wenn man Anwendungen und Multimedia mit in die Gleichung nimmt. Hat zwar keinen interessiert, weil die EE schweine teuer war und mit AMDs Server-Rebrand FX verglichen wurde – vom Fertigungsaufwand her war sie aber tatsächlich genauso nah an Claw- wie an Sledgehammer. Genauso verzerrt ist oft das 2017er Bild: "Ryzen vor Core i7" stimmt nur solange, wie man sich auf Kaby Lake konzentriert. Broadwell E und Skylake X waren stärker, haben je nach Anwendung (und in Spielen sowieso) sogar Threadripper geschlagen, wenn man bereit war Intels absurde Aufpreise für "High End" zu zahlen.

Man hat aber jedesmal an den Quartalsergebnissen gesehen, dass AMD dieses bessere Preis-Leistungsverhältnis nicht durch leistungsfähigere Technik, sondern durch kleinere Margen geschafft hat. Ausnahmen, in denen AMD auch technisch klar vorne lag, gab es in der gesamten Geschichte nur dreimal:
- Zur Jahrtausendwende, als die alternden Coppermine und der schrottige Willimette gegen K7 und Thunderbird verloren
- Fünf Jahre später, als Prescott nicht als "Pentium V" den immer weiter skalierenden Athlon 64 Paroli bot, sondern die historische Position von Netburst als leistungsschwache Herdplatte zementierte. (Dabei war Netburst als leistungsstarke Herdplatte konzipiert. :-D)
- Seit 2019, weil Intel nur noch TDPs aber kaum noch Leistung geschweige denn Kernzahlen steigert.
Gemeinsamkeit aller drei Punkte? 2000 verzögerte sich die 130-nm-Fertigung, Williamette hätte es nie geben sollen. 2005 hatte der 90-nm-Prozess absurd hohe Leckströme und einen Spannungsbedarf jenseits der Erwartungen. Und das Intel nach 2017 vier Jahre lang an 10 nm nachgebessert hat, sollte jeder noch in Erinnerung haben. Da hatten sie verdammt viel Glück, dass Global Foundries genauso unfähig war, sonst wäre AMD nämlich schon zwei Jahre vor Zen 2 durchgestartet, anstatt "nur" gleichzuziehen (und erneut die viel besseren Preise zu machen). Aber der entscheidende Faktor war und ist immer:
Die Fertigung.

Und genau da bringt ADL zum ersten Mal seit 6,5 Jahren etwas neues in den Intel-Desktop.



In allen Bereichen. Zumindest bis 2025 strebt Intel ausdrücklich "unquestioned leadership" in der gesamten Halbleiterbranche an, wobei sie Nachholbedarf nur noch bei Beschleunigern und gegenüber den von Apple genutzten, neuesten TSMC-Prozessen sehen. Bei Architektur und Packaging ist man bereits jetzt überlegen und der 10-nm-Prozess von ADL gilt als gleichwertig zu dem von AMD genuzten TSMC N7 – so behauptet das jedenfalls Intel. Tests werden sicherlich ein paar Prozent von den Verspreche(r)n abziehen. ;-)




Die Golden-Cove-Kerne von Alder Lake sind definitiv 5-fach superskalar, das wurde bereits bestätigt. (Siehe Architekturartikel in der heute erschienenen PCGH. Plus-Version leider noch nicht verfüg-/verlinkbar.)
Moin Thorsten,

ich halte deinen Ansatz für ziemlich falsch!

Du suchst hier Gründe warum Intel in den drei bekannten Szenarien hinter AMD zurückgefallen ist und sprichst dann davon, dass man ja durchaus vergleichbarschnelle Hardware hatte, diese nur keinen interessierte weil zu teuer? Ernsthaft?
Das passt nicht und ist wirtschaftlich wie technologisch einfach falsch.

Wenn ich mich bspw. recht an den P4 erinnere, dann konnte der nie auch nur im Ansatz mit A64 mithalten, er war in gewissen Szenarien ähnlich schnell, hat aber eben von Werk aus eine Hitze produtziert die für damailige Verhältnisse absurd war. Dazu kam, dass er in den meisten Bereichen dem A64 selbst in der höchsten Ausbaustufe unterlegen war. Das lag damals auch nicht an der Fertigung, Clawhammer (AMD hat den Hammer rausgeholt usw) wurde ebenfalls in 130nm produziert, es lag damals schlicht und einfach daran, dass AMD den besseren Job gemacht hatte! Intel hat dies ja schlussendlich selbst zugegeben, in dem sie die "alte" Pentium Pro Architektur quasi reaktivierten und die Core2Duo Technik aus dem Boden stampften, was widerum sehr erfolgreich war und bei gleicher Fertigung massive Vorteile gegenüber dem Netburst basierten CPUs bot. Damals hängte man mit dieser Technik dann auch AMD komplett ab. Dennoch bleibt, dass Netburst ein Griff ins Klo war und technisch nie soweit kam, wie es kommen sollte. 7Ghz wären vieleicht toll gewesen, aber wahrscheinlich nur mit Kompressorkühlung möglich.
Gerade hier war es also definitiv nicht die Fertigung, denn ein 130nm Netburst, konnte mit einem 130nm Clawhammer bei ähnlichen Bedingungen in den allerwenigsten Szenarien konkurrieren.

Die Situation seit 2017 ist für mich schon am Thema Fertigung festzumachen. Wobei man auch hier sagen muss, dass AMD es geschafft hat nicht mehr für möglich gehaltene Leistungssprünge zu machen, denn man konnte mit Ryzen 1 ziemlich dicht aufschließen, lag hier aber noch hinter Intel (was anderes wollte ich nie behaupten). Selbst Zen 2 war ja nicht flächendeckend vor Intel gelegen, trotz Fertigungsvorteil. Wo AMD hier vorne gelegen hat, in der Skalierung, weil deren Produkt eine für mich zukunftsweisende Technik angewendet hat und so abseits des Gamings extrem gut skalieren konnte. Threadripper und Epyc sind hier für Intel in keinster Weise zu kontern gewesen. Deine Sichtweise wird nun sein (zumindest wenn ich deinen Post verstehe), aber Intel hatte doch den Xeon Platinum mit 56 Kernen, der war halt nur ein bischen teurer! Aber das ist doch keine Sichtweise, klar hatte Intel den Platinum zusammengeklebt (was vorher ja absoluter Nonsens für Intel war) und dann auf schweineteure 2 Sockelsysteme gebaut. Die hatten auch in etwa gleiche Leistung wie der Epyc. Nur wenn ich 800W TDP verbaue, dazu ca. 8 mal so teuer bin, hab ich doch kein vergleichbares Produkt. Ich vergleiche doch auch nicht einen Smart Electro mit einem Tesla Model S, die spielen nicht in der gleichen Liga.

Was ich sagen will, ich finde es extremst erstaunlich, dass eine im Vergleich, derart kleine Klitsche bei AMD es doch schafft, Intel derart lange und nachhaltig in arge Bedrängnis zu bringen. Seit dem 9900KS ist Intel für mich nur noch im Panikmode und versucht sehr krampfhaft in gewissen Benchmarks vorne zu liegen, koste es was es wolle. Da wird aber seit 2017 nicht mit Technik gekämpft, sondern mit unlauteren Mitteln (Benchmarkpossen) und immer weiterer Erhöhung der TDPs. Selbst Alder Lake ist für mich kein Schrei in die Zukunft, "wir sind Intel und haben zurückgeschlagen", sondern ein Hilfeschrei "wir sind Intel und wissen nicht was wir falsch machen, dann hauen wir einen Klopper nach dem anderen raus, irgendwer wird uns schon glauben". Alder Lake ist keine schlechte Sache, aber nach den bisherigen Details auch kein Burner, schon gar nicht der Burner den Intel darin sieht. Man schafft es nach über einem Jahr Zen3 doch schon die gleiche Leistung in den Desktop zu bringen, braucht dafür aber mehr TDP, einen neuen Sockel und deutliche Vorteile in der RAM Entwicklung (3200er gegen 4800er), dennoch liegt man nur minimal vor AMD. Und Nein, ich bin absolut kein Intelhasser, habe einen Pentium MMX, einen P2, einen P3, einen Core2Duo, einen i7, einen i5 gehabt und war immer zufrieden. Im Büro habe ich mir recht aktuell auch wieder einen Intel eingebaut (11700k), war für meine Anforderung das beste zum besten Preis, daher sehe ich bestimmt nicht alles schwarz. Vieleicht kommt mein Post hier als AMD über Alles rüber, ist es aber nicht, nur ich kann und will diese Intel Geschwätzer nicht gutheißen, wenn ich Benches fälsche oder beeinflusse, Aussagen mit Halbwahrheiten raushaue, muss ich einfach was dazu schreiben.

P.S.
Ich habe das gleiche bei AMD getan, als es um VEGA oder ähnliches ging, habe aber gerade seit Lisa Su nicht das Gefühl, dass in den Vorstellungen derartig bewusst falsche Infos rausgehauen werden. Man hat zwar gesagt, dass man die Effizienz um 50% verbessert, da habe ich schon mit dem Auge gezuckt, aber man hat es dann ja auch wirklich geschafft. Das war früher auch anders und wurde von mir genauso verurteilt.
 
Ein Wort: Fertigung.

AMD hat in der Vergangenheit nahezu immer die besseren Preise gemacht. Deswegen bleibt bei Endkunden in Erinnerung, sie hätten "oft" die besseren CPUs gemacht. Meistens gab es in höheren Preisklassen aber gleichwertige Intels, die aber halt kaum jemand mit Ahnung in Betracht gezogen hat. Rein technisch konnte aber selbst der viel gescholtene Pentium 4 in der 130 nm Generation mit den Athlon XP mithalten, und als Extreme Edition sogar einen Gleichstand mit den ersten Athlon 64 aushandeln, wenn man Anwendungen und Multimedia mit in die Gleichung nimmt. Hat zwar keinen interessiert, weil die EE schweine teuer war und mit AMDs Server-Rebrand FX verglichen wurde – vom Fertigungsaufwand her war sie aber tatsächlich genauso nah an Claw- wie an Sledgehammer. Genauso verzerrt ist oft das 2017er Bild: "Ryzen vor Core i7" stimmt nur solange, wie man sich auf Kaby Lake konzentriert. Broadwell E und Skylake X waren stärker, haben je nach Anwendung (und in Spielen sowieso) sogar Threadripper geschlagen, wenn man bereit war Intels absurde Aufpreise für "High End" zu zahlen.

Man hat aber jedesmal an den Quartalsergebnissen gesehen, dass AMD dieses bessere Preis-Leistungsverhältnis nicht durch leistungsfähigere Technik, sondern durch kleinere Margen geschafft hat. Ausnahmen, in denen AMD auch technisch klar vorne lag, gab es in der gesamten Geschichte nur dreimal:
- Zur Jahrtausendwende, als die alternden Coppermine und der schrottige Willimette gegen K7 und Thunderbird verloren
- Fünf Jahre später, als Prescott nicht als "Pentium V" den immer weiter skalierenden Athlon 64 Paroli bot, sondern die historische Position von Netburst als leistungsschwache Herdplatte zementierte. (Dabei war Netburst als leistungsstarke Herdplatte konzipiert. :-D)
- Seit 2019, weil Intel nur noch TDPs aber kaum noch Leistung geschweige denn Kernzahlen steigert.
Gemeinsamkeit aller drei Punkte? 2000 verzögerte sich die 130-nm-Fertigung, Williamette hätte es nie geben sollen. 2005 hatte der 90-nm-Prozess absurd hohe Leckströme und einen Spannungsbedarf jenseits der Erwartungen. Und das Intel nach 2017 vier Jahre lang an 10 nm nachgebessert hat, sollte jeder noch in Erinnerung haben. Da hatten sie verdammt viel Glück, dass Global Foundries genauso unfähig war, sonst wäre AMD nämlich schon zwei Jahre vor Zen 2 durchgestartet, anstatt "nur" gleichzuziehen (und erneut die viel besseren Preise zu machen). Aber der entscheidende Faktor war und ist immer:
Die Fertigung.

Und genau da bringt ADL zum ersten Mal seit 6,5 Jahren etwas neues in den Intel-Desktop.



In allen Bereichen. Zumindest bis 2025 strebt Intel ausdrücklich "unquestioned leadership" in der gesamten Halbleiterbranche an, wobei sie Nachholbedarf nur noch bei Beschleunigern und gegenüber den von Apple genutzten, neuesten TSMC-Prozessen sehen. Bei Architektur und Packaging ist man bereits jetzt überlegen und der 10-nm-Prozess von ADL gilt als gleichwertig zu dem von AMD genuzten TSMC N7 – so behauptet das jedenfalls Intel. Tests werden sicherlich ein paar Prozent von den Verspreche(r)n abziehen. ;-)




Die Golden-Cove-Kerne von Alder Lake sind definitiv 5-fach superskalar, das wurde bereits bestätigt. (Siehe Architekturartikel in der heute erschienenen PCGH. Plus-Version leider noch nicht verfüg-/verlinkbar.)


Perfekt auf den Punkt gebracht :daumen:

Amd ist mit den Brandneuen 7nm Ryzens gegen die alternden 14nm Intel Cores angetreten ,und Amd hat ca. 4 Jahre !!!! gebraucht um jetzt endlich eine kurze Zeit im PCGH Leistungsindex mehr als knapp vorne zu liegen :schief:

Tja mal sehen wie das in ein bis zwei Jahren für Amd aussieht wenn sich Intel so richtig ausgetobt hat :D

Ausserdem finde ich es gut das Intel in Deuschland in eigene Chipfabriken investieren will , und damit Arbeitsplätze schafft :)

 
Amd ist mit den Brandneuen 7nm Ryzens gegen die alternden 14nm Intel Cores angetreten ,und Amd hat ca. 4 Jahre !!!! gebraucht um jetzt endlich eine kurze Zeit im PCGH Leistungsindex mehr als knapp vorne zu liegen :schief:

Tja mal sehen wie das in ein bis zwei Jahren für Amd aussieht wenn sich Intel so richtig ausgetobt hat
Warten wir mal ab was passiert, wenn sich AMD mit ZEN 4 und 5 und dem 5nm TSMC Prozess so richtig austobt.
 
Warten wir mal ab was passiert, wenn sich AMD mit ZEN 4 und 5 und dem 5nm TSMC Prozess so richtig austobt.


Wenn?! ( ist der richtige Ausdruck ) wird Amd voll und ganz auf den Erfolg von TSCM,s 5nm Prozess angewiesen sein ;-)

Und alleine weiter einfach massenhaft Kerne zusammenzukleben , wird Amd vor Intel nicht retten :schief:

Hinzu kommt das ich nicht sehen kann , das AMD Investiert :hmm:
 
Ich sehe den praktischen Nutzen bei PCIe 5.0 SSDs, das ist ein Vorteil, den man tatsächlich spüren könnte, wenn auch nicht so viel.
Auch der ist begrenzt. Bin jüngst von einer EVO970 auf eine 980PRO gewechselt. Die deutlich messbaren Leistungsgewinne haben bei mir keine fühlbare Beschleunigung meiner Abläufe gebracht. Ich kann mir heute kaum vorstellen, dass mir eine über PCIE 5.0 angebundene SSD ein klar spürbar besseres Userfeeling geben wird.
 
Zuletzt bearbeitet:
Hüsstle...
Räusper...
"Erste Enterprise-Samples..."


Moin Thorsten,

ich halte deinen Ansatz für ziemlich falsch!

Du suchst hier Gründe warum Intel in den drei bekannten Szenarien hinter AMD zurückgefallen ist und sprichst dann davon, dass man ja durchaus vergleichbarschnelle Hardware hatte, diese nur keinen interessierte weil zu teuer? Ernsthaft?
Das passt nicht und ist wirtschaftlich wie technologisch einfach falsch.

Wenn ich mich bspw. recht an den P4 erinnere, dann konnte der nie auch nur im Ansatz mit A64 mithalten, er war in gewissen Szenarien ähnlich schnell, hat aber eben von Werk aus eine Hitze produtziert die für damailige Verhältnisse absurd war.

Du erinerst dich falsch. Ich finde auf die schnelle keine Verbrauchsmessungen aus der Zeit mehr, aber damals waren TDPs noch was wert und die Angaben entsprechen ungefähr meiner Erinnerung:
Northwood C: 82-89 W (Spitzenmodelle, gab auch <70 W)
Clawhammer: 89 W
Gallatin: 92 W (später bis 110 W)

Im Systemverbrauch lagen die Sockel-478-Systeme etwas höher, weil der RAM-Controller eben noch nicht im Prozessor intergriert war. Aber das hat damals nur wenige interessiert und von der Kühlbarkeit her waren beide gleich auf. Kurz zuvor, gegen die letzten Athlon XP hatte Northwood C teilweise sogar einen Effizienzvorsprung. (P4C 2,8 mit 70 W konnte je nach Szenario XP 3200+ mit 80 W schlagen.)

Wo deine Aussagen zutreffen würden: Auf die Sockel-939-Ära, als Winchester, Venice und andere 90-nm-Designs Intels Prescott gezeigt haben, wo es lang geht. In dieser Phase waren Pentium 4 quasi nur noch im Office-Bereich interessant (und das auch nur wegen SMT, nicht wegen Rechenleistung). Die ersten Athlon 64 waren in ihrer Leistung weniger revolutionär, hier mal der PCGH.de-Kurztest des P4EE aus der Zeit mit Gleichstand zum Athlon 64:
Für die Athlon-Tests muss ich auf unser Heft-Archiv verweisen, das wir letztes Jahr auf der DVD hatten. Scheinbar wurden die nie online gestellt. Aber die leichter verlinkbare nicht-Print-Konkurrenz sah im Gesamtrating damals sogar den FX nur auf Platz 2 (man beachte auch die Position der Athlon XP relativ zum P4C):

Soviel also zur technischen Situation in der 130-nm-Ära. In Erinnerung geblieben sind, wie von mir geschrieben, vielen PCGH-Mitgliedern aber nur die Leistung derjenigen Prozessoren, deren Anschaffung sie innerhalb einer Preisklasse in Betracht gezogen haben.

Die Situation seit 2017 ist für mich schon am Thema Fertigung festzumachen. Wobei man auch hier sagen muss, dass AMD es geschafft hat nicht mehr für möglich gehaltene Leistungssprünge zu machen, denn man konnte mit Ryzen 1 ziemlich dicht aufschließen, lag hier aber noch hinter Intel (was anderes wollte ich nie behaupten). Selbst Zen 2 war ja nicht flächendeckend vor Intel gelegen, trotz Fertigungsvorteil. Wo AMD hier vorne gelegen hat, in der Skalierung, weil deren Produkt eine für mich zukunftsweisende Technik angewendet hat und so abseits des Gamings extrem gut skalieren konnte. Threadripper und Epyc sind hier für Intel in keinster Weise zu kontern gewesen. Deine Sichtweise wird nun sein (zumindest wenn ich deinen Post verstehe), aber Intel hatte doch den Xeon Platinum mit 56 Kernen, der war halt nur ein bischen teurer!

Ich weiß nicht, wie du zu dieser Annahme kommst, aber meine Aussage war das genau Gegenteil: Ab 2019/Zen 2 war Intel geschlagen. Es gab noch kleine AMD-Schwäche bei der reinen Gaming-Leistung, aber im Schnitt gab die nicht den Ausschlag und das absolute letzte, was ich machen werde, ist Cascade Lake AP verteidigen. Nicht weil er teuer war, das ist wie mehrfach gesagt eben nicht Bestandteil einer technischen Betrachtung. Sondern weil Cascade Lake insgesamt einfach nicht mehr konkurrenzfähig war. Skylake X und SP konnten sich nur behaupten, weil die er ersten Threadripper- und Epyc-Generationen wegen der Korrdinationsprobleme praktisch nur als "Vier CPUs in einem Sockel"-Cluster zu gebrauchen waren (was Intel aus technischer Sicht durch die native 8-way-Tauglichkeit mehr als ausgleichen kann). Aber nachdem AMD dieses Problem mit Zen 2 gelöst hatte, war der Keks gegessen.

Was ich sagen will, ich finde es extremst erstaunlich, dass eine im Vergleich, derart kleine Klitsche bei AMD es doch schafft, Intel derart lange und nachhaltig in arge Bedrängnis zu bringen. Seit dem 9900KS ist Intel für mich nur noch im Panikmode und versucht sehr krampfhaft in gewissen Benchmarks vorne zu liegen, koste es was es wolle.

Intels erster Panikschritt war das kurzfristig um rund 6 Monate nach vorne verlegte 8700K-Release. Aber das ist, genau wie die Unternehmensgröße, wieder nichts technisches. Ebensowenig wie der zeitliche Abstand zwischen Alder Lake und Zen 3. Was zählt ist, welche Prozessoren ein Unternehmen gegen welche der Konkurrenz ausliefern kann. Und nachdem Zen 4 als Alder Lake bereits ausgeschlossen ist, zeichnet sich langsam ab, dass die V-Cache-Versionen von Zen 3 nur sehr wenig Marktsegmente besetzen werden, der Hauptkonkurrent von ADL also die normalen Prozessoren sind. Wer dieses Duell gewinnt, wir sich zeigen – ich persönlich bin nach diversen Leaks zuversichtlich, dass ADL technisch gelungen ist. Denn solange die Software mit dem Konzept klar kommt, scheint er sich einen Wettkampf mit dem 5950X zumindest erlauben zu können, obwohl er von Aufbau, Größe und Aufwand her eher auf halbem Wege zwischen 5800X und 5900X steht. Spannend wird jetzt noch, wieviel dieses Zugewinns auf DDR5 zurückgeht und wo es Probleme mit der Software gibt.

Und natürlich zeichnet sich schon jetzt ab, dass Intel wieder Preise der nächst höheren Klasse verlangen wird, weswegen die technische Rangfolge in den Nach-Test-Foren-Battles sicherlicher wieder untergehen wird.
 
Ich kann mir heute kaum vorstellen, dass mir eine über PCIE 5.0 angebundene SSD ein klar spürbar besseres Userfeeling geben wird.

Dazu muß man dann natürlich auch das richtige Nutzungsszenario haben. Ich persönlich treibe die Auslagerungsdatei auch schonmal Richtung 160GB (ja, ich bin ein RAM Junkie). Da wird das ganze dann doch recht langsam, auch mit einer (SATA) SSD. Eine PCIe SSD dürfte da ihre Vorteile ausspielen, je schneller, umso besser.

Die Frage ist, ob es das wert ist, gegenüber PCIe 4.0 viel Geld auszugeben, da würde ich eher nein sagen. Aber eine nette Funktion, die man mitnehmen kann, ist es allemal.
 
Völlig lächerlich!:wall::D


Klar ist das deiner Meinung nach lächerlich, da du ja keine Gegenargumente und Fakten vorweisen kannst :schief:

Wenn es in deinen Augen lächerlich ist das Intel vor hat , in Deutschland für Miliarden Euro eine Chipfabrik zu bauen , und Arbeitsplätze zu schaffen kannst du einem nur leid tun.

Wo investiert Amd in die Zukunft ?!?

Amd macht sich nur abhängig von TSCM :schief: sehr inovativ .
 
Klar ist das deiner Meinung nach lächerlich, da du ja keine Gegenargumente und Fakten vorweisen kannst :schief:

Wenn es in deinen Augen lächerlich ist das Intel vor hat , in Deutschland für Miliarden Euro eine Chipfabrik zu bauen , und Arbeitsplätze zu schaffen kannst du einem nur leid tun.

Wo investiert Amd in die Zukunft ?!?

Amd macht sich nur abhängig von TSCM :schief: sehr inovativ .
Du erzählst einen Schwachsinn wie erim Buche steht, mehr als 70 Standorte in 10 Ländern stehen bei Intel auf der Liste und sie wollen mind. 40% ihrer Investition vom Steuerzahler.

Darüber hinaus hat AMD längst in Dresden schon vor langer Zeit eine Chipfabrik gebaut, die immer noch in Betrieb ist, eben nur jetzt unter anderem Namen.
Lol das Geschäftsmodell haben auch Apple, ARM, Nvidia etc., die Innovation ist das CPU Design!
 
Du erinerst dich falsch. Ich finde auf die schnelle keine Verbrauchsmessungen aus der Zeit mehr, aber damals waren TDPs noch was wert und die Angaben entsprechen ungefähr meiner Erinnerung:
Northwood C: 82-89 W (Spitzenmodelle, gab auch <70 W)
Clawhammer: 89 W
Gallatin: 92 W (später bis 110 W)

Im Systemverbrauch lagen die Sockel-478-Systeme etwas höher, weil der RAM-Controller eben noch nicht im Prozessor intergriert war. Aber das hat damals nur wenige interessiert und von der Kühlbarkeit her waren beide gleich auf. Kurz zuvor, gegen die letzten Athlon XP hatte Northwood C teilweise sogar einen Effizienzvorsprung. (P4C 2,8 mit 70 W konnte je nach Szenario XP 3200+ mit 80 W schlagen.)

Wo deine Aussagen zutreffen würden: Auf die Sockel-939-Ära, als Winchester, Venice und andere 90-nm-Designs Intels Prescott gezeigt haben, wo es lang geht. In dieser Phase waren Pentium 4 quasi nur noch im Office-Bereich interessant (und das auch nur wegen SMT, nicht wegen Rechenleistung). Die ersten Athlon 64 waren in ihrer Leistung weniger revolutionär, hier mal der PCGH.de-Kurztest des P4EE aus der Zeit mit Gleichstand zum Athlon 64:
Für die Athlon-Tests muss ich auf unser Heft-Archiv verweisen, das wir letztes Jahr auf der DVD hatten. Scheinbar wurden die nie online gestellt. Aber die leichter verlinkbare nicht-Print-Konkurrenz sah im Gesamtrating damals sogar den FX nur auf Platz 2 (man beachte auch die Position der Athlon XP relativ zum P4C):

Soviel also zur technischen Situation in der 130-nm-Ära. In Erinnerung geblieben sind, wie von mir geschrieben, vielen PCGH-Mitgliedern aber nur die Leistung derjenigen Prozessoren, deren Anschaffung sie innerhalb einer Preisklasse in Betracht gezogen haben.



Ich weiß nicht, wie du zu dieser Annahme kommst, aber meine Aussage war das genau Gegenteil: Ab 2019/Zen 2 war Intel geschlagen. Es gab noch kleine AMD-Schwäche bei der reinen Gaming-Leistung, aber im Schnitt gab die nicht den Ausschlag und das absolute letzte, was ich machen werde, ist Cascade Lake AP verteidigen. Nicht weil er teuer war, das ist wie mehrfach gesagt eben nicht Bestandteil einer technischen Betrachtung. Sondern weil Cascade Lake insgesamt einfach nicht mehr konkurrenzfähig war. Skylake X und SP konnten sich nur behaupten, weil die er ersten Threadripper- und Epyc-Generationen wegen der Korrdinationsprobleme praktisch nur als "Vier CPUs in einem Sockel"-Cluster zu gebrauchen waren (was Intel aus technischer Sicht durch die native 8-way-Tauglichkeit mehr als ausgleichen kann). Aber nachdem AMD dieses Problem mit Zen 2 gelöst hatte, war der Keks gegessen.



Intels erster Panikschritt war das kurzfristig um rund 6 Monate nach vorne verlegte 8700K-Release. Aber das ist, genau wie die Unternehmensgröße, wieder nichts technisches. Ebensowenig wie der zeitliche Abstand zwischen Alder Lake und Zen 3. Was zählt ist, welche Prozessoren ein Unternehmen gegen welche der Konkurrenz ausliefern kann. Und nachdem Zen 4 als Alder Lake bereits ausgeschlossen ist, zeichnet sich langsam ab, dass die V-Cache-Versionen von Zen 3 nur sehr wenig Marktsegmente besetzen werden, der Hauptkonkurrent von ADL also die normalen Prozessoren sind. Wer dieses Duell gewinnt, wir sich zeigen – ich persönlich bin nach diversen Leaks zuversichtlich, dass ADL technisch gelungen ist. Denn solange die Software mit dem Konzept klar kommt, scheint er sich einen Wettkampf mit dem 5950X zumindest erlauben zu können, obwohl er von Aufbau, Größe und Aufwand her eher auf halbem Wege zwischen 5800X und 5900X steht. Spannend wird jetzt noch, wieviel dieses Zugewinns auf DDR5 zurückgeht und wo es Probleme mit der Software gibt.

Und natürlich zeichnet sich schon jetzt ab, dass Intel wieder Preise der nächst höheren Klasse verlangen wird, weswegen die technische Rangfolge in den Nach-Test-Foren-Battles sicherlicher wieder untergehen wird.
Bzgl. 130nm hast du tatsächlich Recht, da lagen beide noch nicht so weit auseinander, aber scheinbar hat mein Kopf da die 90nm Prescotts mit den 90nm Winchesters verglichen und nicht die 130nm Generation.

Zweiter Teil, ich hatte den Eindruck, dass du versucht hast, Intels "HighEnd" mit AMDs Consumer Produkten zu vergleichen, ein EE, ein HEDT mit einem normalen Consumer zu vergleichen macht für mich keinen Sinn. Wenn das nicht dein Ziel, war sorry, falsch verstanden.

Dritter Absatz, hier habe ich nicht versucht dir zu widersprechen. ALD wird ein gutes Produkt, für mich bleiben zwei große Ungewissheiten / Probleme, erstens, was macht der Energieverbrauch, zweitens, was kostet die Plattform. Technisch betrachtet glaube ich an ein gutes Produkt, das sich aber eben nicht wird absetzen können, wie es Zen2 / Zen3 in vielen Bereichen konnte. Ich sehe das Ganze wirklich etwas anders, denn technisch machbar sind in meinen Augen bereits jetzt ganz andere Konstrukte, AMD hätte bspw. auch mit Zen3 schon DDR5 machen können, was ein erhebliches Leistungsplus gebracht hätte (in normalen Benches unter Stockwerten), man könnte immer mehr Cache verbauen usw. Bedeutet für mich, man könnte noch schneller, würde aber noch wesentlich teurer werden und daher halte ich die Berücksichtigung P/L zur Technik für absolut relevant.
(Beispiel, die Autobauer könnten ja recht problemlos noch größere Akkus in die Autos bauen um die Reichweite weiter zu erhöhen, kaufen tut es dann trotzdem keiner, weil es keiner mehr bezahlen kann)
 
Zurück