News Intel Core Ultra: Microsoft verrät bereits alle Meteor Lake vor dem morgen anstehenden Release

Welcher Bulldozer hat denn soviel gekostet? AMD hat damals zumindest die Preise der Leistung angepasst, Intel zieht einem für einen 14900K 589 USD aus der Tasche; da passen Preis & Leistung vieleicht noch, aber sobald man Leistung auch mit Effizienz gleichsetzt geht die Schere halt stark auseinander. Bei Bulldozer passte das damals (der war im Vergleich sogar immer günstig unterwegs, gegen die Intel Riege).

Wenn man Leistung mit Effizienz gleichsetzt, wäre Bulldozer gnadenlos überteurt gewesen. Nicht weil AMD so schlechte Preise gemacht hätte, sondern weil die Effizienz so schlecht war. Wenn man auf derartige Gleichsetzungen verzichtet, dann muss man nüchtern festhalten, dass die absolute Leistung von Bulldozer in der Mittelklasse angesiedelt war und man die Preise somit nicht mit einem i9 oder Ryzen 9, sondern allenfalls mit einem i5 oder Ryzen 5 vergleichen kann – undzwar mit den nicht-übertaktbaren Modellen von Intel und den 5000er Altbeständen bei AMD, denn ein 14600K oder 7700X sind einem 7950X oder 14900K schon näher, als Bulldozer jemals an Ivy Bride E herangekommen wäre.

Das stimmt einfach nicht. Intel hatte die Leistungs- und Effizienzkrone von 2006 bis 2017 inne (vom Core2Duo bis zum Zen 1), also gut 11 Jahre am Stück. Davor auch noch mit dem Pentium II und III sowie zeitweise auch mit dem Pentium I, Pentium I MMX sowie Pro und dann auch noch jeweils den 286ern, 386ern und 486ern, wie gesagt, da zeitweise.

Wobei man beim 8700K und 9900K noch debattieren kann, ob man die normale TDP nimmt, dann hat Intel die beiden Kronen bis zum erscheinen des R9 3950X inne oder ob man das nimmt, was die Boardhersteller aus den CPUs rauspressen, wenn man dem nicht Einhalt gebietet.

Wenn man nicht die Intel-Spezifikationen nimmt, sondern übertaktet, dann lag der i7-8700K auf ganzer Linie vor der Zen-1-Generation und in zeitgenössischen Spielen dürfte auch ein übertakteter i7-7700K am 1800X vorbeiziehen. Unter dieser Prämisse hatte AMD damals dann zwar die Effizienz-, aber nicht die Leistungskrone*. Wenn man dagegen die Specs bei beiden Herstellern einhält, was meiner Meinung der wesentlich sinnvollere Vergleich ist, hatte Intel zwar in Anwendungen teils eine niedrigere Leistung*, aber insgesamt eine höhere Effizienz als die 14-nm-Global-Foundry-Produkte. Beide Titel gleichzeitig konnte AMD nach Core 2 also erst wieder mit Zen 2 erlangen – und auch das nur im Schnitt über Anwendungen und Spiele. Konzentrierte man sich auf letzteres, unterlagen die Zen-2-CPUs knapp den 1151er/1200er Top-Dogs. Erst der 5950X konnte überall punkten und gleichzeitig effizienter sein.

*: Aussage gilt nur für den Mainstream. Nimmt man Sockel 2011-v3 und 2066 mit rein, hat AMD die Anwendungsleistungskrone überhaupt erst mit Zen 2 erlangt und da war der Kampf mit Skylake X so hart, dass der 3950X bei uns zwar knapp gewann, andere Tester AMD aber erst mit Threadripper 3000 eine Leistungskrone gaben – auch wenn der 9980X in Spielen soviel langsamer als der 3950X und der 9900K umgekehrt in Anwendungen so stark unterlegen war, dass man zwei der ohnehin teureren Intel-Systeme hätte kaufen müssen, um immer vor AMD zu liegen. Und noch ein Notebook dazu für die Effizienz.^^
 
Also ist ein Intel Core 150U nur ein Raptor Refresh Refresh der eigentlich nur ein Raptor Refresh eines 13000er ist

Bin auf die wirklichen Meteor Lake gespannt.
 
sorry, fehlerhaft ausgedrückt. Ich meinte wenn man in der Leistungsbetrachtung auch die Effizienz einschließt! Also die Effizienz als einen Teil der Leistung bewertet!

Je komplexer man ein Wertungssystem macht, desto mehr Stellschrauben gibt es, die das Ergebnis in die eine oder andere Richtung verzerren könnten. Aber wenn man Raptor Lake nicht bis an die Kotzgrenze taktet, um ein Leistungskrönchen eine Klasse höher zu erringen, ist er gar nicht mal sooooo ineffizient und umgekehrt schlägt bei den kleinen Ryzens der Grundverbrauch der Plattform stärker rein und die Kernzahlen sinken schneller. Ein 13400F ist sowohl in Spielen als auch Anwendungen 7-8 Prozent langsamer als ein 5700X, kostet 8 Prozent weniger und verbraucht in Daves Messungen 5 Prozent mehr. Klar: Damit ist er immer noch das schlechtere Angebot. Aber es ist nicht so, als würde Intel in der Mittelklasse um Welten schlechtere CPUs ausliefern, wie AMD mit dem FX seinerzeit, oder um Größenordnungen höhere Preise verlangen, wie Intel seinerzeit. Wenn man die immer noch stattlichen Preise von AM5-Mainboards mit PCI-E 5.0 und brauchbarem Sound bedenkt, kann ein Intel-System in diesem Segment sogar dank 23 Prozent Preisvorsprung als besserer Allround-Deal vom Platz gehen.

Man darf sich nicht davon ablenken lassen, dass Intel den Ruf der gesamten Plattform in dem Versuch ruiniert, mit einem 10 nm 8+4-Design gegen 7 nm 16+16er zu gewinnen. Deutlich unterhalb davon verkauft man eigentlich ganz passable, nur geringfügig schlechtere Produkte. Alder Lake hat sich ja nicht ohne Grund erfolgreich gegen Ryzen 5000 durchgesetzt. Bulldozer dagegen war zwar auch oft "billig", aber wegen seiner viel höheren Abwärme und seiner Leistungsschwäche in vielen Bereichen nie eine rundum zufriedenstellende Idee und hat regelmäßig sogar gegen seinen eigenen Vorgänger verloren – dabei waren schon die besseren Phenoms so spät am Markt, dass ebenfalls eher über den Preis denn über ihre Qualitäten verkauft wurden.
 
Problem bei Intel ist ja, dass die CPUs grds. auch effizient können

sooooo ineffizient
schreib ich doch
Je komplexer man ein Wertungssystem macht, desto mehr Stellschrauben gibt es, die das Ergebnis in die eine oder andere Richtung verzerren könnten.
Keine Sorge, ist keine Kritik (wenn überhaupt nur positive) an der Wertung hier oder andernorts. Nur macht man sich ja eben diese Gedanken, wenn man sich für eine CPU entscheidet.
Ein 13400F ist sowohl in Spielen als auch Anwendungen 7-8 Prozent langsamer als ein 5700X, kostet 8 Prozent weniger und verbraucht in Daves Messungen 5 Prozent mehr.
Ist ja das beste Beispiel! 8% langsamer, 8% günstiger und dennoch das "schlechtere" Angebot? Kann ja nur auf Grund der 5% Mehrverbrauch sein, sonst ist es P/L (ohne Effizienzbetrachtung) ja identisch.

Wenn man die immer noch stattlichen Preise von AM5-Mainboards mit PCI-E 5.0 und brauchbarem Sound bedenkt, kann ein Intel-System in diesem Segment sogar dank 23 Prozent Preisvorsprung als besserer Allround-Deal vom Platz gehen.
Wer braucht schon onboard Sound :-); nutzen doch eh alle Kopfhörer mit USB Stick! Im Ernst, ist ziemlich genau das was ich seit Monaten "predige", Intel hat viele schlechte CPUs im Lieferumfang und sobald man in die Riege 13700/14700 vorstößt halte ich das AMD Angebot für besser, aber darunter sehe ich das bei Weitem nicht so eindeutig.Auch wenn ich den günstigeren Preis der Plattform nicht unbedingt als StandAlone Vorteil sehe, da die Intel Platform ja nunmal faktisch tot ist und AM5 dagegen noch mind. 1, wenn nicht zwei Upgrades bekommen wird.

Alder Lake hat sich ja nicht ohne Grund erfolgreich gegen Ryzen 5000 durchgesetzt.
durchgesetzt? Wie meinst du das? Sehe nicht wirklich, dass Alder Lake sich durchgesetzt hat, Zen 3 war in meinen Augen in allen Lagen überlegen und spätestens mit dem 3D Cache haben Sie Intels Paradedisziplin vernichtend geschlagen. Rein vom Absatz her (OEM / Consumer) mag das sein, wird aber sicher nicht an der guten Plattform, sondern eher an der Trägheit der OEMs gelegen haben.

Bulldozer dagegen war zwar auch oft "billig", aber wegen seiner viel höheren Abwärme und seiner Leistungsschwäche in vielen Bereichen nie eine rundum zufriedenstellende Idee
Ja, Bulldozer war am Ende eine Totgeburt, auch wenn natürlich dazu unfassbar viel die Problematik GF beigetragen hat, Intel hatte meine ich zwischenzeitlich zwei Nodes Vorsprung und hatte dazu noch bessere Nodes, also kumuliert vieleicht 3 Nodes? Zu Beginn waren sie noch beide in 32nm unterwegs, da war ein 2600k aber auch "nur" knapp 20% enteilt. Erst mit Ivy und Co. wo AMD weiterhin mit 32nm belichtete, während Intel auf 22nm upgradete. Spätestens als man mit eher einer namentlichen Verbesserung im 28nm Verfahren (Steamroller) auf das erste 14nm Verfahren traf war der Drops ja endgültig gelutscht. Bei den damaligen Sprüngen konnte man ja durchaus 40-50% Verbesserungen erfahren je Node! Soweit ist Intel ja nie zurückgefallen (zum Glück für Intel und auch für uns); architekonisch sehe ich allerdings gar nicht den so großen Unterschied, Skylake ist am Ende gegen Zen einfach unterlegen und alle Optimierungen bringen am Ende nichts mehr, was Intel ja mit Zen 2 erkannt hat und auch umschwenkt und in Zukunft immer mehr in Richtung Tiles / MCM gehen wird.
 
Welcher Bulldozer hat denn soviel gekostet? AMD hat damals zumindest die Preise der Leistung angepasst, Intel zieht einem für einen 14900K 589 USD aus der Tasche; da passen Preis & Leistung vieleicht noch, aber sobald man Leistung auch mit Effizienz gleichsetzt geht die Schere halt stark auseinander. Bei Bulldozer passte das damals (der war im Vergleich sogar immer günstig unterwegs, gegen die Intel Riege).
Bulldozer und Pilediver mit der absoluten Horror-TDP im consumer Bereich für damalige Verhältnisse?
Effizienztechnisch waren die wohl eher im Bereich 3090ti oder i9 12900k.
Waren auch sehr schlechte Kerne, egal wie viel Power man denen gegeben hat. Aber immerhin waren die CPU's und die Plattform billig. Das kann man bei Intel tatsächlich nicht behaupten.
 
Weiß immer noch nicht wieso man so darauf rumhackt, soo schlecht war Bulldozer nicht, klar 20% hinter Intel, aber nich nicht mit abnormen TDP Werten der späteren Inkarnationen, glaube 95W hatten die ersten, identisch zu Intel.


Amd FX-9590 mit damals brutalen 220 Watt !!!!!! fast doppelt soviel wie Intel und trotzdem langsamer als Intel . :devil:

Bulldozer war eine Fehlkonstr.:daumen2:
 
Weiß immer noch nicht wieso man so darauf rumhackt, soo schlecht war Bulldozer nicht, klar 20% hinter Intel, aber nich nicht mit abnormen TDP Werten der späteren Inkarnationen, glaube 95W hatten die ersten, identisch zu Intel.

Der Start war mit 125 W beim 8150, die auch gut ausgeschöpft wurden, gegen Sandy Bridge mit 95 W, die nicht annähernd erreicht wurden. Erst recht nicht, wenn die IGP inaktiv war. Nur die sehr niedrig taktenden FX-xx00-SKUs hatten ab Launch ebenfalls ein 95-W-Rating. Bei den anderen Modellen, selbst den Dual-Modulern, konnten die 125er-Spezifikationen erst wesentlich später nach Fertigungsverfeinerungen abgelöst werden. Bis dahin war aber Intels Ivy Bridge mit erneut großzügig angesetzten 77 W TDP draußen und die Rechenleistung der Bulldozer lag bestenfalls auf Augenhöhe mit dem 65-W-S-Modellen, je nach Szenario wäre vermutlich selbst ein um 1 GHz untertakter 3770T mit 45 W TDP als erster ins Ziel gekommen. Umgekehrt gab es für Leute, die tatsächlich 125/130 W akzeptierten, schon zum Bulldozer-Launch den SB-E-Quad-Channel-6-Kerner. Zur Bulldozer-Endphase gegen Haswell oder gar gegen 14-nm-CPUs braucht man eigentlich gar nichts zu sagen – selbst gute CPU-Designs können nicht solange den Ton angeben und AMD hat 2 Jahre nach Launch einfach nur darauf verzichtet, die Produktion der veralteten FX einzustellen, was eigentlich (zugunsten eines besseren, aber nicht vorhandenen, Nachfolgers) üblich gewesen wäre.

Der geringfügig verbesserte 28-nm-Prozess wurde übrigens nur für Bulldozer-APUs genutzt. Die waren, als mit der Piledriver-Generation endlich das viel zu schmale Front-End des ursprünglichen Designs aufgebohrt wurde, tatsächlich für ihren Markt ganz annehmbar, aber dieser Markt war halt Low-End und die Konkurrenz bestenfalls i3s, eher Pentiums. Bei den Viermodulern war Kaveri wenig mehr als ein neues Stepping von Zambezi in unveränderter Fertigung. Einen Schritt nach vorne hätte es erst mit Komodo gegeben, aber auch der war veraltet lange bevor er hätte erscheinen können.
 
Zuletzt bearbeitet:
Der Start war mit 95 W beim 8150
Sorry, man sollte sich selbst manchmal zweimal kontrollieren, hab einfach in einer falschen Sortierung in die Tabelle geschaut und gar nicht gesehen, dass die 125W Modelle auch in 2011 schon kamen.

Aber zum Launch fand ich halt gar nicht, dass Bulldozer eine so dermaßen große Enttäuschung war (retroperspektiv) sondern vielmehr die von AMD damals gemachten Versprechen schlicht nicht halten konnte. Ja, klar war Bulldozer schlechter und ich würde sagen, dass dies damals in etwa auf dem Niveau waren wie heute Raptor Lake (mit dem Unterschied, dass man eben nicht derartig große TDPs aufnahm, dafür aber auch einen gehörigen Abstand in Sachen Leistung aufwies.

Will Bulldozer aber gar nicht gut reden, am Ende war es aber eben eine Mischung aus schlechter Architektur und Fertigungsproblemen, gerade gegen Ivy und Co. war einfach im 32nm Prozess kein Kraut gewachsen und die Schwächen der Architektur wurden potenziert.



war schon Piledriver und basiert zwar auf Bulldozer, aber wir nennen Rocket Lake ja nicht auch noch Skylake, obwohl es ungefähr die gleiche Vergleichbarkeit hat! Aber nochmal, Bulldozer war sicherlich kein großer Schritt, dennoch war es in meinen Augen eine Mischung aus überheblichen Vorhersagen und damit einhergehenden Erwartungen, schlechter Leistung und hohem Verbrauch, aber eben gerade am Ende (Piledriver ist in 32nm gegen 22nm IvyBridge angetreten), der angesprochene 9590 bspw. lieferte gar nicht so schlechte Leistungen ab, gegen den 4770K unterlag er zwar (auch klar), aber es waren oftmals keine 10% Unterscheid in der reinen Leistung (PCGH testete gar viel weniger Differenz, in Dirt waren beide CPUs gleichauf, in x264 encoden war auch ein Unterschied von 6%, nur Crysis zeigte damals cie 13%. Nochmal, mit rechnerisch 1 1/2 Nodes Unterschied (32nm GloFo gegen 22nm Intel; wobei Intel zu dieser Zeit stets die deutlich besseren Fertigungen hatte; also selbst 32nm Intel war GloFo deutlich überlegen)und den damaligen Sprüngen innerhalb der Nodes, kannste ausrechenen, dass man mit Piledriver ggfls den 4770k hätte covern können mit vieleicht 120W Verbrauch; immer noch schlechter, aber eben nicht soooo schlecht wie man es heute sieht und wie es damals eben auf Grund der genannten Gründe wahrgenommen wurde.
 
Zuletzt bearbeitet:
Ich wiederhole es ungern, aber: Rocket Lake war eben gerade die erste Intel-Desktop-CPU seit langem, die nicht mehr auf Skylake basierte.

Comet Lake dagegen wird selbst von mir sehr oft mit Skylake zusammengefasst, und das mit Recht, solange es nicht um die Anzahl der Kerne oder den Veröffentlichungszeitraum geht. Der ist genauso (und offiziell) Skylake-Architektur, wie Vishera offiziell ein Mitglieder der Bulldozer-Architektur ist. Rocket Lake dagegen war ein Ableger von Ice Lake. (Auch wenn die Architektur aufgrund der abweichenden Fertigung einen eigenen Namen bekommt und nicht "Sunny Cove", sondern "Cypress Cove" heißt. Früher waren die CPU-Hersteller da noch zurückhaltender und beispielsweise Broadwell wurde korrekt der "Haswell Architektur" zugeordnet. Aber mittlerweile wird ja sogar aus einem "Phoenix" ein "Hawk Point", in dem man ihn einfach nur 10 Monate rumliegen lässt.)
 
Zurück