Sockel 754: 1. Consumer-Plattform für Athlon64 mit Single-Channel DDR Speicherinterface (verbrauchs- & kostengünstig) um den Mobile(Laptop) und Desktop-Markt gleichzeitig bedienen zu können; Intel hat immer Extra Sockel im Mobile-Bereich genutzt
Sockel 939: 2. Consumer-Plattform für Athlon 64 mit Dual-Channel DDR Speicherinterface, reinrassiger Desktop-Sockel, musste Leistungs-/Konkurrenzfähigkeit sicherstellen
Also ich sehe da nicht wirklich Parallelen zu den drei Intel Sockeln, die alle DDR3 nutzen und reine Consumer/Desktop-Sockel sind (LGA1156, LGA1155 und LGA1150).
Bezüglich dem Sockel 939 und 754: Soweit ich mich erinnern kann, haben sich die Sockel auch dadurch unterschieden, dass man eben die Wahl zwischen Cool&Quiet und Dual-Channel hatte...
Den Bullshit, dass Intel nur aus reinem Spaß und reiner Geldgier neue Sockel einführt kann ich übrigens nicht mehr hören...
- Sockel 1155: Sandy Bridge und dessen Shrink Ivy Bridge. Ivy Bridge brachte zwar die PCIe 3.0-Kompatibilität, allerdings besteht dahingehend ja bekanntermaßen eine Abwärtskompatibilität...
- Sockel 1150: Haswell und Broadwell. Wurde durch die FIVR notwendig. Das Layout der Spannungsversorgung hat sich dadurch komplett geändert
- Sockel 1151: Skylake, Kaby Lake und vermutlich auch Cannon Lake. Wurde nötig, da Intel den DMI 3.0 eingeführt und die FIVR wieder abgeschafft hat.
Dass bei AMD die gleichen Sockel immer ewig nutzbar waren, lag schlicht an den fehlenden wesentlichen Änderungen. Meist waren es seit AM2 nur erweiterte Stromsparfunktionen und ggfs. ein beschleunigter HT. AM3-CPUs liefen auch nur auf AM2+-Boards, weil alle AM3-CPUs einen zusätzlichen DDR2-Controller hatten. Der Sockel AM3 wurde ja auch nur durch DDR3 nötig...
Das ließt sich wie "mimimi, immer die Anderen sind schuld". Aber so einfach ist das eben nicht. AMD hat auch einige dumme strategische Entscheidungen getroffen, hat Bulldozer am Markt vorbei entwickelt, hätte vielleicht bei der Fury bzw. bei Fiji mehr rausholen können ohne HBM, könnte jetzt schon Vega auf dem Markt haben, ohne HBM2 und, jaja ich weiß mehr Stromverbrauch, aber immerhin. Vielleicht hat es AMD ja auch mit sich machen lassen, vielleicht war man bei AMD einfach zu gutmütig und ist es vielleicht immer noch. Nicht falsch verstehen, ich habe nichts gegen AMD, aber immer dieses "Intel und nVidia sind so pööhse und schuld an allem" ist mir zu einfach und zu billig und wird der Wahrheit einfach auch nicht gerecht. Das kotzt mich genau so an wie die ganzen AMD-Fanboys, die sich Achtkerner für 200€ wünschen und wegen Ryzen schon feuchte Höschen kriegen, aber gleich rumjammern, wenn AMD doch etwas mehr verlangt. Immer AMD als guten Samariter feiern, aber wenn man mal was zum Erhalt der Firma in Form von etwas höheren Preisen leisten soll, wird wieder geheult. Und ja, genau so ist es oftmals.
Full ACK.
AMD hat die Hardware in den letzten Jahren leider fast durchgängig am Markt vorbei entwickelt. Ich finde es zwar toll, dass die so zukunftsweisend denken, jedoch ist diese Strategie für eine Firma, die im Vergleich zum Marktgiganten Intel eher ein Fliegenschiss ist, extrem riskant. Bekanntlich ist AMD dadurch ziemlich auf die Klappe geflogen. Gerade um im Hardwaresektor bestimmte Ziele/Dinge durchzudrücken braucht man einen Namen und/oder einen großen Marktanteil.
Wieso sollte die Industrie die Endanwendersoftware auf die Nutzung so vieler Threads anpassen, dass auch die Bulldozer-/Vishera-CPUs gut dagestanden hätten, wenn der überwältigende Anteil des Marktes mit Dual Core + HT-CPUs rumrennt? Sowohl der Marktanteil an Intel-CPUs mit mehr wie vier nativen Kernen als auch AMD-CPUs ist verschwindend gering. Jetzt, im Jahre 2017, ist man offenbar erst an die Grenze gestoßen, wo mehr Threads/Kerne notwendig werden.
Gleiches mit Mantle - ist zwar toll, dass AMD versucht, eine zwar zukunftsweisende, aber proprietäre, Schnittstelle zu etablieren und dass die eigenen GPUs unter dieser Schnittstelle ihrer architektonischen Schwächen erleichtert wurden. Sicher haben wir DX12 und Vulkan überhaupt nur AMD zu verdanken... Allerdings hatte AMD dafür auch die Kosten von Mantle als Klotz an den Beinen. Und da es eben eine AMD-exklusive Schnittstelle war (blieb...), war deren Marktanteil ebenfalls... quasi nicht existent. Mantle, DX12 und Vulkan hat niemand außer AMD benötigt - weil AMD es nicht auf die Kette gebracht hat, IPC-starke CPUs und performante DX11-Treiber zu bringen.
Wobei DX12/Vulkan eh so eine zweifelhafte Sache zu sein scheint - In der Realität scheint es auch nicht viel einfacher wie bei DX11 zu sein, viele Threads sinnvoll auszunutzen. Dank Low Level müssen zudem die Spielehersteller nun die Arbeit übernehmen, welche zuvor AMD und NVidia übernommen haben. Und ich traue es eher den Herstellern der Hardware zu, für eine vernünftige Performance und Optimierungen auf der eigenen Hardware zu sorgen, als den Spieleherstellern, die es bis vor nicht allzu langer Zeit meist nicht gebacken bekommen haben, mehr wie zwei Threads sinnvoll auszunutzen. Es gab und gibt auch genug DX11-Titel, bei denen man mehr als gut sehen kann, dass DX11 auch eine gute Multicore-Performance bringen kann.
Bei Fiji hat AMD sich wegen den zweifelhaften Geschwindigkeitsvorteilen durch den HBM-RAM selber das Bein gestellt. 4GB RAM ist für so eine fette GPU, die auch erst mit DX12/Vulkan oder in sehr hohen Auflösungen ihr Potenzial entfalten kann (da GCN eben die Schwäche hat, dass es mit zunehmender Shaderanzahl zumindest mit DX11 und FullHD (oder niedriger) immer beschissener skaliert...), schlicht zu wenig. HBM1 war der 1GB-Grenze pro Stack wegen schlicht ein Griff ins Klo - nur wollte das AMD wohl leider nicht einsehen. NVidia kann durch die Arbeit an den richtigen Stellen selbst mit deutlich geringeren Bandbreiten bessere Resultate erzielen. AMD schien bisher wohl rein nach dem Motto "Bigger is better" operiert zu haben - immer mehr Shader und immer mehr Bandbreite, weil AMD es bisher nicht geschafft hat, effektive Kompressionstechniken zu bringen. Besonders stark hat man das mMn. beim Duell GTX960 vs. R9 380(X) gesehen...
Allgemein gibt es bei den Grafikkarten noch so einige Gründe, die ich für AMDs aktuellen Marktanteil verantwortlich machen würde...
Übrigens würde ich die Leute, die AMD nur des Preises wegen kaufen (und das dürfte auf den überwältigenden Anteil der AMD-Käufer zutreffen), keinesfalls als Fanboy bezeichnen. Die mögen eben nicht die Firma, sondern nur die Preise...
Ich sehe dass bisschen anders, Intel hat ja AMD immer absichtlich an der kuren Leine gehalten
1) Benchmarks fälschen Intel schreibt eigenen Benchmark wo AMD Befehle nicht benutzt werden, also objektiv ist was anders und da hat sich Jahrelang in den Köpfen der Leute festgesetzt.
2) Händler schmieren damit ihre Produkte gekauft werden, Rabatte gibt es überall aber nicht mit einer Klausel wo der Konkurrent ausgesperrt wird.
3) Marketing überall Werbung etc. im Mediamarkt und Co. aber nicht von AMD obwohl die teilweise die besseren Produkte hatten.
man kann den Fehler über Bulldozer bringen aber das andere einfach ignorieren ?
1) Soll AMD doch das Gleiche machen? Wieso sollte Intel in einem eigenen Benchmark die Konkurrenz unnötig gut dastehen lassen... Zumal in der Industrie im Allgemeinen die herstellereigenen Produkte in Vergleichen natürlich immer besonders gut dargestellt werden. Es sollte eigentlich jedem halbwegs intelligentem Menschen bewusst sein, dass ein wirklich objektiver Vergleich nur durch unabhängige Tests bzw. Testmethoden erreicht werden kann.
2) Sicher hat Intel, nach Meinung der EU mit unlauteren Mitteln..., große Händler geschmiert.
Eine gewisse Rolle, die gerne verschwiegen wird, dürfte aber auch AMDs Liefersituation (hier kann Rollora mehr dazu sagen...) und vorallem das fehlende Marketing spielen. Während Intel für mich bis vor einiger Zeit im Allgemeinen die beste Werbung überhaupt gemacht hat (und es zumindest im Hardwaresektor immernoch tut...), welche vorallem auch beim potenziellen 08/15-Anwender ankommt (Ich habe noch nie außerhalb des Internets oder Fachzeitschriften AMD-Werbung gesehen, Intel
mietet gleich einen ganzen Umsteigebahnhof in Berlin...), kenne ich bis auf den Fixer kein nennenswertes Marketing seitens AMD.
3) Wiegesagt, AMDs Schuld. Werbung ist alles - kennt kein Schwein deine Produkte, können sie noch so gut sein, es wird schlicht keine Nachfrage geben. Selbst bei den 08/15-Anwendern dürfte der Spruch "Intel inside" vergleichsweise verbreitet sein. Jeder kennt den Intel Chime... Von AMD gab es noch nie etwas vergleichbares.
@Topic: Neben dem vielen OffTopic kann ich zum eigentlichen Thema nur viel weniger sagen... Nämlich schlicht: Sollte Intel es wirklich nötig haben, Ryzen mit einem 12-Kerner zu kontern... Dann hat AMD Intel aber wirklich unerwartet in Bedrängnis gebracht. Angesichts dessen, dass die 2066er-CPUs auch nur umgelablete Xeon-CPUs sein dürften, sollte so ein plötzlich eingeschobener 12-Kerner für Intel auch relativ einfach zu machen sein. Als AMD den Athlon 64 angekündigt hat, hat sich Intel auch einfach den Xeon MP genommen und daraus den Pentium 4 EE Gallatin gemacht.
Niemand, vorallem Intel selbst, dürfte mit so einem extremen Erfolg von Ryzen gerechnet haben. Ich habe größten Respekt vor AMD - eine so konkurrenzfähige CPU mit dem kleinen Forschungsbudget zu entwickeln ist echt eine Meisterleistung.