News AMD Bulldozer: ARM kopiert Ansatz und setzt auf geteilte FPU

Genauso ist es. Die Leute waren trotz der schlechten Presse und den relativ schlechten Gaming Benchmarks trotzdem zufrieden. Bulldozer war seiner Zeit einfach zu sehr Vorraus, trotz seiner Probleme mit der Effizienz.

Trotzdem war es ein Flop, aber so schlecht wie es oft dargestellt wurde, war es dann wohl doch nicht. :-)
Zu der Zeit ging es aber los, dass Firmen nicht nur Stand-PCs ausgerüstet haben sondern auch Laptops mit Dockingstation breite Anwendung fanden. Es ging los, das im Privatumfeld sich der Laptop komplett durchgesetzt hat außer bei Gamern. Die Mini-PCs mit 1L oder 2L Gehäuse von HP, Lenovo, etc. haben sich Marktanteile von ThinClients zurückgekrallt.

Bulldozer und seine Inkompatibilität mit diesen Markttrends kam für AMD schon zu einer absoluten Unzeit.
 
Der Bulldozer war doch der totale Rohrkrepierer, sowas sollte man sich nicht zum Vorbild nehmen.:lol::lol::lol:
Keine Ahnung, wie?
Die Technik an sich war gut, es gab nur keine passende Anwendung für den normalen Heimanwender, da alles und auch die Betriebssysteme zu dem Zeitpunkt über Jahre ausschließlich auf Intels durchgestylte Ein-bis-2-Kern-Technik mit hoher IPC ausgelegt und optimiert gewesen ist.
AMD war also mal wieder um Jahre seiner Zeit vorraus, wie später beim Ryzen ebenfalls, als man plötzlich waschechte 8,12 und 16 Kerner in den normalen Desktop brachte, z.B. Spiele aber vor allem auch noch immer wegen Intel auf meistens 4 limitiert waren.
Und da die anderen nicht mitgemacht haben, konnte die Technik nur in einzelnen Bereichen ab und zu mal glänzen.
Der AMD FX6300 "6"-Kerner war lange Zeit sogar ein Preis-Leistungstipp der Redaktion, weil er ganz passabel in neuen Spielen lief, wo Intels teurere 2-Kern-Riege dann schon zu wenig Threads hatte, letztere klammerten sich an alten Benches wie Starcraft 2, wo die wegen hoher Taktraten und ihrer IPC glänzen konnten.
Lediglich der höherer Stromverbrauch konnte da noch negativ ausgelegt werden.
Man darf AMD aber eine gewisse Naivität unterstellen, zu glauben oder zu erwarten, dass die Industrie sich direkt und unmittelbar auf deren Designansatz einschießen würde und die ganze Software dafür umständlich optimieren würde.
Das passierte im Prinzip über 10 Jahre hinweg, jetzt haben wir die Low-Level API's, nachdem AMD das mit Mantle angefangen hatte.
Im Prinzip haben wir es denen an Pionierarbeit zu verdanken, dass Dinge wie Raytracing und große Mehrkernprozessoren salonfähig geworden sind.
Mit Intel (2 oder maximal 4 Kerne reichen für alles) und NVidia (DX11 forever) wäre das sicher nicht so schnell möglich gewesen.
 
Das aber keine gute Idee. Bulldozer war doch AMDs größter Griff ins Klo und hätte beinahe zu AMDs Insolvenz beigetragen.
Die Architektur darf halt nicht mit so minimalen Cache umgesetzt werden wie bei AMD.

Alleine von der Logik:
1 Kern mit 1MB Cache.

2 Kerne mit geteiltem 1MB Cache.

Also es gibt definitiv Möglichkeiten einen Bulldozer Ansatz deutlich effizienter und besser zu gestalten.
Gerade wenn man die ganze Prozessor Architektur anders ist als bei AMD.
Darüber hinaus kommt es bei ARM ja auch mehr darauf an wie günstig und für welche Geräte es hergestellt wird.
Vielleicht ist das auch einfach nur der Ansatzpunkt hier.
 
Wenn ich mich noch recht Entsinne waren doch gerade das Teilen der FPUs und der Integereinheiten doch DER Kritikpunkt an der Bulldozer Architektur?!
Die geteilten Rechenwerke waren nicht wirklich das Problem bei Bulldozer. Eher alles andere drumherum. AMD hat das Gröbste mit Piledriver und später Steamroller sogar noch ausgebügelt. Es hat nur nicht gereicht um Intel gefährlich zu werden.

ARM ist sich der Gefahren natürlich bewusst. Deswegen ist der A510 auch als "little" Kern platziert. ARM wird also nicht die Taktschraube bis zum Anschlag drehen, wie AMD es notgedrungen getan hat. Die kleinen Kerne dürfen ein bisschen lahm sein, wenn sie dafür platz- und energiesparend sind.
 
Vielleicht sollte man nochmal klarstellen, dass die "Verwandtschaft" zwischen den neuen ARMs und AMDs damaligem Bulldozer ausschließlich das Konzept der "geteilten" FPU betrifft.
Ansonsten haben die Architekturen nichts gemeinsam, insofern hinkt der Vergleich nicht nur, er kriecht in die falsche Richtung.
Spannend ist daran vor allem, dass es nochmal deutlich bestätigt, dass der Ansatz (geteilte FPU) nicht von vornherein zum Scheitern verurteilt war. Oder besser, dass jemand bei ARM das so sieht^^.
 
Keine Ahnung, wie?
Die Technik an sich war gut, es gab nur keine passende Anwendung für den normalen Heimanwender, da alles und auch die Betriebssysteme zu dem Zeitpunkt über Jahre ausschließlich auf Intels durchgestylte Ein-bis-2-Kern-Technik mit hoher IPC ausgelegt und optimiert gewesen ist.
AMD war also mal wieder um Jahre seiner Zeit vorraus, wie später beim Ryzen ebenfalls, als man plötzlich waschechte 8,12 und 16 Kerner in den normalen Desktop brachte, z.B. Spiele aber vor allem auch noch immer wegen Intel auf meistens 4 limitiert waren.
Und da die anderen nicht mitgemacht haben, konnte die Technik nur in einzelnen Bereichen ab und zu mal glänzen.
Der AMD FX6300 "6"-Kerner war lange Zeit sogar ein Preis-Leistungstipp der Redaktion, weil er ganz passabel in neuen Spielen lief, wo Intels teurere 2-Kern-Riege dann schon zu wenig Threads hatte, letztere klammerten sich an alten Benches wie Starcraft 2, wo die wegen hoher Taktraten und ihrer IPC glänzen konnten.
Lediglich der höherer Stromverbrauch konnte da noch negativ ausgelegt werden.
Man darf AMD aber eine gewisse Naivität unterstellen, zu glauben oder zu erwarten, dass die Industrie sich direkt und unmittelbar auf deren Designansatz einschießen würde und die ganze Software dafür umständlich optimieren würde.
Das passierte im Prinzip über 10 Jahre hinweg, jetzt haben wir die Low-Level API's, nachdem AMD das mit Mantle angefangen hatte.
Im Prinzip haben wir es denen an Pionierarbeit zu verdanken, dass Dinge wie Raytracing und große Mehrkernprozessoren salonfähig geworden sind.
Mit Intel (2 oder maximal 4 Kerne reichen für alles) und NVidia (DX11 forever) wäre das sicher nicht so schnell möglich gewesen.
AMD hat eben nicht das Umfeld bedacht. Ich kann als Unternehmen doch nicht sagen, hätten die Kunden dies und jenes gemacht wären wir cool.
 
Wenn ich mich noch recht Entsinne waren doch gerade das Teilen der FPUs und der Integereinheiten doch DER Kritikpunkt an der Bulldozer Architektur?!

Integer- und FP-Einheiten sind bei AMD seit jeher zwei getrennte Bereiche. Das ist sogar ein recht erfolgreiches Konzept; Intels Atom-/E-Core-Linie hat es z.B. übernommen. Auch mit der Zuordnung von einer FPU- zu zwei ALU-Sektionen hätte man bei Bulldozer leben können, über die Organisationsform hat sich eigentlich nie jemand beschwert. Das Problem an den Modulen war, dass die insgesamt vorhandenen Integer-Recheneinheiten etwas, die FP-Recheneinheiten deutlich weniger waren als zuvor für ein Pärchen aus zwei Kernen und zusätzlich auch noch die Decoder-Einheiten in gleichem Maße reduziert wurden. Letzteres war meiner Meinung sogar die größere Schwierigkeit und nachdem der bei Steamroller gefixt wurde, war auch eine deutliche Verbesserung spürbar. (Ich ärgere mich bis heute, dass ich einen entsprechenden, kritischen Absatz aus meiner Vorberichterstattung vor der Veröffentlichung gelöscht hatte. Aber zu dem Zeitpunkt war er noch sehr spekulativ und AMD-Fans haben sich schnell aufgeregt.^^)

Das sind zwar alles Makel, die nichts mit der "ist das ein Kern?"-Frage zu tun hatten, denn es gibt natürlich auc CPUs mit noch weniger, die trotzdem nicht als 0-Kerner zählten. Aber von den Gesamtfähigkeiten und gänzlich ungeachtet der Organisation entsprach ein Bulldozermodul halt eher 1,5 Kernen der damaligen Zeit und ab Haswell hatte die nominelle Konkurrenz mehr Ressourcen in einem Kern als AMD in einem kompletten Modul. Daher der damalige Entschluss von PCGH, lieber von "4M/8T" zu sprechen. Heute hätte man ihn vielleicht als "0p/8e" betitelt, auch wenn die kleinen Bulldozer-Int-Kerne nicht wirklich effizient waren.^^
 
Zurück