News AMD Bulldozer: ARM kopiert Ansatz und setzt auf geteilte FPU

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Bulldozer: ARM kopiert Ansatz und setzt auf geteilte FPU

Viele Jahre nach AMDs letztem Bulldozer-Prozessor kopiert ARM nun den CMT-Ansatz: Beim Cortex A510 teilen sich zwei ALUs eine FPU. Die Probleme der alten AMD-CPUs treten dabei nicht auf, denn diese lagen ohnehin an anderer Stelle.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Bulldozer: ARM kopiert Ansatz und setzt auf geteilte FPU
 
Gab's damals nicht auch einen Gerichtsprozess ob man so ein CMT Modul den nun als 2 Kerne bezeichnen darf oder nicht?
Bei PCGH stand dann immer "4M/8T" wenn ich mich Recht erinnere oder?

Wie ist das jetzt hier? Wird das jetzt als vollwertiger Kern beworben?
 
Mein sofortiger Gedanke war... Der letzte Bulldozer ist erst 4 Jahre her?!
Die Dinger sind echt vollkommen vergessen, seit Ryzen 1 2017 hat sich doch schon gar niemand mehr für die interessiert.


"Viele" mit "Vier" verwechselt. :ugly:
 
Gab's damals nicht auch einen Gerichtsprozess ob man so ein CMT Modul den nun als 2 Kerne bezeichnen darf oder nicht?
Bei PCGH stand dann immer "4M/8T" wenn ich mich Recht erinnere oder?

Wie ist das jetzt hier? Wird das jetzt als vollwertiger Kern beworben?

Ja, da hatte sich AMD damals ganz schön in die Nesseln gesetzt. In den USA mussten sie, glaube ich, sogar einiges an Dollar an die Endkunden zurückzahlen...

ARM an sich bewirbt die Kern-Anzahl gar nicht so explizit, zumindest wäre mir jetzt nicht so bewusst. Sie vermarkten viel mehr die Architektur als Ganzes . Man wird dann sehen, was die APU-Hersteller wie Qualcomm daraus machen...

Das aber keine gute Idee. Bulldozer war doch AMDs größter Griff ins Klo und hätte beinahe zu AMDs Insolvenz beigetragen.
Nur weil "Bulldozer" als Produkt nicht so prall war, heißt das ja noch lange nicht, dass alle Aspekte der Architektur schlecht waren. Das steht ja auch so im Artikel.
Intel hat zum Beispiel auch die NetBurst-Architektur des Pentium 4 vollständig eingestampft und die Core2Duo auf Basis der Pentium 3 entwickelt. Es kann sich lohnen, auch mal ein Blick in die Vergangenheit zu werfen
 
Ich bin gespannt, ob es diesmal klappen wird. Bei AMD war es ja ein totaler Flop.

Gab's damals nicht auch einen Gerichtsprozess ob man so ein CMT Modul den nun als 2 Kerne bezeichnen darf oder nicht?

Das ganze endete mit einer außergerichtlichen Einigung, es ist also nicht geklärt worden.

Bei PCGH stand dann immer "4M/8T" wenn ich mich Recht erinnere oder?

8C8T, PCGH hat das nicht so sehr gekümmert, zumal das ja im Amiland war.

Wie ist das jetzt hier? Wird das jetzt als vollwertiger Kern beworben?

Vermutlich als Kern, sonst würde es Marketingtechnisch nicht soviel Sinn ergeben. Das "vollwertig" wird man nicht erwähnen.
 
Wie ist das jetzt hier? Wird das jetzt als vollwertiger Kern beworben?

Man wird dann sehen, was die APU-Hersteller wie Qualcomm daraus machen...
Das ist die dazugehörige Plattform von Qualcomm:
Eines der ersten Telefone damit war wohl das ROG Phone 6 Pro:
Auffällig bei beiden Seiten: Aufgrund der gemischten Konstruktion (es gibt 1x Cortex-X2, 3x Cortex A710, 4x Cortex A510, letzteres beinhaltet aber nur 2 FPUs) vermeidet man überhaupt eine Anzahl an CPU Kernen zu nennen. Der Produktname und "bis zu" GHz müssen reichen.
Das Ding macht auch genau genommen nicht mehr "nur" bigLittle sondern eine Art hugeBigLittle.
 
Das Drama um die Anzahl der FPUs war damals wie heute Unsinn.

Zu 386 und 486 Zeiten hatte nicht mal jeder Intel CPU eine FPU. Das waren teilweise extra Chips die man sich von Cyrix oder Via gekauft hat und auf das Mainboard sockeln konnte (wie damals üblich ohne Kühlkörper). Auch im 68000er Bereich, war das damals ein extra Chip, der mathamatische Co-Prozessor. Brauchen im strengen Sinne des Wortes tut den keiner.

Ab Pentium war dann immer eine FPU mit enthalten in IntelChips, aber das ist kein Gesetz, dass der enthalten sein muss. Besonders zu der Zeit als AMD im Bulldozer die FPU Einheiten auf den Maßstab 1:2 reduziert hat, war doch eh klar, dass jeder der nur halbwegs FPU Performce brauchte für ein Projekt lieber eine GPU nimmt um seine großen Mengen FPU Rechenaufgaben abzuarbeiten.

Auch Nvidia hat später niemand vorgeworfen, dass sich bei RTX zwei Cuda Kerne eine FPU Ausführungseinheit geteilt haben.

Das kommt halt raus, wenn die Intel Marketingabteilung meint sie wäre clever. Vielleicht hat AMD Pech und es fällt sogar ein Richter darauf rein, aber rückblickend sind die FPU Argumente von Intel immer eine Lachnummer gewesen. Hätten sie mal ihre Energie in die Verbesserung ihrer Fertigung gesteckt kann man da nur aus heutiger Sicht sagen.
 
Ich hatte mir damals den fx8350 glaube um die 199 Euro gekauft und war trotz der negativen Schlagzeilen total zufrieden mit dem Ding. Theoretisch kann man heute sogar noch cyberpunk damit spielen :-)
 
Wenn ich mich noch recht Entsinne waren doch gerade das Teilen der FPUs und der Integereinheiten doch DER Kritikpunkt an der Bulldozer Architektur?!
 
Wenn ich mich noch recht Entsinne waren doch gerade das Teilen der FPUs und der Integereinheiten doch DER Kritikpunkt an der Bulldozer Architektur?!

Und wenn ihr jetzt noch die News, oder erst recht die Quelle lest, werdet ihr feststellen dass eben die geteilte FPU garnicht das große Problem des Bullis war. Aber weil es der eine große Unterschied war den auch Laien mitbekommen haben, hat man es halt gerne darauf reduziert.
Auffälligerweise hatte der Bulli nämlich eine Multithread Stärke. Also gerade dort wo geteilte Recheneinheiten ihn doch eigentlich hätten besonders bremsen müssen
 
Wenn ich mich noch recht Entsinne waren doch gerade das Teilen der FPUs und der Integereinheiten doch DER Kritikpunkt an der Bulldozer Architektur?!

Das war nur eine Momentaufnahme die bei Start der uarch entstand weil keiner so richtig wusste warum das Design nicht funktioniert ( in dem Sinn nicht funktioniert das die uarch langsamer war als z.B. Deneb ).

Als die Leute bzw. Tester dann bisschen schlauer geworden sind hat sich das geleget. Unter anderem war der $ schuld an der schlechten Leistung. So ein FX-6300 mit einer stark übertakteten Northbridge aka LvL3 $ war dann schon ganz okay :)
 
Ich hatte mir damals den fx8350 glaube um die 199 Euro gekauft und war trotz der negativen Schlagzeilen total zufrieden mit dem Ding. Theoretisch kann man heute sogar noch cyberpunk damit spielen :-)
Genauso ist es. Die Leute waren trotz der schlechten Presse und den relativ schlechten Gaming Benchmarks trotzdem zufrieden. Bulldozer war seiner Zeit einfach zu sehr Vorraus, trotz seiner Probleme mit der Effizienz.

Trotzdem war es ein Flop, aber so schlecht wie es oft dargestellt wurde, war es dann wohl doch nicht. :-)
 
Zurück