AMD Bulldozer: erste Architektur-Informationen zum Phenom-Nachfolger

@ Bucklew

P2 klingt so richtig mies, alt und ausgemustert ... ABer ja, es ist ein Phenom II X4 mit zwei zusätzlichen Kernen und ~ 2,8GHz ... Bin mal gespannt, was letzten Endes daraus wird.
 
Gerade im Gamingbereich, sehe ich nicht das AMD so weit hinter her hinkt, wie du so schön schreibst.


Hängt von der Maßeinheit ab. In Sachen Leistung hängt AMD nicht weit hinterher, das stimmt. Aber: Das liegt an den fehlenden Anforderungen/Optimierungen der Spiele, in denen selbst ein Pentium D oft nicht weit zurück liegt. Dieser "fehlende" Rückstand bringt AMD also recht wenig - denn genauso, wie man nicht viel schlechter ist, als die neuen Intel CPUs, ist man auch nicht viel besser, als alte AMD/Intel-CPUs, so dass für die Besitzer selbiger kein Kaufanreiz besteht.
Gibt man den Rückstand in Jahren an, dann duellieren sich die neusten AMD-Chips oft mit 1-1,5 Jahre alten Intel-Modellen...


b2t:
Ist schon etwas über die Leistungsfähigkeit der einzelnen Baugruppen bekannt?
Vier Pipelines pro Kern haben ja schon dem Core2 Beine gemacht, allerdings hatte afaik schon der Core1 einen vierfach parralleln Decoder, wärend AMD bislang maximal 3 Befehle parrallel verarbeiten kann - hier aber 8 Pipelines aus dem gleichen Decoder versorgen möchte.
Und ist die vereinigte FPU-Einheit Leistungsfähiger als die alte?
Sonst würde AMD nämlich de facto den Schwerpunkt von FPU auf ALU verschieben.

(So oder so bin ich gespannt auf den Streit, was denn nun ein "Kern" ist, wenn Intel die Recheneinheiten zwischen "Kernen" teilt, AMD die Decoder und die FPU)
 
Es ist kein Phenom auf guss wie mache hier schreiben der Athlon64 bis jetzt Phenom hatten nur 3 pipelines amd hat eine 4 spendiert wie beim Core 2 duo quad und den i3,5,7 serie dazu hat man die Befehlsätze erweitert sowie den sheduler auf 128 bit fähigkeit. Es ist der jetztigen Arhitektur nihct ähnlich.
 
bin mal auf die leistung gespannt, wird wohl konkurrent zum sandy bridge, oder vielleicht doch erst zum ivy bridge. naja abwarten. sandy bridge bekommt auch ein 8 kern modell, soviel ich weiß.
trotzdem kommt 32 nm spät finde ich, immerhin launcht intel schon heuer 32 nm
 
Der PCI-Controller fehlt, der ist immer noch extra. Also ist Intel weiter einen Pluspunkt voraus.
1. Ist das kein Vorteil sondern ein dicker, fetter Nachteil, siehe die USB3/S-ATA3 Problematik.

2. Ist es kein Vorteil, wenn man eine Plattform nach dem Einsatzzweck wählen muss und z.B. keine preisgünstige CPU mit einem Board das 4 x16 Slots besitzt kombinieren kann.

Das könnt man zum Beispiel für GPGPU Berechnungen nutzen, Folding@Home and so...
 
1. Ist das kein Vorteil sondern ein dicker, fetter Nachteil, siehe die USB3/S-ATA3 Problematik.

2. Ist es kein Vorteil, wenn man eine Plattform nach dem Einsatzzweck wählen muss und z.B. keine preisgünstige CPU mit einem Board das 4 x16 Slots besitzt kombinieren kann.

Das könnt man zum Beispiel für GPGPU Berechnungen nutzen, Folding@Home and so...
Ja, aber hat AMD nicht auch Probleme mit den neuen Schnittstellen? Die wollen, soweit ich informiert bin, nächsten Jahr erstmal nur SATA 3 mit integrieren.
Intel müßte dann eben den internen PCI-Controller für die höheren Leistungen anpassen sowie AMD bei der Northbridge(externer PCI-Controller).
Vielleicht ist das nur eine Milchmädchen-Rechnung von mir: Ob die Platine durch den Extra-Chip oder der Prozessor teurer wird ist doch eigentlich egal.

Und jemand der vier(!) Grafikkarten (4x 16 Lanes) zum Spielen oder sonst was braucht, der kann auch etwas mehr Geld für die CPU ausgeben. Den Geld dürfte für diese Person keine Rolle spielen.

Aber ich dachte, es hätte den Vorteil von mehr Geschwindigkeit und weniger Verbrauch. Stimmt das wenigstens?:huh:

Für wen sind den solche GPGPU-Berechnungen denn gedacht? Ich bräuchte sie bestimmt nicht und viele andere hier im Forum wohl auch nicht. Eine Grafikkarte die nichts graphisch darstellt:schief:. Schlecht für einen Spieler.:(
Ist jetzt nicht böse gemeint, ich weiß was Du damit sagen wolltest.:)
 
Ja, aber hat AMD nicht auch Probleme mit den neuen Schnittstellen?
Nö, wieso solltens?!
Die Hersteller haben die gewaltige Anzahl an 6 Lanes frei zur Verfügung für Onboardkomponenten!
Das ganze natürlich auch nach dem 2.0 Standard und der Geschwindigkeit.

Die wollen, soweit ich informiert bin, nächsten Jahr erstmal nur SATA 3 mit integrieren.
Ist doch egal, klatscht man einfach aufs Board, tut da 2-4 PCie 2.0 Lanes ran und gut ist - das geht beim LGA1156 sinnvollerweise nicht...
Das ist auch das tolle, wenn man meint die ganzen Lanes in die CPU integrieren zu müssen und nur 16 'frei' hat, für die Grafikkarte, der Rest von der SB vergewaltigt wird, so dass hier niemals nie nicht, auf keinen Fall, ein Engpass entstehen kann...

Zumal die ANbindung zwischen CPU und Chipsatz bzw NB und SB auch noch die unglaubliche Menge von 4 PCIe Lanes (AFAIR immer noch 1.1) entspricht.
Intel müßte dann eben den internen PCI-Controller für die höheren Leistungen anpassen sowie AMD bei der Northbridge(externer PCI-Controller).
Siehst, AMD hats schon, hier ist man auch wesentlich großzügiger mit PCIe Lanes als die Konkurenz, insbesondere nVidia (die haben nur 3 frei) oder eben die Konkurzen mit LGA1156, die haben nämlich die unglaubliche Anzahl an 0 PCIe 2.0 Lanes frei, alles was 2.0 ist, liegt an der GraKa an.

Vielleicht ist das nur eine Milchmädchen-Rechnung von mir: Ob die Platine durch den Extra-Chip oder der Prozessor teurer wird ist doch eigentlich egal.
Du vergisst die Bandbreite, die S-ATA 3/USB3 bereitstellt.
Das ist weit mehr als 1 PCie 1.0 Lane kann, auch eine 2.0 Lane ist damit etwas überfordert, hier brauchts schon 2.

Und jemand der vier(!) Grafikkarten (4x 16 Lanes) zum Spielen oder sonst was braucht, der kann auch etwas mehr Geld für die CPU ausgeben. Den Geld dürfte für diese Person keine Rolle spielen.
Sag mal, kannst nicht lesen oder schreib ich Chinesisch?!
Ich schrieb doch für GPGPU also Berechnungen auf der Grafikkarte, zum Beispiel Folding at Home, ich sprach NICHT vom spielen!

Hier wäre es etwas doof, einen Sempron mit 4 HD5870 oder GTX285 zu kombinieren, bei GPGPU, wo die CPU nur die Daten für die GraKas aufbereiten muss, schaut das anders aus (wobei man hier wohl eher einen Athlon 2/240 oder so nehmen würde).

Ganz ab davon gibts noch andere Dinge, die man in x16 Slots stecken kann.
z.B. x8 SAS RAID Karten!
Und da AMD von Haus aus ECC Speicher unterstützt (außer MSI und ev. noch der eine oder andere), spricht nichts dagegen ein Consumer Board für einen Storage Server zu nutzen.
Aber ich dachte, es hätte den Vorteil von mehr Geschwindigkeit und weniger Verbrauch. Stimmt das wenigstens?:huh:
Was meinst genau?

Für wen sind den solche GPGPU-Berechnungen denn gedacht? Ich bräuchte sie bestimmt nicht und viele andere hier im Forum wohl auch nicht. Eine Grafikkarte die nichts graphisch darstellt:schief:. Schlecht für einen Spieler.:(
Ist jetzt nicht böse gemeint, ich weiß was Du damit sagen wolltest.:)
Schrieb ich doch -> Folding at Home zum Beispiel.
 
2. Ist es kein Vorteil, wenn man eine Plattform nach dem Einsatzzweck wählen muss und z.B. keine preisgünstige CPU mit einem Board das 4 x16 Slots besitzt kombinieren kann.

Das könnt man zum Beispiel für GPGPU Berechnungen nutzen, Folding@Home and so...

Wenn du die Berechnungen unabhängig von der CPU ausführen willst, dann kannst du deine Karten über PCI-E Switches ansteuern. Der Anteil der Leute, die derartige Anwendungen bislang nutzen, ist zu klein, um eine generell teurere Plattform zu rechtfertigen.
Wenn du eine schnelle Anbindung zwischen CPU und GPU willst, weil die CPU fleißig mitrechnen soll - dann brauchst du auch eine schnelle CPU.
Wenn du nur den RAM für GPGPU nutzen willst, dann solltest du Lösungen mit externem Speichercontroller befürworten, die dir maximale Performance für Erweiterungskarten bieten und die CPU links liegen lassen.


Ja, aber hat AMD nicht auch Probleme mit den neuen Schnittstellen? Die wollen, soweit ich informiert bin, nächsten Jahr erstmal nur SATA 3 mit integrieren.
Intel müßte dann eben den internen PCI-Controller für die höheren Leistungen anpassen sowie AMD bei der Northbridge(externer PCI-Controller).
Vielleicht ist das nur eine Milchmädchen-Rechnung von mir: Ob die Platine durch den Extra-Chip oder der Prozessor teurer wird ist doch eigentlich egal.

Es gibt schon einen Unterschied:
Wenn AMD SATA3 onboard integriert, dann können die Daten mit voller Geschwindigkeit via HyperTransport3 zu CPU und RAM gelangen.
Bei Intel ist das komplizierter, die müssen nich nur den Festplattencontroller anpassen (ein Schritt, der notfalls sogar von Mainboardherstellern umgangen weren kann), damit der 6000€-72000€ teure 6xHigh-End-SSD-RAID0 Verbund mit voller Geschwindigkeit mit dem Chipsatz kommunizieren kann, sondern die müssen zusätzlich auch noch das andere Ende der DMI-Verbindung in der 120-144€ CPU austauschen.
Ein erheblicher Nachteil für die vielen Kunden, die SATA3 voll ausreizen wollen, meinst du nicht auch?


;)
 
Sag mal, kannst nicht lesen oder schreib ich Chinesisch?!
Ich schrieb doch für GPGPU also Berechnungen auf der Grafikkarte, zum Beispiel Folding at Home, ich sprach NICHT vom spielen!
Brauchst nicht gleich patzig zu werden! Dein Satz ließ Raum für Interpretationen.
Ich dachte, daß ist eher ein Forum für Spieler, drum verbandt ich das auch damit.

Und das mit dem "weniger Strom und so" sollte meinen, daß eine Integration dies ermöglichen könnte.
Ich weiß es nicht, darum meine Frage.

Es gibt schon einen Unterschied:
Wenn AMD SATA3 onboard integriert, dann können die Daten mit voller Geschwindigkeit via HyperTransport3 zu CPU und RAM gelangen.
Bei Intel ist das komplizierter, die müssen nich nur den Festplattencontroller anpassen (ein Schritt, der notfalls sogar von Mainboardherstellern umgangen weren kann), damit der 6000€-72000€ teure 6xHigh-End-SSD-RAID0 Verbund mit voller Geschwindigkeit mit dem Chipsatz kommunizieren kann, sondern die müssen zusätzlich auch noch das andere Ende der DMI-Verbindung in der 120-144€ CPU austauschen.
Ein erheblicher Nachteil für die vielen Kunden, die SATA3 voll ausreizen wollen, meinst du nicht auch?


;)
So gesehen hast Du recht. Hier muß ja der Chipsatz (Southbridge) und der Prozessor geändert werden.
Mal schauen, wie das AMD hinkriegt und Intel darauf reagiert.
Könnte das auch ein Grund sein, warum Intel das im nächsten Jahr noch nicht bringt? Oder setzen die doch alles auf ihre Light Peak? ;)
 
Zuletzt bearbeitet von einem Moderator:
Wenn du die Berechnungen unabhängig von der CPU ausführen willst, dann kannst du deine Karten über PCI-E Switches ansteuern. Der Anteil der Leute, die derartige Anwendungen bislang nutzen, ist zu klein, um eine generell teurere Plattform zu rechtfertigen.
Wenn du eine schnelle Anbindung zwischen CPU und GPU willst, weil die CPU fleißig mitrechnen soll - dann brauchst du auch eine schnelle CPU.
Wenn du nur den RAM für GPGPU nutzen willst, dann solltest du Lösungen mit externem Speichercontroller befürworten, die dir maximale Performance für Erweiterungskarten bieten und die CPU links liegen lassen.
Klar, die dann ordentlich auf den Verbrauch gehen und auch Leistung kosten und auch nicht für umsonst zu haben sind.

Aber hey, man muss halt irgendwie die Nachteile zu einem Vorteil drehen :daumen:

Und wo ist der AM3 Sockel teuer?
Der ist im Gegenteil sogar günstiger als der LGA1156, hier gibts auch richtige Chipsätze und keine Wucher-SBs...
Es gibt schon einen Unterschied:
Wenn AMD SATA3 onboard integriert, dann können die Daten mit voller Geschwindigkeit via HyperTransport3 zu CPU und RAM gelangen.
Nein, hängen auch via PCie an der NB - wie bei Intel seit 915...

Bei Intel ist das komplizierter, die müssen nich nur den Festplattencontroller anpassen (ein Schritt, der notfalls sogar von Mainboardherstellern umgangen weren kann) sondern die müssen zusätzlich auch noch das andere Ende der DMI-Verbindung in der 120-144€ CPU austauschen.
1. AMD (ATi) und Intel CHipsätze sind vergleichbar aufgebaut (nee, stimmt nicht: bei AMD sind die PCIe Lanes generell in der NB drin, in der SB ist nur der I/O Teil)
2. aufgrund dessen ists nicht so schwer wie du es darstellen möchtest.
3. kannst davon ausgehen, das "der DMI" in der CPU eh schon ein PCIe 2.0 Interface besitzt.
Ein erheblicher Nachteil für die vielen Kunden, die SATA3 voll ausreizen wollen, meinst du nicht auch?
1. Warum redest du Intels Situation schön?
2. sehe ich das nicht so.
3. ists bei AMD auch nicht anders, die Verbindung zwischen NB und SB ist bei beiden vergleichbar (man könnte theoretisch sogar 'ne AMD SB auf 'nen Intel Board klatschen)
4. ists 'ne Herstellerspezifische Verbindung, wenn die zu lahm ist, kann man ohne allzu größere Umstände die Performance erhöhen (DDR; QDR, ODR drüber legen z.B., Takt erhöhen usw), man muss sich nicht um irgendwelche Standards kümmern.
 
Nur mal so für mich (und euch) zusammenfassend:
AMD hat einen "klassischen" Chipsatz, bestehend aus North- und Southbridge.
Intel hat den Northbridgechip seit den Lynnfields in den Prozessorkern integriert.
AMD wiederum hat vor ein paar Jahren nur den Speichercontroller in die CPU genommen, der PCIe-Controller ist noch als Extrachip (Nortbridge) erhalten geblieben.
Aber genau dies soll jetzt ein Vorteil gegenüber Intel sein. In welcher Hinsicht genau?
 
Nicht ganz.
Der Chipsatz (bzw die NB) ist schon beim K8 in die CPU gewandert.
Der Chipsatz dient also nur zur bereitstellung von Schnittstellen und Bus Systemen, mehr ist da eigentlich nicht mehr drin.

Bei Intel sitzt aber auch ein PCIe Controller in der CPU, was bei einem Low End/Office System aus Kostensicht nicht verkehrt ist, ists doch bei einem 'normalen Consumer System' eher Nachteilig.

Der Grund ist eben, das man auf eine gewisse Anzahl an PCie Lanes festgelegt ist, die kann man nicht 'mal eben' ändern bzw erhöhen, ohne Veränderungen an der CPU und/oder Sockel!
Du büßt also Flexiblität ein.
 
Nur mal so für mich (und euch) zusammenfassend:
AMD hat einen "klassischen" Chipsatz, bestehend aus North- und Southbridge.
Intel hat den Northbridgechip seit den Lynnfields in den Prozessorkern integriert.
AMD wiederum hat vor ein paar Jahren nur den Speichercontroller in die CPU genommen, der PCIe-Controller ist noch als Extrachip (Nortbridge) erhalten geblieben.
Aber genau dies soll jetzt ein Vorteil gegenüber Intel sein. In welcher Hinsicht genau?

Letztlich alles eine Definitionsfrage.

DIE klassische Southbridge stellt eine Verbindung zwischen der CPU, dem Speicher und dem Systembus her, an dem alle anderen Komponenten hängen. (bzw. es gibt noch ältere Varianten, da fehlt dann aber eine Southbridge, weswegen "North" die falsche Bezeichnung wäre)
Das letzte Exemplar nur mit diesen Funktionen dürfte es irgendwann zu Pentium1 Zeiten gegeben haben.
Mit der Einführung von AGP wurde die NB Sitz einer speziellen Schnittstelle für die Grafikkarte (afaik heißt sie seitdem zumindest bei Intel nicht mehr "NB", sondern "Memory Controller Hub"), später wurden optional IGPs integriert und zu Zeiten des Intel i865/875 die LAN-Schnittstelle.

Am südlichen Ende gibt es ebenfalls keine einheitliche Definition. Anfangs war die Southbridge einfach nur ein Super-I/O-Chip, der eine ganze Reihe von Funktionen bereitstellt und als eines von vielen Geräten am Systembus (PCI) hängt, der direkt von der Northbridge bereitsgestellt wird.
Später wurde ein vielzahl von Punkt-zu-Punkt-Verbindungen (oft mit BUS-ähnlichem Aufbau) entwickelt, die North- und Southbridge direkt verbanden und der eigentliche BUS, an den weitere Komponenten angebunden werden konnten, wurde von der Southbridge bereitgestellt. (so dass NBs eigentlich schon in prä-AGP-Zeiten nicht immer NBs waren. Oder erst dadurch wieder zu welchen wurden?)

Die großen Veränderungen kamen dann im Zuge von IMC:
Eine der wenigen Gemeinsamkeiten aller Chipsätze war vorher, dass sie aus zwei Chips bestehen, von denen der eine ("North") den Speichercontroller enthält und der andere ("South") was anderes, zumindest einen Laufwerkscontroller. (und sei es nur Floppy)
Dann kam der AT64, der Speichercontroller saß auf einmal in einem seperaten Teil der CPU. Die Grafikanbindung aber nicht - also wurde doch nicht die ganze Northbridge integriert? Frage der Definition. Ein Interface, an dem alles andere angeschlossen werden konnte, stellte der AT64 jedenfalls nicht zur Verfügung. Aber z.B. die zugehörigen Single-Chip-Chipsätze von Nvidia, die damit eigentlich zur Northbridge wurden, aber keinen Speichercontroller hatten - wohl aber eine Grafikanbindung. Und alle Eigenschaften einer Southbridge. duhhhh. :(
Später gabs dann wieder Zwei-Chip-Lösungen von Nvidia, bei denen der untere Chip alle Eigenschaften obiger Single-Chip-Lösung hatte ("Eastbridge"?) - aber auf einmal "Southbridge" genannt wurde. Die "Northbridge" dagegen stellte nichts weiter, als einen zweiten Grafikanschluss zur Verfügung und hatte somit gar nichts mit den ursprünglichen "Northbridges" gemeinsam.
Spaßig auch die Gegenstücke für die Intelplattformen: Die hatten den zusätzlich den Speichercontroller in der Northbridge. Und bei den kleinen Versionen auch eine "normale" Southbridge. Bei den großen Ausgaben (2x16) aber den gleichen Single-Chip, der auch für AMD verwendet wurde und da Northbridgefunktionen übernam. (alle noch da?)
AMD/ATI unterdessen hat sich wieder etwas dem ursprünglichen Konzept angenäher und stattet die eigenen "Northbridges" nur mit einer universellen Anbindung -aber kein BUS- (und ggf. einer IGP - die bei Nvidia übrigens wenn dann in der "Southbridge" liegt :crazy: ) aus, an die unter anderem eine (doch recht) klassische Southbridge angeschlossen wird. Aber natürlich hat diese "Northbridge" keinen Speichercontroller, sondern ist eine reine HT-PCI-E-Bridge.
Das gleiche Prinzip hat Intels X58 (QPI-PCI-E-Bridge), nur dass die Anschlüsse für die Southbridge da einen bestimmten Namen tragen - und das ein Teil der zusätzlichen Komponenten an eben diese "Southbridge" angeschlossen werden, womit selbige in der Tradition der "Southbridges" des letzten Jahrzehnts steht (die z.B. PCI bereitstellen), aber entgengensatz zu AMDs Lösung nicht in der Tradition der ursprünglichen.
Dafür kommt exakt die gleiche Southbridge (""?) auch beim P45/X48 in Kombination mit einer semi-klassischen Northbridge zum Einsatz (d.h.: Speichercontroller, Grafik, Interface für SB - aber nicht für alles andere). Eben deren Funktionen sind jetzt beim So1156 in die CPU gewandert. D.h.: kleinere Funktionselemente wie Taktverwaltung,... nicht. Die waren eigentlich immer in der Northbridge, sitzen jetzt aber im P55. Der eigentlich eher eine Southbridge ist. Also so eine Southbridge, die auch das Restssystem versorgt. Nicht so eine, wie bei AMD, die nur als super-duper-I/O dient und den Rest einer Northbridge überlasst. Um zu der zurückzukommen: Beim Lynnfield finden sich Speichercontroller, Grafikschnittstelle und Anbindung fürs Restsystem noch auf der CPU wieder - wobei Gigabyte aber z.B. jetzt Mainboards verkauft, bei denen an dieser Grafikschnittstelle auch einige Zusatzcontroller angebunden sind. Beim Clarkdale aber sitzt das alles in einem Extra-DIE (zusammen mit einer IGP. Deren Grafikausgabe aber der P55 übernimmt) - der Wiederum ist mit der eigentlichen CPU (auf dem gleichen Substrat) über die gleiche Verbindung verbunden, die zwischen X58 und Bloomfield verwendet wird. Nur dass da der Speichercontroller am CPU-seitigen Ende sitzt.

So, ich hoffe, jetzt ist klar, dass nichts klar ist, weil nicht mal klar ist, was z.B. eine Northbridge ist. ;)


Zur zweiten Frage:
Der Vorteil, wenn sich einzelne Funktionen in unterschiedlichen Chips befinden, liegt darin, dass man diese getrennt austauschen kann.
AMD hat also die Möglichkeit, ein und dieselbe CPU (und deren Speichercontroller) mit verschiedenen Grafikanbindungen zu kombinieren.
Der So775 erlaubt die Kombination ein und desselben Speichercontrollers (samt anhängeder Grafikanbindung) mit verschiedenen CPUs (z.B. DDR1/2/3), der So1156 erlaubt den Austausch von CPU, Speichercontroller und IGP (als Einheit), ohne das Mainboard ändern zu müssen,...

Die Frage ist halt immer, was man gerade machen will. (im Moment z.B. kann der So1156 quasi nicht von SATA3 profitieren, weil die Anbindung der CPU für die Southbridge in der aktuellen Fassung zu lahm ist. D.h. selbst wenn man den Chipsatz tauschen würde -was man eigentlich günstig unter Beibehaltung von Speicher, Grafik, CPU,... machen könnte-, hätte man ggf. nicht alle Flaschenhälse beseitigt)

Zu Bedenken ist im Gegenzug natürlich immer, was es an anderer Stelle kostet. Denn natürlich steigen die Kosten mit der Zahl der Chips und die Verbindung zwischen Bauteilen in verschiedenen Chips ist langsamer oder wird noch teurer. D.h. alles in einen eigenen Chip zu packen (was optimal für Veränderungen wäre), ist auch keine Lösung - deswegen auch die vielfältigen Kompromisse, die ich weiter oben gelistet habe und die alle unter bestimmten Gesichtspunkten für irgendwen Sinn machen.
 
Thx.
Ist die Quelle verlässlich?
Weil auf dem Diagramm seh ich nur eine einzige Decodereinheit und nur eine FPU, die von diesem direkt angesprochen wird. Auf den AMD Folien sind die Kerne deutlich klarer getrennt (und haben auch 4 identische statt 2x2 Pipelines).

Was mir an der Stelle auffällt:
Zählen für Windows bzw. Software allgemein nicht letztendlich die Decoder?
D.h. die hier gezeigten Cluster hätten zwar zwei Funktionseinheiten (bzw. wäre eine asymetrische Ansammlung von zwei großen Integer- und einer FP-Einheit), wären aber softwareseitig nur ein Kern. (So wie umgekehrt eine CPU mit HT als Doppelkern erscheint, weil sie zwei getrennte Decoder haben und das System nicht sehen kann, dass diese auf nur eine Recheneinheit zurückgreifen)
Das wiederspricht zwar auf dem ersten Blick der Überschrift auf den AMD Folien, würde aber zu dem alten Gerücht passen, dass AMD an einem "Anti-HT" arbeitet, dass viele Kerne zu einem zusammenschaltet. (was ja auch Leistungstechnisch Vorteile bringen kann, wenn man die entstehende Rechenlast gut verteilt - etwas, wo AMD die Erfahrungen aus der Radeon-Threadverwaltung einbringen könnte). Außerdem könnte man so die Umgebung der Cluster ähnlich gestalten, wie bisher die Umgebung der Kerne, da sie nach außen hin nur ein (sehr leistungsfähiger) Kern wären.
 
Zuletzt bearbeitet:
Thx.
Ist die Quelle verlässlich?
Weil auf dem Diagramm seh ich nur eine einzige Decodereinheit und nur eine FPU, die von diesem direkt angesprochen wird. Auf den AMD Folien sind die Kerne deutlich klarer getrennt (und haben auch 4 identische statt 2x2 Pipelines).
Naja, er hat sich das ganze aus den Patenten zusammengesucht, von daher ist das nicht mehr als eine (recht genaue) Spekulation

Was mir an der Stelle auffällt:
Zählen für Windows bzw. Software allgemein nicht letztendlich die Decoder?
D.h. die hier gezeigten Cluster hätten zwar zwei Funktionseinheiten (bzw. wäre eine asymetrische Ansammlung von zwei großen Integer- und einer FP-Einheit), wären aber softwareseitig nur ein Kern. (So wie umgekehrt eine CPU mit HT als Doppelkern erscheint, weil sie zwei getrennte Decoder haben und das System nicht sehen kann, dass diese auf nur eine Recheneinheit zurückgreifen)
So wie das ausschaut, würd ich sagen, das dieser eine Bulldozer als 2 Kerne erscheint.
Ist ja beim P4 mit SMT ja auch nicht anders gewesen.
Nur mit dem Unterschied, das man hier wirklich 2 (ALU) Kerne hat und eine gesharte FPU.
Das wiederspricht zwar auf dem ersten Blick der Überschrift auf den AMD Folien, würde aber zu dem alten Gerücht passen, dass AMD an einem "Anti-HT" arbeitet, dass viele Kerne zu einem zusammenschaltet. (was ja auch Leistungstechnisch Vorteile bringen kann, wenn man die entstehende Rechenlast gut verteilt - etwas, wo AMD die Erfahrungen aus der Radeon-Threadverwaltung einbringen könnte). Außerdem könnte man so die Umgebung der Cluster ähnlich gestalten, wie bisher die Umgebung der Kerne, da sie nach außen hin nur ein (sehr leistungsfähiger) Kern wären.
Naja, abwarten und Tee rauchen, was man hier denn nun wirklich machen kann und wied as denn nun wirklich funktioniert bzw ob man biede Blücke auch zusammenfassen könnte.

Dresdenboy vermutet auch, das der Bulldozer 'nen Trace Cache haben wird, der ist aber noch nicht in dem Diagramm drin.
 
Ich fasse nochmal zusammen; war ein bißchen viel auf einmal:
Also eine NB kann auch zu Teil die Funktionen einer SB übernehmen und umgekehrt. Wiederum kann der Prozessor einige oder gar ganze Teile der Northbridge in sich aufnehmen, sei es in den Kern integriert oder wie beim i3/i5 Clarkdale als Chip-neben-Chip auf dem gleichen Gehäuse.

Ein direkter Vergleich mit AMD und Intel ist so nicht möglich. Beides hat seine Vor- und Nachteile.
Bei AMD sitzt aber der PCIe-Controller noch in dem "Northbridgechip". Hab ich das so richtig verstanden?
 
Zuletzt bearbeitet:
Jup, AMD hat alle PCI-E Controller in dem Chip, der typischerweise "Northbridge" genannt wird, wobei es -abgesehen von der Position auf dem Mainboard- keine einheitliche Definition dessen gibt, was man "Northbridge" oder "Southbridge" nennt, die eigentlichen Funktionen können nahezu willkürlich verteilt sein.
 
Richtig, wobei es (auch für AMD) Single Chip Chip'sätze' gibt wie z.B. den MCP78 aka Geforce 8200/nForce 730a.

NB (PCIe Teil) und SB (I/O Teil) zu trennen gibt auch noch etwas mehr Flexiblität, man kann so z.B. den Funktionsumfang erweitern und z.B. mehr S-ATA Ports hinzufügen, ohne was an der NB ändern zu müssen.
Hat aber auch den Nachteil des Platzbedarfes (und ev. auch Kosten)
 
Zurück