AMD-CPU-Roadmap: 12 Kerne 2010, 16 Kerne 2011

Woah, 16 KERNE !!! :wow:
Ich hatte es noch im Hinterkopf, dass AMD bei der schrittweisen Kern-Skalierung in Zukunft
besser wegzukommen schien, aber derartig haben wohl nicht mal die kühnsten AMD-Fanboys vermutet.
Intel - zieh' dich warm an ^^ ...

Bin da irgendwie n bissl misstrauisch - Vervierfachung innerhalb von 24 Monaten?
AMD aktuell keine Reserven in Sachen Verlustleistung, viel Platz aufm Substrat ist auch nicht und die hohen Produktionskosten für große DIEs sind ein nicht unwichtiger Faktor.
Auf der Desktoproadmap stand zudem für 2011 die erste 32nm Generation - vielleicht kann Globalfoundries n bissl zulegen, aber ich glaube nicht, dass sie Moores Law derart überbieten können und bis dahin die vierfache Anzahl von Transistoren zur Verfügung stellen können. (und eine Gleichziehen mit Intel auf 4-fach skalare Architektur steht eigentlich auch noch aus)
Erst recht nicht zu den Produktionskosten und innerhalb der heutigen Verbrauchsspezifikationen.

Bleiben aus meiner Sicht nur zwei Möglichkeiten:
- vollmundige Pläne, die man aber nicht wird halten können
- AMD hat ne neue, deutlich einfachere Architektur in Planung.
Gerade für Server und ihre typischerweise stark multithread-optimierte Software könnte es durchaus Sinn machen, z.B. auf ein 2-fach skalares Design zurückzuwechseln und dann mit einer nur wenig gestiegenden Zahl von Recheneinheiten deutlich mehr Kerne anbieten zu können, die sich effektiver auslasten können.
Aber AMD hat eigentlich nicht die Reserven, um eine getrennte Serverarchitektur zu entwickeln...


Intel setzt ja zurzeit sehr auf "gefälschte Kerne". Auch beim Nehalem EX (soweit ich weiß).

Ich hab mal so eine allg. Frage: Was sind denn jetzt besser echte oder "gefälschte Kerne"?

Hängt von der Anwendung, der Architektur und der Gesamtzahl der Kerne ab. Wenn deine Software die Pipelines oft warten lässt, du aber noch genug weitere Threads hast, die unabhängig davon abgearbeitet werden können, dann bringt dir SMT bei sehr geringem Transistoraufwand sehr viel Leistung. (afaik wurden auf nem P4 schon über 40% gemessen, wenn man zwei Single-Thread-Anwendungen mit z.B. vielen Speicherzugriffen verwendet hat. In-Orderarchitekturen wie Atom oder UltraSparc sollten noch mehr profitieren können).
Wenn die Software gut optimiert ist und die Recheneinheiten selbst optimal auslastest, dann kann SMT auch keine Aufgaben anderer Threads mehr zwischenschieben und bringt dementsprechend gar nichts, wogegen ein weiterer Kern (der natürlich ungleich mehr Transistoren erfordert) immer zusätzlich nutzbare Leistung anbieten kann.
 
AAAAAAMMMMDDDD:hail:

Es geht voran:daumen:

16Kerne 2011 in 32nm geil. Vielleicht beschleunigt sich es noch durch die neue Firma Globalfound die wollen doch nächst Jahr wenn ich mich ne irre 28nm raus bringen schon.
 
Intel setzt ja zurzeit sehr auf "gefälschte Kerne". Auch beim Nehalem EX (soweit ich weiß).

Ich hab mal so eine allg. Frage: Was sind denn jetzt besser echte oder "gefälschte Kerne"?

Wenn echte Kerne besser sind, dann müsste AMD ja im Jahre 2009-2010 grösseren Erfolg haben..

Die "echten" Kerne sind leistungsfähiger. Nur kann man durch nen paar Tansistoren mehr die echten Kerne besser Auslasten. Die paar Transsistoren werden für den Ausbau einiger Einheiten gebraucht. Da muss teilweise was doppelt vorhanden sein.

Bin da irgendwie n bissl misstrauisch - Vervierfachung innerhalb von 24 Monaten?
AMD aktuell keine Reserven in Sachen Verlustleistung, viel Platz aufm Substrat ist auch nicht und die hohen Produktionskosten für große DIEs sind ein nicht unwichtiger Faktor.
Auf der Desktoproadmap stand zudem für 2011 die erste 32nm Generation - vielleicht kann Globalfoundries n bissl zulegen, aber ich glaube nicht, dass sie Moores Law derart überbieten können und bis dahin die vierfache Anzahl von Transistoren zur Verfügung stellen können. (und eine Gleichziehen mit Intel auf 4-fach skalare Architektur steht eigentlich auch noch aus)
Erst recht nicht zu den Produktionskosten und innerhalb der heutigen Verbrauchsspezifikationen.

Bleiben aus meiner Sicht nur zwei Möglichkeiten:
- vollmundige Pläne, die man aber nicht wird halten können
- AMD hat ne neue, deutlich einfachere Architektur in Planung.
Gerade für Server und ihre typischerweise stark multithread-optimierte Software könnte es durchaus Sinn machen, z.B. auf ein 2-fach skalares Design zurückzuwechseln und dann mit einer nur wenig gestiegenden Zahl von Recheneinheiten deutlich mehr Kerne anbieten zu können, die sich effektiver auslasten können.
Aber AMD hat eigentlich nicht die Reserven, um eine getrennte Serverarchitektur zu entwickeln...

Verstehe ich auch nicht was das soll. Die sollten sich mit ihren Bulldozer beschäftigen. Von dem weiß man ja auch noch nichts, außer das er irgendwann mal kommt.
Auch wird man Flüssigenstickstoff gebrauchen um die 12 Kerne zu Kühlen. Auch wenn die neuen Sparsamer und kühler bleiben. Da sollen ja 3 mal so viele Kerne unter die Haube.
 
Steigt denn die Verlustleistung bei Zunahme der Kernzahl linear oder sogar exponentiell (durch die zusätzliche Kommunikation der Kerne untereinander)?
 
Dann hoffen wir mal das Amd auch viel mehr Cache hat bis 2011, sonst bringen die 16 Kerne auch ned viel gegen Intel:P. Ps: falls ich unsinn schreibe bitte keine hass mails an mich liebe AMD user :D.
 
Steigt denn die Verlustleistung bei Zunahme der Kernzahl linear oder sogar exponentiell (durch die zusätzliche Kommunikation der Kerne untereinander)?

Die Funktionseinheiten für die Kommunikation haben nur einen sehr geringen Anteil an der Gesamttransistorzahl und bislang hat auch noch niemand Verlustleistungen von deutlich mehr als dem doppelten im Vergleich zu einem Chip mit halber Kernzahl registriert.
Also eher linear. (Wobei der Aufwand für die Kommunikation selbst exponentiell wachsen müsste, aber eben keinen großen Unterschied im Vergleich zum Kern selbst macht)

Dann hoffen wir mal das Amd auch viel mehr Cache hat bis 2011, sonst bringen die 16 Kerne auch ned viel gegen Intel:P.

Wenn sie das pro-Kern Niveau halten, ggf. den 2nd lvl auf 1MB ausbauen, sollten sie ausreichend bestückt sein.
Aber vom non-inklusiven Design sollten sie sich bis dahin vielleicht verabschieden, sonst werden die Latenzen ne Katastrophe.
 
Ich hab mal so eine allg. Frage: Was sind denn jetzt besser echte oder "gefälschte Kerne"?
Simultaneous Multithreading ? Wikipedia
Simultaneous multithreading - Wikipedia, the free encyclopedia

Bei 2 Kernen hast du 2 Kerne.
Bei 2 SMT Kernen hast du einen Kern, der mit 2 Threads belastet wird.
Hier nutzt man dann nicht benötigte Einheiten, um die Performance etwas zu steigern.

Gerade für Server und ihre typischerweise stark multithread-optimierte Software könnte es durchaus Sinn machen, z.B. auf ein 2-fach skalares Design zurückzuwechseln und dann mit einer nur wenig gestiegenden Zahl von Recheneinheiten deutlich mehr Kerne anbieten zu können, die sich effektiver auslasten können.
Aber AMD hat eigentlich nicht die Reserven, um eine getrennte Serverarchitektur zu entwickeln...
Och, mit Speculative Multi Threading würd sich sowas auch im Desktop anbieten.
 
Auch wird man Flüssigenstickstoff gebrauchen um die 12 Kerne zu Kühlen. Auch wenn die neuen Sparsamer und kühler bleiben. Da sollen ja 3 mal so viele Kerne unter die Haube.

Bissl übertrieben wa? ;) is ja auch 32nm ... ich denke Intel wird da schon noch was dran drehen, dass die CPU's nicht das Mainboard durchschmelzen ^^ ... und fürs Übertakten wars ja auch schon vorher oft notwendig min. nen Towerkühler bzw. ne Wakü zu haben

... weiß eigtl jemand hier ob die CPU's speziellen Ram brauchen? (es hieß/heißt ja, dass die Westmeres registered DDR3 Ram brauchen, aber heute hab ich gelesen, dass jetzt die X58-Boards unterstützt werden ... aber die nehmen doch auch bzw. nur normalen DDR3)

Edit: Danke ;) ... hoffentlich unterstützt er doch noch beides ... derzeit nimmt er ja nur registered :(
 
Zuletzt bearbeitet:
Die RAM-Unterstützung hängt ausschließlich vom Speichercontroller und somit der CPU ab, nicht vom Chipsatz. Bei Server-Versionen ist da eher mit Registered zu rechnen, bei Desktop-Exemplaren mit normalen. Wobei Intel in der Vergangenheit auch mehrfach Controller hatte, die mit beiden umgehen konnten.
 
Zitat Bericht:
"... vielmehr koppelt AMD einfach zwei CPU-Kerne und greift damit zu eben jenem Trick, für den der Chiphersteller den Konkurrenten Intel immer wieder heftig kritisierte ..."

Nehmt es mir nicht übel, Leute, aber das stimmt so nicht. Der Hauptkritikpunkt war damals Intel's FSB, der sich von den Quadcores gegenüber den Dualcores nicht unterschied und somit von vornherein klar war, dass das ein Flaschenhals wird. Ein 4-Kanal Speichercontroller in der CPU statt einem 2-Kanal ist da schon ganz was anderes!

*uups, da hab' ich mal wieder nicht aufs Datum geguckt, sorry*
 
Zuletzt bearbeitet:
Nöp, das war zwar die größte technische Schwachstelle, aber bei der ganzen Geschichte ging es ja nie um Technik & Leistung, sondern immer nur ums Prinzip&Marketing. Und deswegen hat AMD seinerzeit ständig den Grundgedanken kritisiert. ("Fehlende Steigerung der Bandbreite" wäre ja auch ein Argument gewesen, dass auf die eigenen Quadcores genauso zutraf)

Im übrigen steigert AMD die möglichen Speichercontroller pro System nicht, die gesamte zur Verfügung stehende Bandbreite bleibt auch diesmal gleich.
 
Zurück