AMD verlegt 32-Nanometer-Generation auf 2011

Das ist echt schade das AMD noch so lange Brauche wird bis sie 32nm rausbringen so werden vielleicht viele lieber zu den Intelmodellen greifen :daumen2:
 
@ Eldorado

So viel ich weiß endet aktuell bei ca 22-16nm die Möglichkeit mit Lithographie zu arbeiten.
 
Zuletzt bearbeitet:
Bis Intel wirklich auf voller Breite 32nm anbieten wird ist es auch schon Mitte 2010. Da wär AMD also nur ein halbes Jahr im Rückstand. Das wird man dann alles so gegen ende 2009 erst sehen können.
 
und bei 22 bzw.16nm Schluss mit der Verkleinerung ist, dann wird AMD den Rückstand in der Fertigungsgröße automatisch wieder aufholen.:ugly:


Stimmt auffallend. Die 22NM dürfte der allerletzte Shrink sein der noch bezahlbar möglich ist. Da kann sich AMD dann mit dem Aufholen Zeit lassen,oder
aber gleich ein neues Kannichen aus dem Hut zaubern.
 
Eigentlich sollte AMD bei 32nm bessere Fortschritte machen da sie ja mit IBM zusammen daran arbeiten.
Ich könnte mir vorstellen das diese Zusammenarbeit schon vor 2011 Früchte trägt.
 
Wenn man sich die Pläne so an guckt kann man für AMD wohl nur hoffen dass die zwischenzeitliche Stagnation an nötiger CPU-Leistung an hält.
Einem reinen Leistungs-Duell hält man so nicht stand.

Für den Bulldozer hat AMD ein gesondertes Team. Der Bulldozer befindet sich schon seit Jahren in Entwicklung. AMD hat kurz nach dem Release von dem K8 mit dem Bulldozer begonnen, zumindest schonmal ansatzweise.
Der Bulldozer wird den CPU-Markt wohl revolutionieren, denn selbst Intel geht nicht diesen Schritt einer kompletten Neuentwicklung. AMD kann aus den vielen Jahren Erfahrung schöpfen und praktisch eine "Traum"-CPU bauen.
So ähnlich sah das beim R600 aus der mittlerweile gleichen Firma auch mal aus.

Da kann man wohl nur hoffen dass man auch bei den CPUs bis zum "RV770", also zum verbesserten Shrink der Neuentwicklung durch hält.

Irgendwie steht da ganz klar zu viel hoffen in meinem Beitrag, aber das beschreibt die Situation einfach am besten.
 
Der R600 war eine Experimental GPU und von der theoretischen Rechleistung einfach genial. Das Problem war hier leider der Treiber und der Support von Spielen für die 5D ALUs. Bei dem Prozzesor fällt das Problem mit dem Treiber wenigstens zum großem Teil weg. An dem RV770 sieht man ja, dass viele Ideen vom R600 wirklich was gebracht haben. Bei der CPU ist die Sache vom Grund her auch etwas "einfacher". Eine komplette Neuentwicklung dauert aber allerdings Jahre, und wenn der Bulldozer wirklich so gut wird, wie man hofft, kann Intel wirklich einpacken, denn die haben keine Neuentwicklung am Start.
 
Eine komplette Neuentwicklung dauert aber allerdings Jahre, und wenn der Bulldozer wirklich so gut wird, wie man hofft, kann Intel wirklich einpacken, denn die haben keine Neuentwicklung am Start.
Das haben sie biem Phenom doch auch schon erzählt - wie war das noch mit dem abfälligen "wenn schon einen nativen quadcore bauen" von amd? glaub das lachen ist denen ganz schön im halse stecken geblieben...
 
1. Der Phenom basiert auf dem K8 und ist somit keine Neuentwicklung
2. Native Kernen bringen Vorteile. Allerdings merkt man dies nur im Serverbereicht, da es so gut wie keine Spiele mit Quadcore Unterstützung gibt.
 
Das haben sie biem Phenom doch auch schon erzählt - wie war das noch mit dem abfälligen "wenn schon einen nativen quadcore bauen" von amd? glaub das lachen ist denen ganz schön im halse stecken geblieben...
Du musst es so betrachten:

Phenom = R600; wenig gesteigerte Leistung zum Vorgänger, hohe Stromaufnahme
PhenomII = R670; durch höheren Takt mehr Leistung, weniger Stromaufnahme wegen Shrink
Bulldozer = R770; wegen besserem Desings deutlich mehr Leistung, hohe Stromaufnahme

;) (bitte nicht zu ernst nehmen)
 
2. Native Kernen bringen Vorteile. Allerdings merkt man dies nur im Serverbereicht, da es so gut wie keine Spiele mit Quadcore Unterstützung gibt.
Ich vermute jetzt einfach mal, dass ein nicht nativer Quadcore mit fullspeed Anbindung an den L3- Cache genauso effizient arbeitet wir ein nativer Quadcore.
Der Flaschenhals bei den Core2Qs ist ja nicht, dass sie zwei DIEs haben, sondern dass diese per FSB miteinander kommunizieren. Hätte man die beiden schon früher über einen direkten seriellen Link miteinander verbunden wäre die Effizienz bei entsprechenden Berechnungen sicher auch besser ausgefallen.
Das beste ist natürlich die Nutzung eines shared Caches. Und da machts wohl alleine aus Produktionstechnischen Gründen mehr Sinn, das alles auf einen DIE zu ätzen.
 
Der Durchmesser von 110pm ist richtig, nur sollte man bedenken, dass es mehrere Atomschichten braucht um als Isolator zu dienen.
@ruyven_macaran: in anderen Foren wird von einer Grenze bei 22-16nm gesprochen. Sind die 1-2nm geschätzt oder physikalisch berechenbar?

Das ist meine dunkle Erinnerung, was aus Silizium theoretisch-physikalisch möglich sein soll. Kann sein, dass ich mir die Zahl falsch gemerkt habe - aber sie lag definitiv unter 10nm.
16-22nm ist die Grenze der heutigen Belichtungstechnologie und selbst dafür muss erstmal eine brauchbare Optik und Lichtquelle entwickelt werden. 40nm fertigt man unter Ausnutzung von Überlagerungsphänomenen mit 190nm Laserlicht. Aber spätestens für 22nm sollen 13,5nm "Licht"quellen zum Einsatz, die im fernen Ultraviolett arbeiten - d.h. Linsenoptiken fallen raus, Belichtung nur unter Hochvakuum. Alles andere würde zuviel absorbieren.
Will man noch feiner Belichten, braucht man extrem stark gerichtete und starke Röntgenstrahlung - aktuell wird sowas für die Forschung mit Synchrtronen, d.h. kleinen Teilchenbeschleunigern erzeugt.
Schon unpraktisch genug - aber wie man eine ordentliche und bezahlbare Belichtungsmaske für Röntgenstrahlung bauen soll, weiß keiner so recht.

Aber wie gesagt: Die Grenze des Siliziums liegt tiefer, als die der Fertigung.
(Umgekehrt betreffen die Möglichkeiten der Fertigung auch alternative Materialien - es gibt afaik aktuell keine Großserientechnik, die Strukturen unter 30nm produzieren kann. Egal in was für einem Material)

Der R600 war eine Experimental GPU und von der theoretischen Rechleistung einfach genial. Das Problem war hier leider der Treiber und der Support von Spielen für die 5D ALUs.

Die versprochenen Wundertreiber wurden bis heute nicht geliefert, obwohl Chips identischer ALU bestückung erfolgreich sind.
Das problem beim R600 war/ist, dass die Entwickler scheinbar vergessen haben, dass es sowas wie Texturen trotzdem noch gibt und das man deren Verarbeitung mit unspezialisierten ALUs nicht schnell genug erledigt bekommt.
Und natürlich dass so ein Monsterchip auch gekühlt werden muss...

ei dem Prozzesor fällt das Problem mit dem Treiber wenigstens zum großem Teil weg.

Das Problem? Die Möglichkeit. Eine Grafikkartenhersteller kann Schwachstellen über den Treiber ausgleichen (Shaderreplacement, z.B. gerade beim NV3x sehr wirkungsvoll, da kaum jemand auf die Architektur optimiert hat) - aber auf einer CPU muss das Programm so laufen, wie es vom Programmierer kommt und wenn die Architektur zu schwer zu nutzen ist, dann ist die CPU für niemanden brauchbar.


1. Der Phenom basiert auf dem K8 und ist somit keine Neuentwicklung

Und der K8 auch nicht, weil er auf dem K7 basiert.

Stellt sich die Frage, wieviel von dem "komplett neu" am Bulldozer auch komplett neu sein wird?
Die Prozessorhersteller sind ja immer groß am ankündigen, was ihre Neuigkeiten angeht, aber oft ist das viel Rauch um nichts. (am besten finde ich immer noch Intels Aktion, den Core 2 als komplett neu hinzustellen :ugly: )

Aber ist ja auch gar nicht nötig - die Linie Pentium M -> Core -> Core 2 -> Core i7 hat vorgemacht, wie man mit vielen kleinen Schritten über einen langen Zeitraum extrem konkurrenzstarke Produkte liefern kann, ohne einmal irgendwas von grund auf neu zu entwickeln. (K7-8-8l sind auch ein gutes Beispiel und K10 hätte die Liste kompletieren können, wäre er wie geplant erschienen und nicht ein Jahr zu spät mit niedrigerem Takt und Bug)
Netburst dagegen ist ein hervorragendes Beispiel, wie man eine komplett neue Architektur aus dem Boden stampfen, sie mit genialen Neuerungen ausstatten und ihr ein enormes Leistungspoten geben kann - nur um dann festzustellen, dass man die Interessen des Marktes komplett verfehlt.
(so gesehen könnte man sagen: Von den 2 großen x86-Architekturen, die seit dem Pentium vorgestellt wurden, ist eine grandios gescheitert. Von den 1-2 Dutzend evolutionären Schritten dagegen nur einer schief gegangen. Ich wünsche AMD viel Glück, wenn sie einen radikalen Schritt versuchen)

2. Native Kernen bringen Vorteile. Allerdings merkt man dies nur im Serverbereicht, da es so gut wie keine Spiele mit Quadcore Unterstützung gibt.

Eine schnelle Verbindung zwischen Kernen bringt Vorteile.
Ironischerweise hätte AMD die hervorragend umsetzen können (ich versteh bis heute nicht, wieso sie drauf verzichtet haben), ohne die Nachteile eines monolithischen Quads eingehen zu müssen (planen sie gerüchten zu Folge auch für Bulldozer), wärend Intel es vorzüglich hinbekommen hat, mit allerlei Krücken die Nachteile eines nicht-monolithischen Designs (das mit Intels Architektur eigentlich nur billig, aber nicht schnell zu realisieren war) soweit zu umgehen, dass sie am Ende das bessere Produkt hatten.
 
Du musst es so betrachten:

Phenom = R600; wenig gesteigerte Leistung zum Vorgänger, hohe Stromaufnahme
PhenomII = R670; durch höheren Takt mehr Leistung, weniger Stromaufnahme wegen Shrink
Bulldozer = R770; wegen besserem Desings deutlich mehr Leistung, hohe Stromaufnahme

;) (bitte nicht zu ernst nehmen)
nein nein du hast ja recht im grunde.. den vergleich ziehe ich gedanklich auch immer nur ati hat einen riesigen schritt gemacht damals, sie haben die 2000er reihe relativ schnell "abgefertigt" und sind zu einem besseren design übergegangen und haben ihren ersten "neuzeitigen"(das erste mal seit der 9800er) erfolg gefeiert, der zwar klein war aber immerhin vorhanden. danach die 4000 die dann schon gut liefen die 5000er werden wohl hoffentlich endlich absolut konkurrenzlos sein. das problem was ati immernoch hat, ist, dass nvidia einfach mehr für gamer tut im vergleich zu ihnen selbst siehe physx usw...aber egal ich schweife ab. der punkt ist: amd muss endlich mal eine generation schneller abwickeln als die vorherigen und sich mal beeilen, warum sollte ich einen stromfressenden 45nm quad, der vermutlich langsamer ist, von amd kaufen, wenn es ende des jahres schicke 32nm quads mit geringem stromverbrauch und einem deutlichen mehr an leistung von intel gibt ? es gibt kein argument, intel wird wieder den preis bestimmen usw...das inzwischen seit 2006 gute altbekannte spiel der marktführerschaft von intel ;)
 
Der R600 war eine Experimental GPU und von der theoretischen Rechleistung einfach genial. Das Problem war hier leider der Treiber und der Support von Spielen für die 5D ALUs.
Nein, dem R600 krankte es einfach an TMUs, der hat einfach viel zu wenig davon gehabt.
Die Recheneinheiten waren schon OK, das ist auch nicht soo das Problem gewesen, aber welchen Teufel hat AMD geritten nur 16 TMUs zu verbauen?!
Das hatte schon die x800 und sorry, 3 Generationen mit 16 TMUs?! :what:
Muss man nicht verstehen.

Daneben sind die MSAA Einheiten kaputt gewesen, so dass der R600 FSAA per Shader Resolve gemacht hat, was nochmals Performance gekostet hat, deswegen ist der auch so schlecht, während die RV7xx hier so gut sind, da wurds nämlich endlich mal gefixt!
Stellt sich die Frage, wieviel von dem "komplett neu" am Bulldozer auch komplett neu sein wird?
Alles?!
Weil der aktuelle Kern schon über 10 Jahre aufm Buckel hat?!
 
Die versprochenen Wundertreiber wurden bis heute nicht geliefert, obwohl Chips identischer ALU bestückung erfolgreich sind.
Das problem beim R600 war/ist, dass die Entwickler scheinbar vergessen haben, dass es sowas wie Texturen trotzdem noch gibt und das man deren Verarbeitung mit unspezialisierten ALUs nicht schnell genug erledigt bekommt.
Und natürlich dass so ein Monsterchip auch gekühlt werden muss...
Die Textureinheiten waren zwar etwas optimistisch gewählt, aber gescheitert sind die erst daran dass der Kompressionsteil so verbugt war dass man ihn bis heute nicht aktiviert hat. Und nicht nur das, die AA-Einheit war auch alles andere als intakt.
Der R670 war außer dem beheben dieser Bugs und winzigen Änderungen um DX10.1 drauf zu schreiben(die Tessellation Einheit war ja schon im R600) quasi identisch und nicht gerade ein Reinfall.
Eine schnelle Verbindung zwischen Kernen bringt Vorteile.
Ironischerweise hätte AMD die hervorragend umsetzen können (ich versteh bis heute nicht, wieso sie drauf verzichtet haben), ohne die Nachteile eines monolithischen Quads eingehen zu müssen (planen sie gerüchten zu Folge auch für Bulldozer), wärend Intel es vorzüglich hinbekommen hat, mit allerlei Krücken die Nachteile eines nicht-monolithischen Designs (das mit Intels Architektur eigentlich nur billig, aber nicht schnell zu realisieren war) soweit zu umgehen, dass sie am Ende das bessere Produkt hatten.
Da kann ich dir nur zustimmen.
Hat eigentlich mal jemand eine Dual X2 K10 Platform gegen einen "echten" K10 Quad antreten lassen? Dann würde man ziemlich gut sehen was ein natives Design bringt und wie viel Leistung mit einer schnell raus gehauenen Hypertransport-Lösung möglich gewesen wäre.
 
Alles?!
Weil der aktuelle Kern schon über 10 Jahre aufm Buckel hat?!

Das mag n möglicher Grund sein alles neu zu machen, aber zum einen machen Menschen erstaunlich oft etwas nicht, obwohl es gute Gründe dafür gäbe und zum anderen bleibt als Alternative zu "komplett neu" immer noch "gründlich überarbeitet.
Die Konkurrenz baut letztendlich auch auf Design auf, das fast 15 Jahre auf dem Buckel hat.

Hat eigentlich mal jemand eine Dual X2 K10 Platform gegen einen "echten" K10 Quad antreten lassen? Dann würde man ziemlich gut sehen was ein natives Design bringt und wie viel Leistung mit einer schnell raus gehauenen Hypertransport-Lösung möglich gewesen wäre.

Viel mehr interessieren würde mich das Duel Dual-Singlecore Opteron vs. Single-Dualcore Opteron.
Beim K10 hat AMD ja wenigstens noch versucht, Vorteile aus dem monolithischen Design zu ziehen - imho haben sie aber schon viel früher den falschen Weg genommen.
 
Die Konkurrenz baut letztendlich auch auf Design auf, das fast 15 Jahre auf dem Buckel hat.
Das ist Quatsch.
Einzig der Grundgedanke ist der selbe, das Desing wurd aber komplett umgekrempelt, die Cores haben nicht soo viel mit dem P3 gemein, wie allgemein behauptet wird.
Viel mehr interessieren würde mich das Duel Dual-Singlecore Opteron vs. Single-Dualcore Opteron.
Da musst mal googeln, das hat irgendwer, vor urzeiten, zu Sockel 939 (Single) und 940 (Dual) mal getestet.
Der Single Sockel war idR schneller, trotz nur halb so viel Speicherbandbreite.
Beim K10 hat AMD ja wenigstens noch versucht, Vorteile aus dem monolithischen Design zu ziehen - imho haben sie aber schon viel früher den falschen Weg genommen.
Nein, haben sie nicht.
Das einzige was beim K10 nicht sonderlich toll ist, ist der schnarchlahme L3 Cache bzw die Anbindung dahin, hier hätte man weitaus mehr machen müssen, so dass der mehr denn 5-10% bringt..
 
Da musst mal googeln, das hat irgendwer, vor urzeiten, zu Sockel 939 (Single) und 940 (Dual) mal getestet.
Der Single Sockel war idR schneller, trotz nur halb so viel Speicherbandbreite.
Das der Single-Sockel schneller ist steht ja eigentlich auch nicht zur Debatte.
Um wie viel wäre aber mal interessant.

Wenn der Wert nämlich unter ~15% liegt darf man AMD imho durchaus vorwerfen eine Chance schneller mit konkurrenzfähigen Produkten zu kommen wissentlich vertan zu haben.
 
Zurück