Der Durchmesser von 110pm ist richtig, nur sollte man bedenken, dass es mehrere Atomschichten braucht um als Isolator zu dienen.
@ruyven_macaran: in anderen Foren wird von einer Grenze bei 22-16nm gesprochen. Sind die 1-2nm geschätzt oder physikalisch berechenbar?
Das ist meine dunkle Erinnerung, was aus Silizium theoretisch-physikalisch möglich sein soll. Kann sein, dass ich mir die Zahl falsch gemerkt habe - aber sie lag definitiv unter 10nm.
16-22nm ist die Grenze der heutigen Belichtungstechnologie und selbst dafür muss erstmal eine brauchbare Optik und Lichtquelle entwickelt werden. 40nm fertigt man unter Ausnutzung von Überlagerungsphänomenen mit 190nm Laserlicht. Aber spätestens für 22nm sollen 13,5nm "Licht"quellen zum Einsatz, die im fernen Ultraviolett arbeiten - d.h. Linsenoptiken fallen raus, Belichtung nur unter Hochvakuum. Alles andere würde zuviel absorbieren.
Will man noch feiner Belichten, braucht man extrem stark gerichtete und starke Röntgenstrahlung - aktuell wird sowas für die Forschung mit Synchrtronen, d.h. kleinen Teilchenbeschleunigern erzeugt.
Schon unpraktisch genug - aber wie man eine ordentliche und bezahlbare Belichtungsmaske für Röntgenstrahlung bauen soll, weiß keiner so recht.
Aber wie gesagt: Die Grenze des Siliziums liegt tiefer, als die der Fertigung.
(Umgekehrt betreffen die Möglichkeiten der Fertigung auch alternative Materialien - es gibt afaik aktuell keine Großserientechnik, die Strukturen unter 30nm produzieren kann. Egal in was für einem Material)
Der R600 war eine Experimental GPU und von der theoretischen Rechleistung einfach genial. Das Problem war hier leider der Treiber und der Support von Spielen für die 5D ALUs.
Die versprochenen Wundertreiber wurden bis heute nicht geliefert, obwohl Chips identischer ALU bestückung erfolgreich sind.
Das problem beim R600 war/ist, dass die Entwickler scheinbar vergessen haben, dass es sowas wie Texturen trotzdem noch gibt und das man deren Verarbeitung mit unspezialisierten ALUs nicht schnell genug erledigt bekommt.
Und natürlich dass so ein Monsterchip auch gekühlt werden muss...
ei dem Prozzesor fällt das Problem mit dem Treiber wenigstens zum großem Teil weg.
Das Problem? Die Möglichkeit. Eine Grafikkartenhersteller kann Schwachstellen über den Treiber ausgleichen (Shaderreplacement, z.B. gerade beim NV3x sehr wirkungsvoll, da kaum jemand auf die Architektur optimiert hat) - aber auf einer CPU muss das Programm so laufen, wie es vom Programmierer kommt und wenn die Architektur zu schwer zu nutzen ist, dann ist die CPU für niemanden brauchbar.
1. Der Phenom basiert auf dem K8 und ist somit keine Neuentwicklung
Und der K8 auch nicht, weil er auf dem K7 basiert.
Stellt sich die Frage, wieviel von dem "komplett neu" am Bulldozer auch komplett neu sein wird?
Die Prozessorhersteller sind ja immer groß am ankündigen, was ihre Neuigkeiten angeht, aber oft ist das viel Rauch um nichts. (am besten finde ich immer noch Intels Aktion, den Core
2 als komplett neu hinzustellen
)
Aber ist ja auch gar nicht nötig - die Linie Pentium M -> Core -> Core 2 -> Core i7 hat vorgemacht, wie man mit vielen kleinen Schritten über einen langen Zeitraum extrem konkurrenzstarke Produkte liefern kann, ohne einmal irgendwas von grund auf neu zu entwickeln. (K7-8-8l sind auch ein gutes Beispiel und K10 hätte die Liste kompletieren können, wäre er wie geplant erschienen und nicht ein Jahr zu spät mit niedrigerem Takt und Bug)
Netburst dagegen ist ein hervorragendes Beispiel, wie man eine komplett neue Architektur aus dem Boden stampfen, sie mit genialen Neuerungen ausstatten und ihr ein enormes Leistungspoten geben kann - nur um dann festzustellen, dass man die Interessen des Marktes komplett verfehlt.
(so gesehen könnte man sagen: Von den 2 großen x86-Architekturen, die seit dem Pentium vorgestellt wurden, ist eine grandios gescheitert. Von den 1-2 Dutzend evolutionären Schritten dagegen nur einer schief gegangen. Ich wünsche AMD viel Glück, wenn sie einen radikalen Schritt versuchen)
2. Native Kernen bringen Vorteile. Allerdings merkt man dies nur im Serverbereicht, da es so gut wie keine Spiele mit Quadcore Unterstützung gibt.
Eine schnelle Verbindung zwischen Kernen bringt Vorteile.
Ironischerweise hätte AMD die hervorragend umsetzen können (ich versteh bis heute nicht, wieso sie drauf verzichtet haben), ohne die Nachteile eines monolithischen Quads eingehen zu müssen (planen sie gerüchten zu Folge auch für Bulldozer), wärend Intel es vorzüglich hinbekommen hat, mit allerlei Krücken die Nachteile eines nicht-monolithischen Designs (das mit Intels Architektur eigentlich nur billig, aber nicht schnell zu realisieren war) soweit zu umgehen, dass sie am Ende das bessere Produkt hatten.