Das ist deine Vermutung, die würde ich nicht in Stein meisseln, warum soll die Architektur für kleinere Chips untauglich sein ?
Aber grundsätzlich ist es doch zu begrüssen das AMD/ATI mit der 5000er Serie gute Abverkäufe hat, weil die gute Zahlen brauchen können. 2 Firmen mit gesundem Wettbewerb sind gut für den Konsumenten und seinen Geldbeutel.
Das die Einführung einer neuen Architektur ihre Schwierigkeiten mit sich bringt, für alle die es vergessen haben, das hat AMD/ATI mit der HD2900 auch schon leidvoll erfahren müssen.
das ist eine Rechnung basierend auf den Offiziellen Folien von Nvidia:
3 Milliarden Transistoren für die volle Leistung und alle Features.
Jetzt kannst dir einfach überlegen wie viel man weglassen muss von den Features und der Leistung um in die Nähe des Lowendmarktes zu kommen.
Vorallem sind beim Fermi viele Features einfach Fixed Function Units. das ist dann nicht so wie bei den Shadern, wo man schnell welche wegnehmen kann, dann ist die Grafik einfach langsamer, sondern wenn man die wegnimmt sind die Features auch weg. ->Also: entweder man lässt das Feature komplett drin -> sehr viele Transistoren, etwa bei Cache den der Fermi ja hat. Oder man nimmt es raus, was bedeutet, dass die kleinere Version von dem Chip dann eben über dieses Feature nicht verfügt.
Somit stimmt die Annahme, dass esr in den nächsten 9 Monaten keinen Chip geben wird der gleichzeitig alle Features (wie gesagt, ich spreche NICHT von reduzierten Shadern) hat und Lowend-Midrange ist, weil der schlichtweg zu groß wäre. Ist doch klar.
Wie gesagt man kann shader Reduzieren oder Textureinheiten. Dadurch wird der Chip kleiner. Aber ein paar gewisse Grundfunktionen kann man nicht einfach so reduzieren (etwa Tesselation und andere DX11 Zusätze) und davon scheint der Fermi genug zu haben, sonst hätte er nicht 50% mehr Transistoren als der RV 870 bei wahrscheinlich nicht 50% mehr Tempo.
Oder anders ausgedrückt: die "Zusatzfeatures" wiegen beim RV 870 etwa 200-300 Mio Transistoren. Man hat rein von den Recheneinheiten 2 RV770 beim RV870, aber trotzdem noch 200-300 Mio zusätzliche Transistoren. Warum? Tja das sind eben diese Zusätzlichen Funktionen von denen ich spreche. Kann eine bessere AA Einheit oder Crossfirebrücke sein, oder Powermanagement,DX11 Effekte etc. Aber das alles muss man auch in die kleinen Chips einbauen weshalb die Einsteigerchips bei der RV8XX Generation auch größer Ausfielen also noch beim RV770. Bei ATI ist das egal, weil wie gesagt, das Grunddesign des Chips schon nicht SOOO groß ist wie beim Fermi, aber es Zeigt, dass es beim Fermi deutlich schwieriger wird, ihn "klein zu kriegen"
Wäre der Fermi außerdem nur minimal schneller als ATIs HD 5870 bei 2Mrd Transistoren so lässt sich dadurch auch gut schließen, dass es bei Nvidia ca 1.5 Mrd Transistoren ( sogar mehr, weil mehr als die Hälfte der Einheiten bestehen müssen, eben wegen dieser "Grundfeatures") sein müssen um es mit ATIs Mittelklasse aufnehmen zu können, bzw um alle Features in die Mittelklasse zu bringen. Wenn sie Pech haben sogar 1.8 Mrd Transistoren, womit der Chip Flächenmäßig dem ATI Higehndchip entspricht (weil ATI eine größere Transistorendichte hat, laut einem PCGH Artikel)
Das habe ich mit den ersten DX10 Karten gemerkt.
ATI 3850 gekauft, aber DX10 war nicht flüssig darstellbar.Dann eine 4850 gekauft und DX10 war immer noch nicht richtig flüssig.
Dann habe ich mir ne GTX260 gekauft und DX10 lief dann flüssig und sauber.
Ich kauf mir nie gleich eine neue Karte, sondern warte erstmal ab, was noch kommt.
Die HD5800er hat mich nie interessiert, weil wenn ich mal DX11 zocken möchte (falls mal ein paar Games kommen sollten) soll es auch flüssig laufen.
Für momentan DX10 brauch ich keine neue, darum kann es von mir aus noch ein halbes Jahr dauern, bis Fermi kommt, dann werden auch mehr DX11 Spiele auf dem Markt sein ( hoffe ich). Solange reicht mir meine GTX260 noch dicke.
nochmal, du scheinst es nicht zu verstehen: die Karten SIND schnell genug für DX11, die Frage ist einfach wie intensiv Grafik benutzt wird, das hat aber nichts mit erster, zweiter, dritter sonstwas Generation zu tun, sondern einfach wie viel ein Spiel verlangt. Man kann auch ein Direct X 7 Spiel einen Level Basteln, der deine Grafikkarte an die Grenzen bringt, dann geht deine Rechnung aber nicht auf, weil dann kannst auch 11 Jahre nach Direct X7 noch keine Grafikkarte kaufen
Es gibt außerdem schon DX11 Spiele, die auf der Radeon 5xxx Serie völlig flüssig laufen, und zwar schon mit der 5770 (Dirt 2, AvP).
Deine Annahme basiert auf einem 10 Jahre alten Fakt, wo die erste Generation von Grafikkarten eine neue API nur als "nice to have" unterstützen, diese Effekte aber nicht voll auskosten konnten, weil sie dann doch zu langsam waren. Aber Überlegen wir mal (es stehen die jeweils erst erschienenen Karten zur API):
Direct X6/Glide : Voodoo 2-Völlig ausreichend für diese API
DX 7- Geforce 256: ausreichend
DX8- Geforce 3: völlig ausreichend
DX9- Radeon 9700PRO - Völlig ausreichend, selbst 2-3 Jahre später noch stämmte sie alle Spiele
DX 10 Geforce 8800GTX "reicht" bis heute auf "High" bei Crysis
DX 11: Radeon HD 5870 völlig Spielbare FPS bei allen Spielen