Ich denke auch was die absolute Leistung angeht hat sowohl NVIDIA mit der 780 TI als auch AMD mit der 290X die absolute Grenze des machbaren erreicht und sie werden jetzt nicht noch irgendwelche Kunststücke aus dem Hut zaubern was das angeht .
Wer maximale Leistung sucht sollte da zuschlagen sobald die Preise ihren Tiefpunkt erreicht haben und dann alle Mann warten auf nen kleineren Fertigungsprozess .
Wer jetzt ne 290er oder 780er sein eigen nennt der sollte sich erst mal um nichts mehr sorgen müssen .
Und das auch bis zur übernächsten Generation .
Fermi mit der 480 ist eigentlich gar nicht so lange her und da waren alle hin und weg von der Leistung und wenn ich mir das Ding jetzt anschaue im Vergleich zu meiner 290 fällt mir nichts mehr ein lol .
Naja:
1)Die absolute Grenze des Machbaren ist sicher noch nicht erreicht, es gibt immer noch Dinge die man ausbessern kann usw
2) Maxwell zeigt recht eindrucksvoll wie mit weniger Transistoren und höherer Effizienz dieselbe Leistung bei weniger Verbrauch möglich ist - also ist auch mehr Leistung beim selben Verbrauch möglich.
Der Grund ist(am Beispiel von GCN erklärt): AMD hat eigentlich bis heute (2014) eine Architektur im Einsatz die 2010 fertig designed war. Also 4 Jahre. Beim Designen einer Architektur muss man auf vergangenes (hohe Leistung bei bisherigen Spielen) aber auch zukünftiges (DX11+, Mantle, Open CL) achten, ständig die Bedürfnisse aktueller und zukünftiger Spiele sowohl im Treiber, als auch in der Architektur berücksichtigen. In den letzten 4 Jahren hat sich Vergangenes (also die 1-2 Jahre alten Spiele die als Benchmark dienen) geändert in das, was damals noch zukünftig war. Sowie aktuelle Trends: War das um 2010 noch 3D überall, DX11+ usw, ist es heute 4k, 144hz, geringer Overhead, DX12
Das alles muss mal beim theoretischen Design berücksichtigt werden: Wieviel Texturierungspower braucht man, wieviele Shader usw.
GCN war völlig neu, deshalb hat man noch wenig Erfahrung wie sie sich in Spielen überhaubt schlägt. GCN war sicher eher konservativer angelegt, als eine völlige Überarbeitung dieser bringen würde. Wohingehend würde man GCN überarbeiten: man sieht sich die Werte im Labor an, wo hinkt es bei der aktuellen Architektur, welches Feedback hat man die letzten Jahre von Entwicklern gesammelt, was muss man in der nächsten Version verstärken, was kann man, weil nicht mehr wichtig (DX9 optimierte Architekturteile die in GCN sicher noch drin sind usw) vernachlässigen, was muss leistungsmäßig optimiert werden, was effizienzmäßig. Das alles weiß man nicht, bei einer neuen Architektur.
Und GANZ WICHTIG, man kennt die neuen Prozesse noch nicht. GCN war erstens eine NEUE Architektur, und zweitens in einem NEUEN Prozess. Beides weiß man noch nicht 100% wie es sich verhalten wird in der Praxis. Jetzt, Jahre später weiß man über die Architektur bescheid und auch über den jetztigen, wie auch zukünftigen 20nm Prozess, man passt das, was man hat also perfekt an das an, was kommt.
Nvidia macht das nicht anders.
FERMI war die neue Architektur, sie wurde weiterentwickelt zu Kepler. Wesentlich schneller und gleichzeitig effizienter. Jetzt kommt, wieder darauf basierend, Maxwell bald überall. Wieder deutlich effizienter, schneller. Altlasten abgeworfen, auf die aktuellen Entwicklungen Rücksicht genommen - et voilá ein Schritt vorwärts.
Also mit Maxwell wird 28nm wohl ausgeschöpft sein, es zeigt aber, dass auch wenn man Jahre im selben Prozess feststeckt, noch Entwicklungen möglich sind. Und es stehen uns bald wieder spannende Kämpfe bevor:
GCN 2.0 gegen Maxwell in 20 oder gar 16 (14?) nm. Wer hat die Architekturen besser überarbeitet und an den aktuellen Prozess angepasst. In letzterem Prozess wird man übrigens wieder eine Weile festsitzen, das heißt da werde ich dann wieder zuschlagen und für ein paar Jahre (hoffentlich wieder 4-6) meine Ruhe haben. Wenn man bedenkt man hat 2011 gleich eine 7970 oder so gekauft und die wird erst zu lahm wenn Spiele die Leistung von GCN und Maxwell voraussetzen, kommt uns die (auch von den Prozessoren her bekannte) langsamere Entwicklung als Käufer entgegen. Und die lahmen "next gen" Konsolen, die aber wenigstens PC Architektur haben und man weniger Probleme bei Ports erhoffen kann.
PS ich warte übrigens schon länger auf AMDs GCN 2.0 oder was auch immer danach kommt. Früher kam alle 2 Jahre eine größere Architekturüberholung und ca alle 4 Jahre eine völlig neue Architektur. Jetzt, 3 1/2 Jahre nach der Einführung von GCN und 28nm bin ich doch schon sehr gespannt an was die da die ganze Zeit gearbeitet haben...
PPS: eine weitere Analogie um das ganze einfacher zu verstehen ist der Hausbau:
Angenommen man will sich ein Haus bauen: beim ersten Mal stellt man sich alles schön vor, kennt die üblichen Materialien und baut sich ein Haus mit Keller und Garage. Aber man kommt halt nach ein paar Jahren drauf: aha eigentlich gefällt mir nicht wie das eingerichtet ist: zu wenig Holz, die Wohnung fühlt sich kalt an. Zu wenig isoliert, hier haue ich im Winter viel zu viel Geld raus. Die Leitungen sind blöd verlegt, die Schalter sollten höher sein oder woanders, und die Stromstecker auch unpraktisch, das Arbeitszimmer hat kein gutes Arbeitsklima, das Schlafzimmer auch kein gutes Schlafklima. An manchen stellen ist es feucht und Schimmel bildet sich, die Wahl der Fenster ist nicht gut, sie sind schon am kaputt werden oder es zieht kalt rein usw usf.
Beim 2. mal mit demselben Budget würde man wohl vieles anders machen, aber immer noch Kleinigkeiten die nicht passen: die Aussicht, der Garten oder Wintergarten, Terasse, irgendwo kommt wieder Wasser/Feuchtigkeit rein, Türen schleifen im Winter, der Postler kommt nicht gut zum Briefkasten. VIELE Kleinigkeiten, die man beim 3. Haus wieder anders machen würde und sich beim jeweils vorigem noch nicht ergeben haben. Kinderzimmer? Modernes Haus im Sinne von Solarzellen aufm dach, alles elektronisch dokumentiert (Tablet im Frühstückstisch integriert um zum Kaffee Zeitung zu lesen)...
Und das ist also jetzt das Beispiel wenn man bei 0 Anfängt und eine neue Architektur baut (GCN/Fermi).
Anders wärs ein bisschen wenn man eine Architektur weiterentwickelt, also ein gebrauchtes Haus kauft
Wunder sind wohl erst mit 20nm Prozess zu erwarten.
Auf den neuen Fertigungsprozess werde ich auch warten, und erst dann eine neue Grafikkarte erwerben
es ist weitgehend bekannt, dass 20nm keinen Sprung bringen werden. Der Grund ist, dass 20nm keinen Kosten oder Performancevorsprung bringen: derselbe Chip in 20nm würde keine/kaum höheren Taktraten erlauben, der Energiebedarf nur geringfügig sinken und die Preise wären gleich hoch (am Anfang sogar höher) wegen bescheidener Yieldraten. 20nm hätte die Möglichkeit mehr Transistoren und somit mehr Hardwareeinheiten auf dieselbe Fläche zu bringen wie 28nm, aber es wird vermutet, dass dies nur mit verringertem Takt möglich ist.
Erst der Nachfolgeprozess mit Trigate/3D Transistoren oder wie auch immer man es nun nennen will, hat die Möglichkeit wieder ordentlich aufzugeigen - mal hoffen und warten