Also Leuts, so langsam geht mir das Klein Klein hier ziemlich auf den Sack. Hier werden große Reden über GK1x0, GK104, Performance-/High-End-Chip, HD79x0 und AMD vs nVidia geschwungen, wobei so viel Schwachsinn ständig erzählt wird, das einem schelcht wird. Zudem sollte man sich mal für eine Definition entscheiden, und dann dabei bleiben, und nicht sich die Definition so aussuchen, wie Sie einem gerade zur Farbe des Herstellers passt
Also Leute, nochmal langsam für alle zum mitschreiben. Es gibt zwei Möglichkeiten:
1. GK104 ist High-End, weil er das schnellste Produkt am Markt ist, und in dieser Produktgeneration von nVidia auch das "High-End" Modell markiert. -> aber auch, dass die HD7970 ebenfall High-End ist. "Punkt fertig aus Schluss."
2. GK104 ist kein High-End, weil er nur ~300mm² groß ist, und auch ansonsten von den technischen Spezifikationen kein High-End markiert. -> aber auch, dass die HD7970 ebenfalls kein High-End ist, da Sie eben nur etwas größer ist, dafür aber auch universeller einsetzbar ist. "Punkt fertig aus Schluss."
Für eine der zwei Varianten müsst ihr euch entscheiden. Entweder High-End vs. High-End, oder aber Performance vs Performance Chip.
AMD hat halt schon seit recht langer Zeit keinen echten High-End chip mehr, und hat sich daher mit dem zweiten Platz zufrieden gegeben. Wenn man aber die DIE-Size bedenkt, hat sich AMD/Ati immer sehr gut geschlagen gegen nVidias Monster-Chips.
Die Frage ist halt nur, wenn denn irgendwann mal GK110 kommt, ob AMD dann auch einen technischen High-End Chip bringt oder nicht. Wenn man sich die letzten Jahre anschaut, sollte man nicht davon ausgehen, das man ein ~500mm² Chip von AMD zu sehen bekommt. Alleredings hat sich in letzter Zeit einiges getan bei AMD, was die Ausrichtung anbelangt der GPUs. Man kann also auf einen ~500mm² vs. ~500mm² Chip hoffen.
Sie reden gar nichts ein. Der GK104 ist nunmal "nur" der Performance Chip, ob dir das nun passt oder nicht.
Siehe oben. Man kann es so oder so sehen. Man muss halt nur konsequent bei einer Möglichkeit bleiben, und sich nicht nach Farbe des Herstellers die Version aussuchen....
Warum der GK100 letztlich nicht released wurde, kann verschiedene Ursachen haben.
Stimmt. Zum Beispiel:
Das es ihn nie gab.
Dass er noch nicht draußen ist, weil Nvidia nix gebacken bekommt, halte ich dabei noch für am unwahrscheinlichsten.
oder es ihn nie gab.
Viel wahrscheinlicher ist, dass man ihn zurückhält, weil er dank AMD vom Markt nicht verlangt wird.
Oder es ihn nie gab.
Sowas ist in jedem Industriezweig die Regel um Entwicklungskosten zu sparen und maximalen Profit aus der aktuellen Technik zu holen.
Warum sollte man eine Architektur heute auf den Markt bringen, wenn sie erst in der nächsten Generation gebraucht wird um konkurrenzfähig zu bleiben?
Da liegst du allerdings total daneben. Vielleicht sagt dir Moore was. Wenn nicht, google mal danach. Moore sorgt dafür, das Produkte so schnell wie möglich raus kommen, denn wenn Sie besonders gut sind, verlangt man einfach einen höheren Preis dafür. Die Leute werden es dennoch kaufen. Damit bekommt man aber schon mal R&D-Kosten wieder rein. Warten wird aber keiner, weil die Sachen binnen eines JAhres von "OMFG ist das Ding geil" zu "ja, ganz nett. Next please" werden, und dann kannste deinen High-End Aufschlang dir da hin stecken, wo keine Sonne scheint.... Ganz zu schweigen davon, dass du schön weiter für Kredite Zinsen gezahlt hast, anstatt R&D mit den ersten Verkaufserlösen zu refinanzieren...
Man spart also rein gar keine Entwicklungskosten durch warten.
naja... mehr als "die als Performancekarte geplante 660Ti wird mangels Konkurrenz nach außen als High-End 680 verkauft (weil sie die schnellste ist aktuell), der ursprünglich geplante High-End ist nicht nötig und wird zurückgehalten/optimiert" haben wir/ich doch auch nie behauptet^^
Vielleicht hat AMD ja zum GK110 die HD8000er fertig - dann steht auch wieder High-End gegen High-End.
Wohl eher 670Ti.
Das Bild von nVidia wird aber wohl auch etwas zu optimistisch gewesen sein. Tahiti ist recht schlecht, wenn man sich dagegen die HD78x0 anschaut. Die macht die Sache deutlich besser. Das ist auch eher der Gegner für GK104. Leider etwas zu klein, womit man nicht in direkter Konkurrenz steht. Für die HD8k Serie kann man aber hoffen, das die 78x0 auf GK1x4 Niveau hoch gezogen wird, und die 89x0 dann gegen GK110 an tritt. Das wäre mal ein sehr geiler direkter Schlagtabtausch. Noch geiler als im Moment.
wieso bringt nvidia dann nicht einen master-Performance-chip raus ? sozusagen mit der größe und Anbindung eines high-end-chips gepaart mit der Ausrichtung an Spieler des GF/GK/104/114
für alles andere kann man sich dann ja eine Quadro kaufen
Und woher soll der "Quadro" Chip kommen? Wächst der auf Bäumen?
Man kann sich das einfach nicht leisten einen extra Chip für HPC bzw Gamer zu bringen, je nach Sichtweise. Warum sollte man das auch machen, wenn die ganzen verblendeten ("depperten") Gamer das Ding eh kaufen, so lange es ein paar % schneller ist. Egal ob das Ding verdammt viel Ballast mit sich rum schleppt oder nicht. Die werden halt abgespeist und auf die wirklich wichtigen Sachen geachtet, die entscheiden, ob die Karte im anderen Markt ein Erfolg wird, oder nicht.
Der GK110 ist ja auch eigentlich die nächste Generation, nur dass das als High-End geplante Flaggschiff dieser Generation (also der GK100) nie erschienen ist
Weil nicht existent
Ich hoffe diese Mär stirbt endlich mal aus
Aber da hat das nVidia Marketing echt TOLLE! Arbeit geleistet. Schon allein die ganze nVidia Performance Chip schlägt AMD High-End Chip scheise geht mal auf keine Kuhhaut.
Wenn mit jedem Frame hunderte Megabyte VRAM wieder neu beschrieben werden müssen, reichen die 40GB/s meiner jetzigen Karte nicht. Bei 60FPS hieße das maximal 666MB pro Bild. Das erscheint mir definitiv wenig. Meine Karte hat in vielen Spielen knapp über 1GB VRAM verbraucht. Habe ich das falsch verstanden? Wenn ja bitte ich um Aufklärung!
Du hast so ziemlich alles falsch verstanden würde ich sagen.
Bandbreite ist z.B. wie folgt definiert:
Bandbreite [GBit/s]=Breite des Interfaces [Bit] * Takt des Interfaces [GHz]
That's it. Nicht mehr und nicht weniger...