GK110: Big Kepler mit bis zu 2.880 ALUs auf GTC 2012 vorgestellt

Skysnake

Ja, wie immer. Skysnake ist der einzige der Ahnung hat. Ich habe nix anderes erwartet. Mit vermutlich knapp 20 hat man ja schon viel von der Welt gesehen:schief:
Aber du weißt natürlich was abgeht....
Du hast ja deinen Prof auf deiner Seite.....Gähn.
Kannst ja wieder beim nächsten NV Themenabend wieder einen auf dicke Hose machen, weil du ja ein überragender Student bist, und über allen anderen stehst, die hier im Forum diskutieren.
O-Ton Skysnake: OMG, WTF....

Jetzt mal ehrlich: Werde erst mal erwachsen und lege deine Arroganz und Überheblichkeit ab.

Oh man...
Supi. Dir ist schon klar, das man nicht alles beliebig schnell machen kann?
Wenn ich nen Haus bau, kann ich auch nicht anfangen das Dach zu decken, während noch der Keller ausgehoben wird. Ab ner gewissen Anzahl an Leuten wirds einfach nicht schneller.

Ich glaube, ich weiß über so was wesentlich mehr als ein Student. OOOOhhhh ich habe Abitur und studiere, jetzt weiß ich was abgeht :schief:.


Merkst du was?

Zudem brauchst du erstmal die Leute, die überhaupt ne Ahnung von dem haben, was Sie machen, UND dann noch sich in das Projekt einarbeiten. Allein das finden von qualifizierten Leuten ist schon schwierig, und dann müssen die sich auch erst mal einarbeiten. Da kannste mal gleich ein paar Arbeitstage einfach nur dafür draufgehen lassen

Der einzige, der hier im Forum Ahnung hast bist du ja :ugly:
Wir sind ja alle so dumm dir gegenüber. OMG,WTF....

Und Produktionskapazitäten wachsen auch nicht auf Bäumen...

Hat auch keiner behauptet.

Zudem scheinst du nicht einschätzen zu können, wie komplex es ist einen Chip zu bauen. Da gehste nicht hin und hackst halt mal kurz das Ding runter, und wenn nen Fehler kommt weißte direkt, was das Problem ist. Ganz oft stehste da, etwas funktioniert nicht wie es soll, und du fängst dann an den Fehler zu suchen, was dann schnell Stunden, Tage oder auch Wochen dauern kann.

Lies meine Posts, dann weißt du, dass ich nie behauptet habe, "Da gehste nicht hin und hackst halt mal kurz das Ding runter". Lies mal richtig, bevor du wieder mal über allen stehen willst.

Kleines Beispiel: Einer bei mir im Büro hat jetzt knapp 10 Tage damit verbracht die Ursache für einen Fehler zu finden und zu beheben. Nach 10 Tagen hat er jetzt verstanden, was das Problem ist, und ich kann dir sagen, das war verdammt krasser fancy Scheis! Darauf musst du erstmal kommen. Mit solchen Problemen bist du bei der Chipentwicklung aber immer konfrontiert, und da brauchst du halt einfach ne gewisse Zeit, um das Problem zu lösen, wobei einfach paar Stunden länger dran arbeiten oft schlicht gar nichts bringt, weil du irgendwann einfach nicht mehr frisch im Kopf bist, anfängst Sachen zu übersehen usw. usw.

Tja, "der Typ bei dir im Büro". Hast du einen festen Arbeitsplatz oder bist du Student? Oder wie soll ich das verstehen?

Das klingt jetzt etwas seltsam, aber ich hab schon oft Probleme unter der Dusche gelöst, oder bei nem Käffchen und ner Zigarette in ner Pause. Das sind halt einfach keine 0815 Sachen, die man runter hackt, und genau deswegen ist es auch so verdammt schwer da auf die "Tube" zu drücken.

Nee klar. Du löst natürlich Probleme die die Welt bewegen :schief:
Was warst du doch gleich? Student? HUST.

Wo ist dein Problem, aktuell einfach zu sagen:"Ja GK104 ist teuer und eigentlich ein kleiner Chip, aber im Moment gibt die Fertigung usw. halt einfach nicht mehr her. Traurig für uns Kunden, aber das ist halt so"

Tja, warum akzeptierst du nicht einfach mal Meinungen/Kritiken? Ach ja, richtig. Deine Meinung ist ja die einzig wahre :kotz:
 
Zuletzt bearbeitet:
Mir geht es einzig um die technischen Daten, und als was NV den Performance Chip verkauft.
Und mich stört es massiv, das NV technisch gesehen den Nachfolger des GF104/114 als GTX680 für viel, viel Geld verkauft.
Wenn dich oder andere das nicht stört, dann ist das ja ok.;)

Weil Nvidia das Geld nun mal verlangen kann.
Schau dir die GTX 690 an. Die schnellste Grafikkarte der Welt also kann Nvidia dafür verlangen was sie wollen. Und das machen sie auch.
Würde AMD jetzt die Preise für die High End Modelle auf 200€ senken müsste Nvidia nachziehen aber AMD senkt nichts. Und Nvidia macht das sowieso nicht.
 
Du/Wir sollten dabei nicht vergessen, wie viele Ressourcen GF100 bei nVidia gefressen hat. Die mussten da sehr viele Leute rein stecken, um möglichst schnell die Sache zu fixen. Danach gings dann gleich weiter, weil GF100 halt nur eine Notlösung war. Da waren also auch noch übergroße Ressourcen gebunden, die an anderen Stellen gefehlt haben, und man bekommt nicht einfach so mal gute neue Leute, die das Team vergrößern, und solche Sachen abfedern.

GF100? Seitdem der seine Trudeleien hinter sich gebracht hat, hat Nvidia 9 GPUs veröffentlicht und mindestens zwei weitere zur Einsatzreife entwickelt. Sicherlich mussten ein paar Kapazitäten umgeschichtet werden (wie viele sei mal dahingestellt. Wenn man Fehler im Silizium hat, die man mangels fehlerfrei produzierte Chips nicht testen kann, kann man entweder mit viel Theorie was zu basteln versuchen - oder man kann im Gegenteil die Arbeit ruhen lassen und die Kapazitäten auf andere Projekte verlagern, bis TSMC mal wieder eine brauchbare Grundlage liefert), aber ich denke nicht, dass man das zielsicher auf GK100 festnageln kann. Genauer:
Ich halte einen Abzug von Kepler-Personal sogar für am unwahrscheinlichsten, denn die hatten mit Abstand die wenigste Ahnung vom Thema. Andere Fermi-Teams wären naheliegender und der doch sehr späte GF104-Launch passt sehr gut zu dieser Erklärung.

Dann muss man noch bedenken, das Kepler in der Architektur doch so einige Veränderungen bereit hält, und auch für die Teslas so manches gemacht wurde. Da erscheint es absolut logisch, das man den großen Chip nicht wieder in einer problematischen neuen Fertigung bringen will,

Das Nvidia davor scheut, neue Archtitekturen und neue Fertigungen zeitgleich einzuführen, ist bekannt. Aber egal welche Lesart man nimmt: 28 nm Fermis gab es nicht, durch das enorme Alter der 40 nm Fertigung war Nvidia gezwungen, endlich was durchgängig neues zu machen. Gut möglich, dass man gezielt nicht den den aufwändigsten Chip für den Architektur-Launch gewählt hat - aber das heißt nicht, dass man ihn im Umkehrschluss komplett gestrichen hat.

Zudem weiß man ja, das AMD eigentlich keinen High-End chip bringt, und schon gleich 10 mal nicht bei einer neuen Fertigung.

Ich weiß nicht, was Nvidia weiß, aber ich weiß, dass AMD noch nie Rücksicht auf die Nodes genommen hat, ich weiß, dass man GCN schon sehr lange mit gpGPU beworben hat (was ohne High-End-Chip keinen Sinn macht, man baut keinen HD7770 Cluster) und ich weiß, dass es Gerüchte zu einer echten "R"-GPU gab.

Von Ailuros gibt es auch immer wieder die Aussage, dass es GK100 nie gab, was ich auch aufgrund der obigen Ausführungen schon für sehr wahrscheinlich halte.

*google*
Ich vermute mal, du meinst keine ägyptische Gottheit, sondern eine Person aus dem 3DCenterforum, die als Beruf "Hotelfach" angibt und früher mal mehr mit Nvidia zu tun hatte?

Die Boardpartner waren SEHR spät eingeweiht, weil Kepler alias GK104 eben auch erst SEHR spät fertig geworden ist.

"weil" oder "nicht weil", das ist hier die Frage :)

Halten wir also mal fest, nVidia stand da sehr unter Zeitdruck, weil AMD seine Karten schon gelaunched hatte, und man selbst noch nicht mal mit dem Chip fertig war.

Die ersten Gerüchte zum Kepler-Launchtermin, basierend auf Kapazitätsbestellungen bei TSMC, gab es iirc schon 2010. Und sie wiesen auf das erste Quartal 2012 als frühesten Termin hin, eher Frühjahr denn Januar. AMD dagegen wurde spätestens Anfang 2011 auf 12Q4 datiert - mit der Hoffnung auf Herbst statt (Paperlaunch) in der Vorweihnachtszeit. Kann natürlich wieder, wie alle Gerüchte, falsch gewesen sein, aber es gibt keinen Hinweis darauf, dass Nvidia "plötzlich" ohne GPU und mit bereits gestarteten AMD-Karten da stand. Im Gegenteil: Nvidia hat zumindest einen Teil der geplanten Produkte im angedachten Launch-Fenster platziert (ob eher an dessen Ende und ob alle geplanten lässt sich, dank der guten Informationskontrolle bei Nvidia, nicht sagen - aber gut möglich), während AMD sogar zu spät dran war. Das zwischen beiden Terminen ein Zeitraum liegt, in dem sich SI gegen Fermi austoben konnte, war schon sehr, sehr früh bekannt und dürfte somit nicht zu Druck bei Nvidia geführt haben.


Jetzt wirds aber erst richtig hässlich...

AMD hat zwar im Januar/Dezember die 7k Serie gelaunched, denkt jetzt aber mal bitte an das FDS, die ganzen Ankündigungen zu Tapeouts usw. usw usw. Wenn man mit Leuten redet, dann erfährt man auch, dass man (die Boardpartner), schon sehr früh etwas von der HD7k wussten usw. Da war Planungssicherheit gegeben, weil das Ding praktisch fertig war, man aber noch auf TSMC warten musste.

Sagt die "offene" (so offen, wie ein Schiff aus Streckmetall...) Informationspolitik AMDs etwas über den relativen Entwicklungsfortschritt aus? Ich denke nicht. Schön, dass die ihren Partnern (und allen anderen) Verraten, wie weit der Chip ist. Aber Nvidia macht das halt mindestens seit dem G80 nicht mehr und dementsprechend schlecht lässt sich so etwas vergleichen. Fest stehen dürfte jedenfalls: Auch Tahiti war nicht fertig, bevor TSMC einwandfrei funktionierende Chips zur Probe lieferte.

Das sind halt grundlegend unterschiedliche Vorraussetzungen. AMD, welche auf TSMC warten muss, und nVidia, welche ihren Chip fertig bekommen müssen. nVidia kann dieses mal froh sein, das TSMC etwas gebraucht hat, ansonsten wäre AMD noch früher gekommen, das Ding stand in der Warteposition, und dann hätte es noch dümmer für nVidia ausgesehen als jetzt.

Man kann einen Chip nicht ohne Fertigung fertigstellen, das sollte spätestens bei Fermi jedem aufgegangen sein. Wenn man verdammt viel Glück hat und einfach keine Fehler macht, dann ist die Fertigung halt einfach egal - siehe Northern Islands. Aber wenn der Chip in einem Zustand ist, der Überarbeitungen erfordert (und das ist er quasi immer, Nvidia hat noch nie A0 ausgeliefert und bei Fermi waren bekanntermaßen sogar erst die eigentlich-B-Siliziums das, was man wollte), dann steht man eben unweigerlich vor dem Problem, dass solide Tests erst möglich sind, wenn das Fertigungsverfahren keine größeren Fehler mehr produziert.
Eben das war ja mutmaßlicher Weise einer der Gründe für den verhältnismäßig großen Versatz in den geplanten Launch-Terminen: Nvidia wollte Fermi 2.0 vermeiden und legte den Entwicklungsabschluss in einen Zeitraum, zu dem TSMC lange fertig sein wollte. Es stimmt, dass der Versatz dann nachträglich kleiner ausfiel, weil TSMC eben doch wieder mehr Probleme hatte und AMD durch Veröffentlichungs- und Vertriebshömoopathie mit 2-3 Monaten Verspätung im Markt ankam, aber Druck für Nvidia ergibt sich hier eben nicht aus der eigenen Entwicklung (mit Luft geplant), sondern im Gegenteil wiederum durch TSMC (denen man wohl nie genug Luft lassen kann - siehe vollständiger Produktionsstop kurz vor dem Launch-Fenster...)

Das wusste auch nVidia. Wenn jemals ein GK100 geplant gewesen sein sollte, wovon ich nicht ausgehe, nach dem GF100 Debakel, dann ist das Ding wohl spätestens Mitte 2011 gestrichen worden, aber wirklich absolut spätestens. Für einen GK100 waren einfach nicht die Ressourcen da, von den Problemen mit der Fertigung ganz zu schweigen.

Da sich die Unterschiede zwischen G?10? und G?11? auf Optimierungen beschränken, glaube ich nicht, dass es bis Mitte 2011 überhaupt einen großen Unterschied zwischen GK100 und GK110 gab - eben weil TSMC überhaupt nicht die Möglichkeit bot, einen "as is" GK1x0 als GK100 in die Testproduktion zu schicken. Je nach dem, wie viele Informationen Nvidia intern über die Probleme bei TSMC hatte, ist es möglich, dass sie in dem Moment schon die Konzentration auf GK104 beschlossen haben (kleiner = bessere Testmöglichkeiten bei gleich mieser Fertigung = geringere Verzögerung durch diese). Aber ich glaube nicht, dass es vor Ende des 3. Quartals überhaupt hätte entschieden werden müssen, ob GK1x0 unoptimiert im 2Q12 in Produktion geht, oder ob man diesen Schritt auslässt.


Was dabei aber noch dazu kommt ist, das hier die Leute gekonnt die Situation bei TSMC ausblenden....
TSMC hat zu geringe Kapazitäten, was dazu führt, das nVidia extrem viel Rebranding macht, und von vielen Seiten in letzter Zeit Dresche bezieht, weil man befürchtet, das nVidia nicht die Liferversprechungen an die OEMs einhalten kann. Ihr müsst ja auch mal bedenken, das nVidia extrem viele Designwins für IB Laptops bekommen hat (welche Volumen dahinter stecken ist wieder etwas ganz anderes)! Die OEMs musst du beliefern, sonst gibt Konventionalstrafen. Du hast aber gleichzeitig beschränkte Kapazitäten, was du auch nicht erst seit heute weißt....

Nicht seit heute, aber auch nicht seit 2010, als zum ersten Mal die Worte "GK100" in den Mund genommen wurden - oder eben nicht.
Das TSMC die Verträge nicht einhalten kann, dürfte man frühestens seit 2H12 wissen. Daraus ergibt sich dann chronologisch der Rest, wobei die Flexibilität von GPU-Designs (von einander abgeleitete Chips einer Generation, sehr nah verwandtes Refresh) eben noch nicht bedeutet, dass die Priorisierung eines Chips das sofortige Ende eines anderen bedeutet. Ich persönlich halte es für gut möglich, dass weiterhin mit Volldampf zumindest an den GK100-Baustellen gearbeitet wurde, von denen auch GK110 und GK allgemein profitiert, bis im ~Oktober/November klar wurde, wie wenig von GCN zu befürchten war. Denn die meisten Design-Wins der OEMs bedient Nvidia so oder so via GF11x. Und das war entweder beiden Parteien egal (unwahrscheinlich), oder es stand schon lange fest, bevor der Rest der Welt jemals die Worte "GF 670 TI" in einer News las.


Wer glaubt, das nVidia ein GK1x0 hätte bringen können, wenn AMD stärker gewesen wäre, der hat den Knall echt nicht gehört...

Das ist abolut unrealistisch. nVidia war einfach nicht dazu in der Lage, das muss man so akzeptieren. Alles andere ist doch nur eine Selbsttäuschung.

"Können" steht nicht zur Debatte - das hätte die Praxis zeigen müssen und wie der GTX480-Kastrat gezeigt hat: Notfalls ist "können" und "machen" noch nicht einmal das gleiche. Die eigentliche Frage ist aber: "Wollen?"
 
Sodele, jetzt hab ich dann auch mal Zeit auf deinen Beitrag zu antworten.

GF100? Seitdem der seine Trudeleien hinter sich gebracht hat, hat Nvidia 9 GPUs veröffentlicht und mindestens zwei weitere zur Einsatzreife entwickelt. Sicherlich mussten ein paar Kapazitäten umgeschichtet werden (wie viele sei mal dahingestellt. Wenn man Fehler im Silizium hat, die man mangels fehlerfrei produzierte Chips nicht testen kann, kann man entweder mit viel Theorie was zu basteln versuchen - oder man kann im Gegenteil die Arbeit ruhen lassen und die Kapazitäten auf andere Projekte verlagern, bis TSMC mal wieder eine brauchbare Grundlage liefert), aber ich denke nicht, dass man das zielsicher auf GK100 festnageln kann. Genauer:
Ich halte einen Abzug von Kepler-Personal sogar für am unwahrscheinlichsten, denn die hatten mit Abstand die wenigste Ahnung vom Thema. Andere Fermi-Teams wären naheliegender und der doch sehr späte GF104-Launch passt sehr gut zu dieser Erklärung.
Klar sind erst mal die Leute von anderen GF Derivaten abgezogen worden, insbesondere Tegra soll aber auch ziemlich darunter gelitten haben, das man bei Fermi aushelfen musste, und wenn die schon aushelfen mussten, dann sicherlich auch die von Kepler, wobei die wohl eher später erst mehr Leute bekommen haben werden.

Das Nvidia davor scheut, neue Archtitekturen und neue Fertigungen zeitgleich einzuführen, ist bekannt. Aber egal welche Lesart man nimmt: 28 nm Fermis gab es nicht, durch das enorme Alter der 40 nm Fertigung war Nvidia gezwungen, endlich was durchgängig neues zu machen. Gut möglich, dass man gezielt nicht den den aufwändigsten Chip für den Architektur-Launch gewählt hat - aber das heißt nicht, dass man ihn im Umkehrschluss komplett gestrichen hat.
Und was hat es Ihnen gebracht? Richtig, Sie sind SEHR böse auf die Nase geflogen und viele Leute nehmen Ihnen das richtig übel, einfach weil man nach dem Fermi Debakel echte Zweifel an dem hat, was nVidia vom Stapel lässt bzgl Verfügbarkeit usw. Huang hat ja auch gesagt, das man eine neue Generation binnen 3 Monaten komplett einführen will, und das geht auf einem neuen Prozess deutlich einfacher ohne das Monster zu bringen. Denn du sprichst etwas wichtiges an. Man muss die Sachen trotz Tests mit Simulationen usw. doch auch mal in Silizium haben, um zu sehen, obs wirklich geht, oder eben nicht. Da hilft es dann schon ungemein, wenn man einen etwas reiferen Prozess hat, und dann Prozessprobleme ausschließen kann.

Ich weiß nicht, was Nvidia weiß, aber ich weiß, dass AMD noch nie Rücksicht auf die Nodes genommen hat, ich weiß, dass man GCN schon sehr lange mit gpGPU beworben hat (was ohne High-End-Chip keinen Sinn macht, man baut keinen HD7770 Cluster) und ich weiß, dass es Gerüchte zu einer echten "R"-GPU gab.
AMD ist nochmals etwas größer geworden, aber alles noch in einem humanen Rahmen. Kein Vergleich zu einem GF1x0 oder GK110 von der Größe her. Ich hab den Gerüchten bzgl. so einem Monster auch nicht wirklich glauben geschenkt. Mit Rev 2 in 28nm eventuell, einfach weil man gut in der Zeit war mit der Entwicklung, und sich bei der Führungsetage von AMD einiges geändert hat, was sich so langsam auch in Produkte durchschlägt. Ich würde allerdings keinen Pfifferling darauf verwetten, dass die auch einen 500mm² Chip bringen mit Rev2.

*google*
Ich vermute mal, du meinst keine ägyptische Gottheit, sondern eine Person aus dem 3DCenterforum, die als Beruf "Hotelfach" angibt und früher mal mehr mit Nvidia zu tun hatte?
Nein ich mein keine ägyptische Gottheit :lol:

Und der "Beruf" spielt keine Rolle. Die Infos sind gut. Besser als von Charlie oder Donanimhaber in letzter Zeit. Von Obr will ich mal gar nicht anfangen. Der erzählt in letzter Zeit ja NUR NOCH
Grütze und muss seinen Blog am laufenden Band editieren, damit man nicht sieht wieviel Bullshit er verbreitet.

"weil" oder "nicht weil", das ist hier die Frage :)
Nach dem was man so hört eher ein "weil" denn ein "nicht weil". Du musst ja auch sehen, das man noch immer nichts von einer GTX660 usw. sieht. Die GTX670 kam auch erst einige Zeit später, und Custom-Designs sind am Anfang praktisch gar nicht zu sehen gewesen, und dann so lala. Inzwischen gehts aber eigentlich. Das spricht in Summe eigentlich dagegen, das man die Partner schlichtweg im Dunkeln gelassen hat. Vor allem, welchen Sinn hätte das gemacht? GK104 ist ein guter Chip, aber keine Wunderwaffe. So etwas musste man nicht verstecken. Auf keinen Fall.

Die ersten Gerüchte zum Kepler-Launchtermin, basierend auf Kapazitätsbestellungen bei TSMC, gab es iirc schon 2010. Und sie wiesen auf das erste Quartal 2012 als frühesten Termin hin, eher Frühjahr denn Januar. AMD dagegen wurde spätestens Anfang 2011 auf 12Q4 datiert - mit der Hoffnung auf Herbst statt (Paperlaunch) in der Vorweihnachtszeit. Kann natürlich wieder, wie alle Gerüchte, falsch gewesen sein, aber es gibt keinen Hinweis darauf, dass Nvidia "plötzlich" ohne GPU und mit bereits gestarteten AMD-Karten da stand. Im Gegenteil: Nvidia hat zumindest einen Teil der geplanten Produkte im angedachten Launch-Fenster platziert (ob eher an dessen Ende und ob alle geplanten lässt sich, dank der guten Informationskontrolle bei Nvidia, nicht sagen - aber gut möglich), während AMD sogar zu spät dran war. Das zwischen beiden Terminen ein Zeitraum liegt, in dem sich SI gegen Fermi austoben konnte, war schon sehr, sehr früh bekannt und dürfte somit nicht zu Druck bei Nvidia geführt haben.
Klar war das schon früher bekannt, aber genau damit stand nVidia ja unter druckt. Man überlässt der Konkurrenz nicht gern für längere Zeit den Platz überlässt. Zudem kann man sich ja nie sicher sein, das alles glatt geht, siehe GF100, auch wenn es mit GK104 natürlich deutlich einfach gewesen sein wird. Man hat aber halt dennoch sehr viel umgestellt, was viele Fehlerquellen bedeutet.

Man stand also schon unter Druck schnellst möglich die Sachen fertig zu bekommen. AMD war sich iherer Sache ja sehr sicher, wurde nur von TSMC ausgebremst, was letzten Endes nVidia natürlich ganz gelegen kam. Daher finde ich nicht, das man nicht sagen kann, das nVidia deswegen unter Druck stand. Vor allem, weil Sie ja absolut zu gemacht haben. Das lässt die Partner in der Luft hängen und verunsichert diese, was dann doch wieder bei nVidia zu Druck führt, weil die Leute ungeduldig werden und irgendwann anfangen zu zweifeln.

Sagt die "offene" (so offen, wie ein Schiff aus Streckmetall...) Informationspolitik AMDs etwas über den relativen Entwicklungsfortschritt aus? Ich denke nicht. Schön, dass die ihren Partnern (und allen anderen) Verraten, wie weit der Chip ist. Aber Nvidia macht das halt mindestens seit dem G80 nicht mehr und dementsprechend schlecht lässt sich so etwas vergleichen. Fest stehen dürfte jedenfalls: Auch Tahiti war nicht fertig, bevor TSMC einwandfrei funktionierende Chips zur Probe lieferte.
Da gehts wohl eher weniger um verraten, als um Samples verteilen.

Man kann einen Chip nicht ohne Fertigung fertigstellen, das sollte spätestens bei Fermi jedem aufgegangen sein. Wenn man verdammt viel Glück hat und einfach keine Fehler macht, dann ist die Fertigung halt einfach egal - siehe Northern Islands. Aber wenn der Chip in einem Zustand ist, der Überarbeitungen erfordert (und das ist er quasi immer, Nvidia hat noch nie A0 ausgeliefert und bei Fermi waren bekanntermaßen sogar erst die eigentlich-B-Siliziums das, was man wollte), dann steht man eben unweigerlich vor dem Problem, dass solide Tests erst möglich sind, wenn das Fertigungsverfahren keine größeren Fehler mehr produziert.
Eben das war ja mutmaßlicher Weise einer der Gründe für den verhältnismäßig großen Versatz in den geplanten Launch-Terminen: Nvidia wollte Fermi 2.0 vermeiden und legte den Entwicklungsabschluss in einen Zeitraum, zu dem TSMC lange fertig sein wollte. Es stimmt, dass der Versatz dann nachträglich kleiner ausfiel, weil TSMC eben doch wieder mehr Probleme hatte und AMD durch Veröffentlichungs- und Vertriebshömoopathie mit 2-3 Monaten Verspätung im Markt ankam, aber Druck für Nvidia ergibt sich hier eben nicht aus der eigenen Entwicklung (mit Luft geplant), sondern im Gegenteil wiederum durch TSMC (denen man wohl nie genug Luft lassen kann - siehe vollständiger Produktionsstop kurz vor dem Launch-Fenster...)
Wie gesagt, Sie hatten wohl, wenn ich mich richtig erinnere, gegen September schon erste Chips (eventuell wars auch erst Oktober) zurück, die eben liefen, und an die Boardpartner eben auch weitergetragen worden sein sollen. Damit kann man sich dann schon sehr sicher sein, dass das Design funktioniert. Wobei man davon ausgehen kann/muss, das AMD selbst wohl noch früher Sachen hatte. Die hängen ja auch nicht immer alles an die große Glocke.

Da sich die Unterschiede zwischen G?10? und G?11? auf Optimierungen beschränken, glaube ich nicht, dass es bis Mitte 2011 überhaupt einen großen Unterschied zwischen GK100 und GK110 gab - eben weil TSMC überhaupt nicht die Möglichkeit bot, einen "as is" GK1x0 als GK100 in die Testproduktion zu schicken. Je nach dem, wie viele Informationen Nvidia intern über die Probleme bei TSMC hatte, ist es möglich, dass sie in dem Moment schon die Konzentration auf GK104 beschlossen haben (kleiner = bessere Testmöglichkeiten bei gleich mieser Fertigung = geringere Verzögerung durch diese). Aber ich glaube nicht, dass es vor Ende des 3. Quartals überhaupt hätte entschieden werden müssen, ob GK1x0 unoptimiert im 2Q12 in Produktion geht, oder ob man diesen Schritt auslässt.
Bei so nem großen Chip würde ich eher von nem halben Jahr fürs finish ausgehen. Daher würde ich auch nicht Mitte 2011, sondern Anfang 2011 sagen. So schnell gehen die Sachen einfach nicht.

Bzgl. der Testfertigung haste natürlich recht, aber das war schon immer klar. Kleinere Chips kannste immer früher bringen als größere. Das hat nichts mit irgendwelchen speziellen Problemen bei TSMC zu tun. Von daher wars unter Berücksichtigung der Aussagen von Huang durchaus nachvollziehbar, das man zuerst den kleinen Chip bringt, einfach um schneller am Markt sein zu können.

Zu dem "unoptimiert" aber noch was.
"unoptimiert" kannste die Dinger nicht in ne Serienproduktion schicken. Man quetscht halt nur nicht die letzten paar % raus. Das Design an sich hätte aber gut ein halbes Jahr vor dem geplanten Launch fertig sein sollen, damit man noch genug Zeit hat, um die Sachen dann auch fürs ASIC fertig zu machen, Verifikation zu betreiben und und und. Da ist aber noch kein respin eingeplant, was die sicherlich machen. Deswegen denke ich Mitte 2011 waren viel zu spät für eine Entscheidung, ob es GK100 geben wird oder nicht.

Nicht seit heute, aber auch nicht seit 2010, als zum ersten Mal die Worte "GK100" in den Mund genommen wurden - oder eben nicht.
Das TSMC die Verträge nicht einhalten kann, dürfte man frühestens seit 2H12 wissen. Daraus ergibt sich dann chronologisch der Rest, wobei die Flexibilität von GPU-Designs (von einander abgeleitete Chips einer Generation, sehr nah verwandtes Refresh) eben noch nicht bedeutet, dass die Priorisierung eines Chips das sofortige Ende eines anderen bedeutet. Ich persönlich halte es für gut möglich, dass weiterhin mit Volldampf zumindest an den GK100-Baustellen gearbeitet wurde, von denen auch GK110 und GK allgemein profitiert, bis im ~Oktober/November klar wurde, wie wenig von GCN zu befürchten war. Denn die meisten Design-Wins der OEMs bedient Nvidia so oder so via GF11x. Und das war entweder beiden Parteien egal (unwahrscheinlich), oder es stand schon lange fest, bevor der Rest der Welt jemals die Worte "GF 670 TI" in einer News las.
Meiner Meinung nach viel zu kurzfristig. Das wären alles überstürzte Hauruckentscheidungen, wobei davor alles SEHR mit heiser Nadel gestrickt gewesen wäre. So was unterstelle ich nVidia nicht, und will ich mir auch gar nicht als möglich vorstellen. So was ist keine Geschäftsgrundlage.

Bei GK100<->GK110 kannst du auch nicht vom Ende eines Chips sprechen. Man lässt sich halt mehr Zeit, wei man mehr Zeit brauch. Fertig. Wie das Ding dann am Ende heist, ist doch Jacke wie Hose. Wenn überhaupt, sagt es nur etwas darüber aus, ob man den eigenen Zeitplan in etwa eingehalten hat, oder aber nicht. Namen lassen sich aber SEHR einfach austauschen. Siehe Larrabee, äh ich meine Knights-Korner, äh ich meine natürlich Ferry-Knights, ach tschuldigung MIC natürlich. Äh... Mike... :rolleyes:

Ich hoffe du weißt was ich meine.


"Können" steht nicht zur Debatte - das hätte die Praxis zeigen müssen und wie der GTX480-Kastrat gezeigt hat: Notfalls ist "können" und "machen" noch nicht einmal das gleiche. Die eigentliche Frage ist aber: "Wollen?"
[/quote]
Der Punkt, den du hier ansprichst ist absolut richtig. Nur wird dieses Mittel wohl selbst in Q42012 gewählt werden, wenn man den Aussagen auf der GTC glauben schenken darf, und da liegt doch einige Zeit dazwischen. Zudem kann man ja auch nicht beliebig den Chip kastrieren, sonst bringt er irgendwann einfach keinen Vorteil mehr.

Man sollte aber wohl von "wirtschaftlich" produzieren sprechen, und nicht von allgemein. GF100 war ja wohl angeblich auch durchaus produzierbar, unter gewissen Vorrausstezungen und mords schlechten Yealds, aber das spielt keine Rolle, ob ich irgendwie mit unendlich viel Kapitaleinsatz doch mal nen funktionstüchtigen Chip raus bekomme, der irgendwie funktioniert, dann aber ne grottige Performance hat.

Der Chip muss wirtschaftlich im Rahmen seiner Projektion produzierbar sein. Vorher machts einfach keinen Sinn meiner Meinung nach davon zu sprechen, das ne Firma einen Chip produzieren könnte. Ansonsten kannste das auch auf alle Entwicklungen unter Laborbedingungen ausweiten.
 
"während AMD sogar zu spät dran war." Diese Meinung hast du aber Exklusiv.:lol:

So, habe ich?
Wie würdest du es denn beschreiben, wenn eine Grafikkarte, die für Ende November erwartet wurde, erst Ende Januar in nenneswertern Stückzahlen verfügbar ist und ihr kleinerer Bruder, der zeitgleich erscheinen sollte, nicht einmal das schafft?
Für mich ist das "zu spät".



Sodele, jetzt hab ich dann auch mal Zeit auf deinen Beitrag zu antworten.

Und ich für die Antwort :ugly:

Klar sind erst mal die Leute von anderen GF Derivaten abgezogen worden, insbesondere Tegra soll aber auch ziemlich darunter gelitten haben, das man bei Fermi aushelfen musste,

Sagt wer?

und wenn die schon aushelfen mussten, dann sicherlich auch die von Kepler, wobei die wohl eher später erst mehr Leute bekommen haben werden.

Naja: Iirc sollte die nächste Tegra-Generation ebenfalls auf aktuelle Shaderkerne setzen und solange bei TSMC keine Kapazitäten frei sind, kann sie eh nicht vorrankommen. So gesehen ist der Abstand nicht wesentlich größer.

Und was hat es Ihnen gebracht? Richtig, Sie sind SEHR böse auf die Nase geflogen und viele Leute nehmen Ihnen das richtig übel

Nvidia ist mit Kepler sehr übel auf die Nase geflogen und viele Leute nehmen ihnen das übel?
Mein Stand der Dinge war, dass Nvidia Mondpreise verlangen kann und die Leute trotzdem so tief in den Arsch kriechen, dass sie zur Nase wieder rauskommen.

Und der "Beruf" spielt keine Rolle. Die Infos sind gut. Besser als von Charlie oder Donanimhaber in letzter Zeit. Von Obr will ich mal gar nicht anfangen. Der erzählt in letzter Zeit ja NUR NOCH
Grütze und muss seinen Blog am laufenden Band editieren, damit man nicht sieht wieviel Bullshit er verbreitet.

:)
Da ich Charlie und Donanim bestenfalls auf Springer-Niveau einstufe, ist das dann aber ein "besser als nichts" - und noch lange nicht "gut" (genug, um sie ohne Bestätigung aus mehreren weiteren, unabhängigen Quellen, für bahre Münze zu nehmen. Erst recht bei derart internen Dingen, die man eben nicht von Nvidia-Partnern erfahren kann, im Gegensatz zu z.B. technischen Daten)

Nach dem was man so hört eher ein "weil" denn ein "nicht weil". Du musst ja auch sehen, das man noch immer nichts von einer GTX660 usw. sieht. Die GTX670 kam auch erst einige Zeit später, und Custom-Designs sind am Anfang praktisch gar nicht zu sehen gewesen, und dann so lala.

Das sagt aber leider alles nichts darüber aus, was bei Nvidia vor Veröffentlichung des Chips war oder nicht war, sondern nur, wann diese war. (was man aber auch so weiß - arg knapp vor der Markteinführung)

Vor allem, welchen Sinn hätte das gemacht? GK104 ist ein guter Chip, aber keine Wunderwaffe. So etwas musste man nicht verstecken. Auf keinen Fall.

Sicherlich nicht. Es passt aber zu Nvidia, bei denen ist das Geschrei i.d.R. antiproportional zur Qualität der Hardware. Man Vergleiche Fermi, GTX295 und Cine FX mit G80, dem Dauerbrenner G92 oder der Geforce 4 Ti. Selbst der TNT1 wurde schon massiv gepusht, im Vorfeld des GF256 massiv geschwiegen. Ich weiß nicht, wieso Nvidia das macht, aber es ist so regelmäßig, dass ich allein den Mangel an Informationen als zuverlässigere Quelle zur Qualität von GK104 betrachtet habe, als alles Gewäsch von OBR&Konsorten.

Klar war das schon früher bekannt, aber genau damit stand nVidia ja unter druckt. Man überlässt der Konkurrenz nicht gern für längere Zeit den Platz überlässt. Zudem kann man sich ja nie sicher sein, das alles glatt geht, siehe GF100, auch wenn es mit GK104 natürlich deutlich einfach gewesen sein wird. Man hat aber halt dennoch sehr viel umgestellt, was viele Fehlerquellen bedeutet.

Man stand also schon unter Druck schnellst möglich die Sachen fertig zu bekommen. AMD war sich iherer Sache ja sehr sicher, wurde nur von TSMC ausgebremst, was letzten Endes nVidia natürlich ganz gelegen kam. Daher finde ich nicht, das man nicht sagen kann, das nVidia deswegen unter Druck stand. Vor allem, weil Sie ja absolut zu gemacht haben. Das lässt die Partner in der Luft hängen und verunsichert diese, was dann doch wieder bei nVidia zu Druck führt, weil die Leute ungeduldig werden und irgendwann anfangen zu zweifeln.

Ich fasse zusammen:
Nvidia stand unter Druck, weil sie mit großzügigen Reserven geplant hatten (:hmm:) und deswegen besonders schnell fertig werden wollten (:huh:), um Reserven für den Fall zu haben, dass etwas schief läuft (:what:) und sie zeitgleich die Partner nicht informiert haben, was sie unter Druck setzte, noch schneller -?äh?- kein Informationen zu liefern?
Sorry.
Entweder verstehe ich jeden einzelnen Satz von dir Falsch, oder/und wir werden hier auf keinen gemeinsamen Zweig kommen.

Da gehts wohl eher weniger um verraten, als um Samples verteilen.

Wie gesagt, Sie hatten wohl, wenn ich mich richtig erinnere, gegen September schon erste Chips (eventuell wars auch erst Oktober) zurück, die eben liefen, und an die Boardpartner eben auch weitergetragen worden sein sollen. Damit kann man sich dann schon sehr sicher sein, dass das Design funktioniert.

Jetzt drehst du deiner eigenen Argumentation einen Strick:
Wenn selbst AMDs Boardpartner schon im September wussten, was das GCN Topmodell konnte, dann wäre auch eine Absage für GK100, die im Sommer erfolgte, eine Reaktion auf GCN gewesen, denn Nvidia erfährt garantiert nicht erst nach XfX, was Sache ist ;)

Der Chip muss wirtschaftlich im Rahmen seiner Projektion produzierbar sein. Vorher machts einfach keinen Sinn meiner Meinung nach davon zu sprechen, das ne Firma einen Chip produzieren könnte. Ansonsten kannste das auch auf alle Entwicklungen unter Laborbedingungen ausweiten.

Ein High-End Chip für den Destkopmarkt wird nie aus Gründen der Wirtschaftlichkeit produziert. Würde mich nicht wundern, wenn die mehrheitlich nicht einmal ihr eigenes Design einfahren (bzw. heute nur dank gpGPU-Ablegern). Der Haupteffekt ist Marketing für die neue Generation. Dabei ist bekanntermaßen sogar egal, ob das Ding gar nichts mit dem Rest der Generation gemeinsam hat (HD6900), ob es nur mit hohen Spannungen und teilaktiviert überhaupt nenneswerte Yields gibt (GTX480) oder ob es handgeklöppelt und abgezählt rauskommt (X850XT Press Edition, 7800GTX 512). Bekanntermaßen hat ein Firma sogar bis in den finanziellen Ruin an so einem Projekt gearbeitet, anstatt sich auf die Mittelklasse zu beschränken - denn ein guter Mittelklasse-/Einsteigerchip allein reicht einfach nicht. Zwar wird später der große Umsatz in diesen Bereichen gemacht und eigentlich wäre es logisch, dass es nur darum ginge, aber de facto kannst du auf den dann "Deltachrome" schreiben und dich in den Sarg legen, wenn du keinen großen Bruder hast, der wenigstens ein bißchen mehr Eindruck schindet.

Und deswegen lautet die Fragen eben:
Wann musste Nvidia entscheiden, dass es aus der "Big Kepler"-Entwicklungslinie nichts in Maskenform gebracht wird, bevor er soweit optimiert wurde, dass er de facto ein Refresh des ersten funktionierenden Designs hätte sein können?
Und wann wusste Nvidia, dass sie keinen GK100 brauchen, sondern mit GK107 gegen Tahiti bestehen können?
 
Zurück