AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion
Oh je Leute, sorry das der Post "etwas" länger wird, aber da wird extrem viel durcheinander geworfen und auch viel falsches Erzählt. Wollen wir mal das Bild etwas gerade rücken
Ohje wenn die Chips dann wieder ein 512 Speicerinterface bekommen, können wir ja wieder große Chips erwarten. Das wird die Karten dann nicht billiger machen.
Naja Ich bin gespannt was nVidia der neuen AMD-Architektur entgegen zu setzen hat. Immerhin dürfte das ja auch wieder eine Preisfrage werden. Ein 512 Bit Interface kann sich da schon negativ auswirken, wenn man bei AMD wieder auf 256 Bit setzt. Obwohl, eigentlich würden 384 Bit auch mal nicht schaden bei AMD.
Dafür, dass die Southern Island GPUs Ende des Jahres kommen sollen, gibt es aber reichlich wenig Infos von AMD.
Ich glaube aber, dass man die Tesselationsleistung weiter hochfahren wird.
Naja, das 384 Bit Interface ist etwas "ungeschickt" passt halt nicht in das 2^x System, mit dem eben Hardware arbeitet. Das es aber nur der RAM ist, der eh grottig langsam ist, kann man es verschmerzen. Man liest ja auch eh sehr sehr sehr viele Lines aus. Also von daher in 99,999% der Fälle vernachlässigbar. Ein 512 Bit Interface würde ich allerdings als "schöner" ansehen. Wenn ich aber zwischen 256 und 384 Bit habe, nehme ich doch die 384
Ich hoffe auch, dass die wieder ein 512 Bit Interface bringen. Es ist zwar sehr teuer, aber der Global-Ram ist einfach ein extremer Flaschenhals. Der könnte das wirklich gebrauchen.
Was das "große" Chips angeht, so wird er definitiv nicht größer als Fermi. Mit Fermi ist nVidia an die Grenzen des machbaren von der Größe bei TSMC, bzw. eher sogar nahezu allgemein gegangen. Nur wenige Chips sind größer (glaub 1-2 gibt es). Ich bin mir jetzt nicht ganz sicher, aber nVidia ist glaub bei Fermi sogar ganz leicht über die ursprüngliche maximale von TSMC angebotene Größe gegangen, bzw. hat fast ne Punktlandung hingelegt. Man muss sich halt wirklich überlegen, ob es sinnvoll ist, bei einem neuen Prozess gleich ans absolute Maximum zu gehen oder nicht.
Was für Wissenschaftler auch intressant ist, das die Fermis ECC haben und somit deutlich genauer arbeiten.
ECC hat NICHTS aber wirklich rein gar nichts mit der Genauigkeit der Berechnungen zu tun. Dafür gibt es Standards, wie IEEE. Dort wird festgelegt, wie eine SP/DP Operation abzulaufen hat, und wie gerundet wird. Da gibt es SEHR genaue Vorgaben, an die sich aber heutige GPUs halten. Früher war dies nicht der Fall. Z.B. die GT8xxx glaub ich wars, hatte noch kein IEEE konforme FlotingPoint/Implementierung. Wenn du da mit CUDA&OpenCL etwas rechnest, und das mit der CPU Vergleichst, dann musst du immer einen +/- Bereich angeben, da die Berechnungen leicht voneinander abweichen. 1-5% waren da glaub ein guter Wert. Wenn du die gleichen Sachen auf einer HD5k/6k oder einer GTX400/500 rechnest, wirst du IMMER genau das gleiche Ergebnis bekommen wie die CPU. Halt genau wie du auch das gleiche Ergebnis bekommst, egal ob du jetzt eine Intel oder AMD CPU verwendest
Was ECC macht ist, das du Bitshifts erkennst, und korrigieren kannst. 1 Bitflip kannst du erkennen und korrigieren, 2Bitflips kannst du glaub auch erkennen, und 3 Bitflips solltest du normal nicht mehr erkennen können wenn ich mich recht erinnere. Wen es interessiert, auf Wikipedia ist da ein ganz netter Artikel verfügbar. Sodele, kommen wir mal dazu, was BitFlips sind. die Daten werden ja z.B. im DRAM gehalten, und sind dauernd der kosmischen Strahlung ausgesetzt, und diese kann eben dazu führen, das ein Bit von 0->1 oder von 1->0 umflippt, was dann natürlich zu Fehlern führt. Die Sache ist eigentlich sehr unwahrscheinlich, und beim zocken juckt das auch keinen, aber bei Rechnern mit tausenden von Karten die über Tage oder Wochen laufen, ist so ein Fall dann halt doch SEHR wahrscheinlich, und auch inakzeptabel.
Eben. Dies ist meines Wissens auch der Hauptgrund warum keine Radeon (fireGL oä) in Servern und HPCs verbaut werden, denn hier kann jeder Fehler in der Memory fatal sein. Denn bei OpenCL basierenden Berechnungen sind diese eigentlich den Fermi Haushoch überlegen
Grad keine Zeit, später kommt noch was. So allgemein kann man das halt nicht sagen, wie schon angesprochen wurde von MArc glaub ich.