Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

PCGH-Redaktion

Kommentar-System
Teammitglied
Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Jetzt ist Ihre Meinung zu Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion
 
Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Ich hoffe dass es dieses Mal keine Neuauflage erfordert um schnelle und im Verhältnis sparsame GPUs zu liefern.
Der GF100 war diesbezüglich ja eine Katastrophe. Nvidia hat mit dem GF110 das Ruder aber noch mal rumgerissen. Wäre schön wenn man den Schritt sparen könnte und gleich was Anständiges liefert.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Da steht extra (sic!) dahinter ... klick halt mal auf den Link bevor du postest :P
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Könnte Kepler unerwartet der doch erste Non-Grill GPU seit Jahren von nVidia werden, oder werden sie die Leistung dafür so hochpushen - also mal wieder die Murphys Law?
Wäre ja schön wenn eins von beidem bzw. beide gewissweit erreicht werden!
Dann bin ich aber auch auf ATi mit 28nm gespannt ;)


Neue Runde - Neues Glück
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Nvidia hat erst einmal Verlustleistung über Leistung priorisiert - und bis heute wird die x1800 immer über den G71 gelobt. Denke nicht, dass sie ausgerechnet mit der Aussicht auf eine komplett neue AMD-Architektur kürzer treten werden. Eher das Gegenteil - mich würde auch ein erneuter Vorstoß zu 512 Bit nicht überraschen. So oder so: Die Mittelklasse wird sehr interessant werden. Hoffentlich verzögert die sich nicht zu sehr gegenüber den Topmodellen, bis Ostern will ich meine 98GTX+ dann doch mal in Ruhestand schicken.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Ohje wenn die Chips dann wieder ein 512 Speicerinterface bekommen, können wir ja wieder große Chips erwarten. Das wird die Karten dann nicht billiger machen.
Naja Ich bin gespannt was nVidia der neuen AMD-Architektur entgegen zu setzen hat. Immerhin dürfte das ja auch wieder eine Preisfrage werden. Ein 512 Bit Interface kann sich da schon negativ auswirken, wenn man bei AMD wieder auf 256 Bit setzt. Obwohl, eigentlich würden 384 Bit auch mal nicht schaden bei AMD.
Dafür, dass die Southern Island GPUs Ende des Jahres kommen sollen, gibt es aber reichlich wenig Infos von AMD.
Ich glaube aber, dass man die Tesselationsleistung weiter hochfahren wird.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Ich hoffe dass es dieses Mal keine Neuauflage erfordert um schnelle und im Verhältnis sparsame GPUs zu liefern.
Der GF100 war diesbezüglich ja eine Katastrophe. Nvidia hat mit dem GF110 das Ruder aber noch mal rumgerissen. Wäre schön wenn man den Schritt sparen könnte und gleich was Anständiges liefert.
Auch GF110 ist nicht wirklich stromsparend oder auch nur halbwegs effizient.
Code:
GPU                   HD 5850    GTX580
Stromverbrauch        151 W       244 W
Leistung in TFlops     ~ 2          1,5
Quellen:
Wikipedia
Spricht nicht grade für die GTX580.
Die hat zwar ne höhere Pixelfüllrate (wichtig für AA und so),
aber für wissenschaftliche Anwendungen (oder das erzeugen von Bitcoins :P )
ist die 5850 besser.
Fail.
Könnte Kepler unerwartet der doch erste Non-Grill GPU seit Jahren von nVidia werden, oder werden sie die Leistung dafür so hochpushen - also mal wieder die Murphys Law?
Wäre ja schön wenn eins von beidem bzw. beide gewissweit erreicht werden!
Dann bin ich aber auch auf ATi mit 28nm gespannt ;)


Neue Runde - Neues Glück
Ich warte eher auf AMDs neuste GPU-Schöpfungen.
Bei nVidia mach ich mir bzgl. des Stromverbrauchs keine Illusionen, das der in diesem Jahrzehnt noch sinkt.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Auch GF110 ist nicht wirklich stromsparend oder auch nur halbwegs effizient.
Code:
GPU                   HD 5850    GTX580
Stromverbrauch        151 W       244 W
Leistung in TFlops     ~ 2          1,5
Quellen:
Wikipedia
Spricht nicht grade für die GTX580.
Die hat zwar ne höhere Pixelfüllrate (wichtig für AA und so),
aber für wissenschaftliche Anwendungen (oder das erzeugen von Bitcoins :P )
ist die 5850 besser.

Das was du da ansprichst ist aber die reine Rechenleistung in TFlops. In Spielen ist die aber ehere irrelevant. Da liegt die GTX 580 weit vor der HD 5850. Und im Vergleich zur GF100 ist der GF110 schon deutlich sparsamer.
Außerdem können die Radeons ihre theoretische Rechenleistung aufgrund der 5D bzw. 4D - Shader gar nicht richtig umsetzen.
 
Zuletzt bearbeitet:
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

@ spionkaese

Du kannst nicht einfach die theoretischen GFLOPS mit der TPD (welche nicht das Gleiche ist wie die Leistungsaufnahme!) gleichsetzen. In Sachen Perf/Watt sind zB eine HD 6970 und eine GTX 570 gleichauf ... die Radeons sind in Sachen GFLOPS nur da toll, wo sie diese auch ausspielen können (und fressen entsprechend Strom).
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Wer glaubt denn das bitte :what::ugly::rollen: klar die haben ein ungutes Gefühl weil die AMD Karten schon im November rauskommen :P deswegen sagen sie wieder einmal :D das Warten lohnt sich
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

@ spionkaese

Du kannst nicht einfach die theoretischen GFLOPS mit der TPD (welche nicht das Gleiche ist wie die Leistungsaufnahme!) gleichsetzen. In Sachen Perf/Watt sind zB eine HD 6970 und eine GTX 570 gleichauf ... die Radeons sind in Sachen GFLOPS nur da toll, wo sie diese auch ausspielen können (und fressen entsprechend Strom).
Ok, dann Hd5850: 170 W
ist leider das einzige was ich gefunden habe, bei der GTX580 sollens 244 W sein.
Ich hab ja auch nichts anderes gesagt, nämlich das die HD5850 bei wissenschaftlichen Anwendungen den nVidia Karten überlegen ist.
Gleiches Spiel beim Minen (erzeugen von Bitcoins):
Ne HD5850 schafft locker bei Stock-Takt 300 MHash/s,
während GTX 570 und 580 zwischen 100 und 200 rumdümpeln.
https://en.bitcoin.it/wiki/Mining_hardware_comparison#Graphics_cards
Klar, in Spielen siehts anders aus, aber auch da verbrauchen die nVidia Karten mMn zuviel strom für ihre Leistung.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Die sollen die extra fläche mal nutzen um nen richtigen grill zu erzeugen der spiele wie metro auf ner single gpu 3d fähig macht ,für verbrauchssenkungen gibts waküs ,netzteile ,mainboards ,ssds und undervolting.
In der mittelklasse glaub ich nicht das sich da was tut ,nur verbesserte leistungen bei +- gleichem verbrauch als 460/560.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Ich hab ja auch nichts anderes gesagt, nämlich das die HD5850 bei wissenschaftlichen Anwendungen den nVidia Karten überlegen ist. Gleiches Spiel beim Minen (erzeugen von Bitcoins):
Sofern Bruteforce zählt, hast du Recht. Das ist aber nicht immer der Fall, nicht umsonst sind in mehrere Supercomputern Fermi-Karten verbaut und im Titan 2012 auch Kepler-Modelle.

Klar, in Spielen siehts anders aus, aber auch da verbrauchen die nVidia Karten mMn zuviel strom für ihre Leistung.
Perf/Watt ist da ziemlich ähnlich, mit starker Tessellation bei AMD gar besser.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Was für Wissenschaftler auch intressant ist, das die Fermis ECC haben und somit deutlich genauer arbeiten.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Was für Wissenschaftler auch intressant ist, das die Fermis ECC haben und somit deutlich genauer arbeiten.

Eben. Dies ist meines Wissens auch der Hauptgrund warum keine Radeon (fireGL oä) in Servern und HPCs verbaut werden, denn hier kann jeder Fehler in der Memory fatal sein. Denn bei OpenCL basierenden Berechnungen sind diese eigentlich den Fermi Haushoch überlegen
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Eben. Dies ist meines Wissens auch der Hauptgrund warum keine Radeon (fireGL oä) in Servern und HPCs verbaut werden, denn hier kann jeder Fehler in der Memory fatal sein. Denn bei OpenCL basierenden Berechnungen sind diese eigentlich den Fermi Haushoch überlegen


Nun das ändert sich ja bei der neuen Generation ;-). (ECC)
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

"AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion"

Is kla, NOCH katastrophaler als der 40nm-Launch kann's ja nicht mehr werden, oder? :lol:
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Oh je Leute, sorry das der Post "etwas" länger wird, aber da wird extrem viel durcheinander geworfen und auch viel falsches Erzählt. Wollen wir mal das Bild etwas gerade rücken ;)


Ohje wenn die Chips dann wieder ein 512 Speicerinterface bekommen, können wir ja wieder große Chips erwarten. Das wird die Karten dann nicht billiger machen.
Naja Ich bin gespannt was nVidia der neuen AMD-Architektur entgegen zu setzen hat. Immerhin dürfte das ja auch wieder eine Preisfrage werden. Ein 512 Bit Interface kann sich da schon negativ auswirken, wenn man bei AMD wieder auf 256 Bit setzt. Obwohl, eigentlich würden 384 Bit auch mal nicht schaden bei AMD.
Dafür, dass die Southern Island GPUs Ende des Jahres kommen sollen, gibt es aber reichlich wenig Infos von AMD.
Ich glaube aber, dass man die Tesselationsleistung weiter hochfahren wird.
Naja, das 384 Bit Interface ist etwas "ungeschickt" passt halt nicht in das 2^x System, mit dem eben Hardware arbeitet. Das es aber nur der RAM ist, der eh grottig langsam ist, kann man es verschmerzen. Man liest ja auch eh sehr sehr sehr viele Lines aus. Also von daher in 99,999% der Fälle vernachlässigbar. Ein 512 Bit Interface würde ich allerdings als "schöner" ansehen. Wenn ich aber zwischen 256 und 384 Bit habe, nehme ich doch die 384 :daumen:

Ich hoffe auch, dass die wieder ein 512 Bit Interface bringen. Es ist zwar sehr teuer, aber der Global-Ram ist einfach ein extremer Flaschenhals. Der könnte das wirklich gebrauchen.

Was das "große" Chips angeht, so wird er definitiv nicht größer als Fermi. Mit Fermi ist nVidia an die Grenzen des machbaren von der Größe bei TSMC, bzw. eher sogar nahezu allgemein gegangen. Nur wenige Chips sind größer (glaub 1-2 gibt es). Ich bin mir jetzt nicht ganz sicher, aber nVidia ist glaub bei Fermi sogar ganz leicht über die ursprüngliche maximale von TSMC angebotene Größe gegangen, bzw. hat fast ne Punktlandung hingelegt. Man muss sich halt wirklich überlegen, ob es sinnvoll ist, bei einem neuen Prozess gleich ans absolute Maximum zu gehen oder nicht.

Was für Wissenschaftler auch intressant ist, das die Fermis ECC haben und somit deutlich genauer arbeiten.
ECC hat NICHTS aber wirklich rein gar nichts mit der Genauigkeit der Berechnungen zu tun. Dafür gibt es Standards, wie IEEE. Dort wird festgelegt, wie eine SP/DP Operation abzulaufen hat, und wie gerundet wird. Da gibt es SEHR genaue Vorgaben, an die sich aber heutige GPUs halten. Früher war dies nicht der Fall. Z.B. die GT8xxx glaub ich wars, hatte noch kein IEEE konforme FlotingPoint/Implementierung. Wenn du da mit CUDA&OpenCL etwas rechnest, und das mit der CPU Vergleichst, dann musst du immer einen +/- Bereich angeben, da die Berechnungen leicht voneinander abweichen. 1-5% waren da glaub ein guter Wert. Wenn du die gleichen Sachen auf einer HD5k/6k oder einer GTX400/500 rechnest, wirst du IMMER genau das gleiche Ergebnis bekommen wie die CPU. Halt genau wie du auch das gleiche Ergebnis bekommst, egal ob du jetzt eine Intel oder AMD CPU verwendest ;)

Was ECC macht ist, das du Bitshifts erkennst, und korrigieren kannst. 1 Bitflip kannst du erkennen und korrigieren, 2Bitflips kannst du glaub auch erkennen, und 3 Bitflips solltest du normal nicht mehr erkennen können wenn ich mich recht erinnere. Wen es interessiert, auf Wikipedia ist da ein ganz netter Artikel verfügbar. Sodele, kommen wir mal dazu, was BitFlips sind. die Daten werden ja z.B. im DRAM gehalten, und sind dauernd der kosmischen Strahlung ausgesetzt, und diese kann eben dazu führen, das ein Bit von 0->1 oder von 1->0 umflippt, was dann natürlich zu Fehlern führt. Die Sache ist eigentlich sehr unwahrscheinlich, und beim zocken juckt das auch keinen, aber bei Rechnern mit tausenden von Karten die über Tage oder Wochen laufen, ist so ein Fall dann halt doch SEHR wahrscheinlich, und auch inakzeptabel.


Eben. Dies ist meines Wissens auch der Hauptgrund warum keine Radeon (fireGL oä) in Servern und HPCs verbaut werden, denn hier kann jeder Fehler in der Memory fatal sein. Denn bei OpenCL basierenden Berechnungen sind diese eigentlich den Fermi Haushoch überlegen

Grad keine Zeit, später kommt noch was. So allgemein kann man das halt nicht sagen, wie schon angesprochen wurde von MArc glaub ich.
 
AW: Nvidia: 28-Nanometer-Fertigung für Kepler weitaus besser als 40-Nanometer-Produktion

Hoffentlich verhauen sie es nicht. Würd mir mal ne Karte wünschen die nicht gleich 400 Watt (Gesamtsystem) zieht beim zocken und ebenfalls mal dicke 60 Fps bei Metro haut natürlich in Full HD.
 
Zurück