Nvidia beschneidet Tesla-Karten

echt jetzt mal leute, wie viele von euch haben ne gtx480 zu hause? ich hab eine und ich heul nicht so rum. Ja mag sein das sie mehr strom zieht ein ferrari frist auch mehr sprit als ein trabi. Sitzt ihr die ganze zeit am stromzähler mit taschentüchern? Meine alte gtx260 con zotac is genauso/ wenn nicht sogar lauter als meine gtx480.
Kommt mal klar das rumgeheule geht einem auf die eier. Wer nvidia will kauft sie sich wer nicht bleibt bei ati. FERTIG



Schlimm find ichs einfach nur schlimm das die GTX480 von atinutzern nur mit ner DualGPU karte vergleichen. Warten wir mal ab bis die erste 495 mit 2 gpus da ist. Die wird jegliche ATI in den Boden stampfen, die GTX480 machst im single gpu bereich ja nicht anders

1. ne Dualkarte wird es nicht geben, hat mal nVidia selbst mal gesagt. Das termale Budget reicht dafür nicht aus. Selbst mit nem 3 Slot Kühler würde das mehr als eng werden. Die SingelGPU hat ja schon Heatpipes und frisst ja zwischen 270 und 450! Watt. Wie willste da bitte noch nen zweiten Chip draufpacken auf das gleiche PCB? Sorry, aber hör auf zu träumen, der Chip wird in der jetzigen Form nicht als Dualkarte kommen.

2. Ne 480 mit ner 5970 zu Vergleichen ist berechtigt, da etwa gleiche Kosten und Stromverbrauch. Es wird dabei allerdings immer darauf hingewiesen, das es halt die Nachteile einer MultiGPU Karte bei der 5970 gibt. Daher ist das durchaus fair. Du vergleichst doch auch 4 und 6 Kern CPU´s oder?

3. Gehts hier um ne Karte für den HPC Bereich. HALLO HPC!!! Da ist Leistung/Watt mit DAS ausschlaggebende Argument, weil du unterm Strich mehr für den Strom zahlst als für die Karte über die Laufzeit gerechnet.
Nimm mal ne GTX480 die 450 Watt frisst. Das sind 0,45 kWh*24*365=3.942 kWh im Jahr für die Karte. Jetzt rechnen wir mal mit billigen 0,1 Euro pro kWh, dann kannste aber nochmal 0,1 Euro pro kWh für die Kühlung dazu rechnen. Dann zahlste pro Jahr 788,40 Euro allein für eine Karte. So rechne das mal mal 5 Jahre, dann biste beim zichfachen deiner GTX480. Für ne HPC Karte biste dann etwa im gleichen Preisbereich.

So Vergleichen wir jetzt mal die GTX480 Karte mit der 5870. Wenn wir jetzt die DP Leistung ranziehen, dann haste was ganz tolles. Die GTX480 zieht nicht nur rund 100 Watt glaub warens aus der Steckdose als ne 5870, sondern hat auch noch DEUTLICH weniger DP Leistung. Bei ner 5870 sinds ja 500Gflops und bei ner GTX480 sinds ca. 170 Gflops rum.

Weiste wie deine Leistungs/Watt Statistik da aussieht? VERDAMMT beschissen. Du zahlst mit so ner Karte etwa das doppelte pro Jahr. So und nu Rechne das mal 100 oder mal 200, weil im HPC Bereich haste nicht nur 2 oder 3 Karten rumliegen. Dann sind das tausende von Euro die du jedes Jahr zum Fenster rausschmeist.

Das ist absolut INAKZEPTABEL! Vorallem, weil sich das LEistungs/Watt-Verhältnis zwischen ersten Ankündigungen und der hier um fast halbiert hat. Das die Mega verarsche.

So und nu lass dir das mal durch Kopf gehen und geh weg von deinem: Och die 5 oder 10 Euro mehr im Jahr sind doch wurscht denken. Das hier dreht sich NUR um HPC!

EDIT:

btw hier für dich extra nochmal die Aufstellung, wie krass sich die Tesla Karte verschlächtert hat. Die GTX480 sieht noch schlechter aus! Nur der Preis ist bei der GTX480. Man mache sich aber bewusst, das die 5870 OHNE ECC im SP fast schon mit der Profi-Karte mithalten kann, weil se etwas mehr SP hat, 3k Euro weniger kostet und weniger Strom frisst. K dafür brauchste 2 Karten, aber das gibt so nen Unterschied von etwa 100 Watt wenn ichs richtig im Kopf hab. Bei 100 Watt dauerts bis du den Anschaffungspreis verblasen hast. DAS ist das was hier extrem sauer aufstößt, bzw angeprangert wird, weil nVidia vorher SO großkotzig war und uns die ganze Zeit an der Nase herumführt und nix gebacken bekommt.
224512d1273281962-nvidia-beschneidet-tesla-karten-tesla_numbers_april.png
 
Zuletzt bearbeitet:
echt jetzt mal leute, wie viele von euch haben ne gtx480 zu hause? ich hab eine und ich heul nicht so rum. Ja mag sein das sie mehr strom zieht ein ferrari frist auch mehr sprit als ein trabi. Sitzt ihr die ganze zeit am stromzähler mit taschentüchern? Meine alte gtx260 con zotac is genauso/ wenn nicht sogar lauter als meine gtx480.
Kommt mal klar das rumgeheule geht einem auf die eier. Wer nvidia will kauft sie sich wer nicht bleibt bei ati. FERTIG



Schlimm find ichs einfach nur schlimm das die GTX480 von atinutzern nur mit ner DualGPU karte vergleichen. Warten wir mal ab bis die erste 495 mit 2 gpus da ist. Die wird jegliche ATI in den Boden stampfen, die GTX480 machst im single gpu bereich ja nicht anders

Vielleicht liest Du bitte noch mal die Überschrift? Danke.

MfG,
Explosiv
 
echt jetzt mal leute, wie viele von euch haben ne gtx480 zu hause? ich hab eine und ich heul nicht so rum. Ja mag sein das sie mehr strom zieht ein ferrari frist auch mehr sprit als ein trabi. Sitzt ihr die ganze zeit am stromzähler mit taschentüchern? Meine alte gtx260 con zotac is genauso/ wenn nicht sogar lauter als meine gtx480.
Kommt mal klar das rumgeheule geht einem auf die eier. Wer nvidia will kauft sie sich wer nicht bleibt bei ati. FERTIG



Schlimm find ichs einfach nur schlimm das die GTX480 von atinutzern nur mit ner DualGPU karte vergleichen. Warten wir mal ab bis die erste 495 mit 2 gpus da ist. Die wird jegliche ATI in den Boden stampfen, die GTX480 machst im single gpu bereich ja nicht anders

Absolut sinnfreies Fanboygelaber, dass nicht mal was mit dem Thema zu tun hat. Außerdem wirds keine GTX 495 geben, da brauchst dir keine Hoffnungen machen.
 
Is nicht jeder ein bisschen Fanboy^^
Ich tendiere auch mehr zu AMD beim Prozzi und Nvidia bei der Graka, aber das is doch ok *gg*
Und das obwohl die Forceware Treiber zur Zeit der letzte Müll sind *gg*
Dafür is mein X6 auf 4,2 GHz *breitgrins*
GIbt doch immer Höhen und Tiefen
 
echt jetzt mal leute, wie viele von euch haben ne gtx480 zu hause? ich hab eine und ich heul nicht so rum. Ja mag sein das sie mehr strom zieht ein ferrari frist auch mehr sprit als ein trabi. Sitzt ihr die ganze zeit am stromzähler mit taschentüchern? Meine alte gtx260 con zotac is genauso/ wenn nicht sogar lauter als meine gtx480.
Kommt mal klar das rumgeheule geht einem auf die eier. Wer nvidia will kauft sie sich wer nicht bleibt bei ati. FERTIG



Schlimm find ichs einfach nur schlimm das die GTX480 von atinutzern nur mit ner DualGPU karte vergleichen. Warten wir mal ab bis die erste 495 mit 2 gpus da ist. Die wird jegliche ATI in den Boden stampfen, die GTX480 machst im single gpu bereich ja nicht anders

Eine Geforce GTX 495 wird es wahrscheinlich nicht geben die die Radeon HD 5970 in den Boden stampfen wird. Die wuerde viel zu viel Strom verbrauchen. Luftkuehlung koennte mann bei so einer Karte wahrscheinlich auch vergessen. Ausserdem ist dass Thema hier Off-Topic. Hier geht es um Tesla Karten.
 
Hmm keine Ahnung, ich beschäftige mich immer 1-2 Monate vor nem Kauf mit der aktuellen Marktsituation und beobachte den, um mich dann für das Optimum aus Preis/Leistung zu entscheiden. Arbeitszeit nehm ich mal net mit rein, da ich Student bin, da mein P/L mehr als beschissen wäre :lol: Ich geb mir halt immer nen Mindestmaß an Leistung vor und nen Maximum an dem was ich ausgeben will, und meist wirds halt viel mehr Leistung als ich min brauch und etwas mehr Geld das ich ausgeb :schief: Kann aber wirklich immer guten Herzens sagen, das die Entscheidungen unterm Strich schon so ok waren (bis auf die 5870 vielleicht :D da hätte es vielleicht doch die 5850 getan, weil 100 Euro mehr fast nur für BOINC naja.. Enthusiast sag ich mal :D)

Hab z.B. Asus nen dicken Arschtritt nach ihrem A8N SL gegeben mit dem Lüfterdebakel, oder geb nix mehr auf beQuiet, tortz tollen tests immer, weil mir einfach schon 3 von denen kurz nach den 2 Jahren Garantie abgeraucht sind...
 

Erstaunlich, dass die HD 5870 die GTX 480 doch so im Zaum hält und das trotz eines halben Gigabyte weniger Speicher und 2/3 der Transistoren.
Erst ab 2560*1600 Pixeln kann die GeForce den Speichervorteil ausspielen.

Naja aber Nvidia hat meiner Meinung nach den Zwiespalt aus HPC-Chip und High-End-Consumerchip nicht gut gemeistert. Der GF100 ist einfach zu "satt" und zu "klobig" für den Consumer-Markt und für den HPC-Bereich zu Stromhungrig.
 
Naja aber Nvidia hat meiner Meinung nach den Zwiespalt aus HPC-Chip und High-End-Consumerchip nicht gut gemeistert. Der GF100 ist einfach zu "satt" und zu "klobig" für den Consumer-Markt und für den HPC-Bereich zu Stromhungrig.

Jup seh ich atm auch so, das sie den Spagat nicht hinbekommen haben, wobei für den Consumer Markt gehts noch, aber fürn HPC Bereich sind se Meilen am Ziel vorbei mit dem Stromverbauch und den daraus resultierenden Taktreduzierungen. Denk da lässt sich aber mit Optimierungen im Design und in der Fertigung verdammt viel machen.

Das sie für den Consumer Bereich aber allgemein zu klobig ist, würd ich nicht unbedingt sagen, da der Cache ja bisher nicht wirklich effektiv genutzt werden wird. Also ich kann mir zumindst net vorstellen, das da viel Nutzen bisher draus gezogen wird. Wenn da aber massiv drauf optimiert wird, dann kann sich verdammt viel in der Leistung tun. Fragt sich halt nur, ob die Prozesse in die Richtung optimierbar sind. Alles was mit Texturen zu tun hat fällt ja mehr oder weniger schonmal raus, weil zu groß fürn Cache.
 
Da stellt sich die Frage inwiefern sich das für Nvidia überhaupt noch lohnt, wenn sie die Karten dann noch extra beschneiden müssen, um einem problemlosen Betrieb in gewissen Einsatzgebieten gerecht zu werden.
 
Da stellt sich die Frage inwiefern sich das für Nvidia überhaupt noch lohnt, wenn sie die Karten dann noch extra beschneiden müssen, um einem problemlosen Betrieb in gewissen Einsatzgebieten gerecht zu werden.
Gute Frage, und nen Jaein von mir dazu.

Die werden die Karten trotzdem gut verkaufen im HPC Bereich, weil die Planungen mehr oder weniger wohl für einige Projekte schon durch sind :( und zum anderen, weil die Leistung/Watt halt trotzdem noch viel besser als bei ner CPU ist. Eventuell werden aber auch paar Projekte geknickt, wo die Optimierung sich dann nicht mehr lohnt.

Es gibt halt keine echte Alternative. Wie gesagt, da Ati ECC fehlt, fallen die für die Leute die im HPC-Bereich die Entscheidungen tragen schonmal raus. nVidia´s Ruf nimmt dadurch aber wohl einiges an Schaden.

Hoffe Ati bringt da noch was, dann kann sich nVidia richtig warm anziehen.:devil:
 
Jup seh ich atm auch so, das sie den Spagat nicht hinbekommen haben, wobei für den Consumer Markt gehts noch, aber fürn HPC Bereich sind se Meilen am Ziel vorbei mit dem Stromverbauch und den daraus resultierenden Taktreduzierungen. Denk da lässt sich aber mit Optimierungen im Design und in der Fertigung verdammt viel machen.

Das sie für den Consumer Bereich aber allgemein zu klobig ist, würd ich nicht unbedingt sagen, da der Cache ja bisher nicht wirklich effektiv genutzt werden wird. Also ich kann mir zumindst net vorstellen, das da viel Nutzen bisher draus gezogen wird. Wenn da aber massiv drauf optimiert wird, dann kann sich verdammt viel in der Leistung tun. Fragt sich halt nur, ob die Prozesse in die Richtung optimierbar sind. Alles was mit Texturen zu tun hat fällt ja mehr oder weniger schonmal raus, weil zu groß fürn Cache.

Wenn man den Cache effektiv nutzen möchte, muss man aber massiv auf GPGPU-Anwendungen setzen, sprich CUDA oder PhysX. Da liegt das Problem aber bei den Spieleprogrammierern, die unter Umständen gar nicht viel Wert auf diese Dinge legen. Gut es mag zwar Spiele wie Batman geben, aber das Gros der Spiele nutzt PhysX nicht wirklich aus. Aber selbst wenn man es schafft, die Spieleentwickler zu überzugen, mehr in diese Richtung zu entwickeln, ist der Cache immer noch zu groß. Der Cache ist eben für den HPC-Bereich essentiell, für den Consumer-Bereich aber eher ein Klotz am Bein. Der Spagat zwischen HPC und Consumer-Karte ist Nvidia definitiv nicht gut geglückt, da nützen auch die Korrekturen im Nachhinein nicht viel. Ich hätte von Nvidia erwartet, dass man einen seperaten HPC-Chip entwickelt und diesen gezielt optimiert. Um kosten zu sparen, hätte man diesen von der Fermi-Architektur ableiten können. Ich setze eigentlich vorraus, dass ein Konzern wie Nvidia dazu in der Lage sein sollte und über entsprechende Ressourchen verfügt, auch was die Produktionsanlagen bei TSCM angeht. Ohne den Cache wäre die Fermi-GPU viel umgänglicher für die Produktion und daher für den Consumer-Bereich besser geeignet.
Was Nvidia meiener Meinung auch noch verpennt hat, ist die Entwicklung eies echten Mid-Range-Chips. Beim G80 und dem Refresh, dem G92 gab es ja noch diverse Ableger des High-End-Chips, z.B. G84,G86, G94,..., welche dann als 8800 GTS oder 9800GT auf den Markt kamen. Hier hätte Nvidia einen Die-Shrink beim GT200 vornehmen sollen. Damit könnte man jetzt wenigstens halbwegs passable Mid-Range-Karten anbieten, die in der Lage wären mit der HD 5770 bzw. 5830 zu konkurieren. Seit dem G92b hat Nvidia hier nichts neues mehr gebracht, was Ich persönlich nicht gant nachvollziehen kann.
 
Zurück