• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Fermi: Nvidia reduziert die aktive ALU-Anzahl der Tesla-Karten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Nvidia Fermi: Nvidia reduziert die aktive ALU-Anzahl der Tesla-Karten gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Nvidia Fermi: Nvidia reduziert die aktive ALU-Anzahl der Tesla-Karten
 

Maestro185

Kabelverknoter(in)
jetzt wird es langsam ernst für nvidia... bin ja mal gespannt was da raus kommt




CPU: Phenom II 955@3600MHz
MB: Biostar TPower N750
RAM:Corsair 4GiB XMS2 DDR2 800MHz
GPU:HD5770@960MHz Chip/1325MHz(2650)VRam
NT:Tagan TG480-U22 480W
Windows 7 X64
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Im Grunde ist's auch egal, wie die Leistung zustande kommt. 448 ALUs mit 1,4 GHz erreichen fast dieselbe Leistung wie 512 ALUs mit 1,25 GHz. Weniger, aber dafür schnellere Einheiten sind etwas leichter auszulasten als viele langsame(re).

MfG,
Raff
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Das wird seit Jahren mithilfe eines Lasers (*schnippschnapp*) verhindert. Und sofern es wirklich an schlechten Yields liegt, sind die deaktivierten Rechenknechte sowieso im Eimer (zumindest anfangs).

MfG,
Raff
 

zeffer

PCGHX-HWbot-Member (m/w)
dann hilft nur löten XD oder hoffen das es nicht passiert
.....schade eigentlich das sie ihr ziele nicht einhalten können
 

Incredible Alk

Moderator
Teammitglied
Mal ganz im Ernst, ich würde mich totlachen wenn der Fermi nach all der Werbung und Zeit die darauf verwendet wurde und wie die Grünen sich brüsten mit ihrer Superkarte der HD5000er reihe von ATI unterlegen wäre. Es is mir zwar wurscht da ich eh keine neue Karte kaufen werde (weder rot noch grün) aber es würd mich schon freuen wenn NV mal auf die Nase fallen würde wie ATI mit der HD2000er Serie und NV seinerzeit mit dem Fön...
 

VNSR

PCGH-Community-Veteran(in)
Ich hab da meine eigene Theorie: Letztens sind ja angeblich offizielle Benchmarks von Nvidia erschienen, da hat man gesehen, dass eine (höchstwahrscheinlich) GTX380 sogar schneller ist als eine HD5890 (ich meine jez die DUAL-GPU ka wie die jez genau heißt). Aus diesem Grund deaktivieren sie jez ein paar Kerne, um die beim nächsten Refresh der ATIs freizuschalten. So würden sie für ihre eigenen Refreshkarten, ohne großen Umwand noch etwas Luft in Sachen Leistung herauskitzeln können.
Folglich ist es für NV viel wirtschaftlicher, ohne großen Aufwand die restlichen Kerne für die Refreshkarten zu aktivieren. Es geht hier ja schließlich nur ums Geld!

Es macht ja imom keinen Sinn die gesamte Rohleistung der Fermi zu offenbaren, es sei denn man würde für so viel Leistung auch entsprechend einen hohen Preis verlangen. Dies würden sich mit Sicherheit aber nicht viele Gamer gefallen lassen 500€ oder mehr für eine Graka hinzublättern und somit sich doch noch ne ATI in den PC einzubauen.

Aus meiner Sicht würde, wenn es denn der Fall wäre, enttäuschend sein, da ich gerne eine Graka hätte, welches die Leistung meines GTX280 SLI-Gespanns erreichen kann. Aber dass sie der nächsten Graka eine wenig den Wind aus den Segeln nehmen würden, habe ich nie für unwahrscheinlich gehalten.
 
Zuletzt bearbeitet:

General-W

Komplett-PC-Aufrüster(in)
Hey, das ist doch mal ne News wert ! jetzt fehlt nur noch die Meldung, das die High end grakas ein paar Monate später erscheinen werden.
Bitte bitte nicht pleite gehen NV, ich will das die atis im preis endlich mal sinken :D

Greeetz
 

Nobbis

Software-Overclocker(in)
Hey, das ist doch mal ne News wert ! jetzt fehlt nur noch die Meldung, das die High end grakas ein paar Monate später erscheinen werden.
Bitte bitte nicht pleite gehen NV, ich will das die atis im preis endlich mal sinken :D

Greeetz

absolut meine Meinung, aber ich konnte so lange nicht mehr warten .... nun hab ich bissel mehr ausgegeben, verdient haben sichs die Roten
 

M4xw0lf

Lötkolbengott/-göttin
hmm das wird noch spannend bis zur veröffentlichung. und es erinnert mich vieles an die HD2900: auf dem papier schien sie auch beeindruckend.
 

Incredible Alk

Moderator
Teammitglied
Letztens sind ja angeblich offizielle Benchmarks von Nvidia erschienen,

... die auf beinahe allen Websites als gefaked entlarvt wurden und keinerlei Rückschlüsse auf die leistung der Fermis zulassen. Abwarten und Tee trinken, wenn die Karten da sind werden Benches sehr bald folgen auf die man sich verlassen kann.
 

Hugo78

PCGH-Community-Veteran(in)
Ich hab das Gefühl, dass die Meldung ne Ente ist.
Wenn jetzt entgültige Board-Spezifikationen verfügbar wären, dann doch eher von den Geforcemodellen oder?

Mich wundert es, denn die Tesla C2050 Karten sollen doch erst im Q2 2010 und die C2070 Karten gar noch ein Quartal später erscheinen, wieso sollen da jetzt schon entgültige Board-Spezifikationen verfügbar sein, klingt komisch ...

Wenn es stimmt, wird es wohl tatsache eher an der Ausbeute liegen, denn NV sprach selber ja bei beiden Teslamodellen von 190W.

An VNSR's Vermutung könnte auch was dran sein, denn 448 Cores, jetzt mit flinken L1 und L2 Caches, sollten doch schnell genug sein, doppelt so schnell wie eine GTX285 zuwerden.
Wäre aus rein wirtschaflicher Sicht nach zuvollziehen, bis die Ausbeute besser wird. Refreshen geht ja immer ...
 
Zuletzt bearbeitet:

tm0975

Software-Overclocker(in)
Sieht wohl ganz danach aus, als seien die Chips zu groß, zu heiß und viel zu spät dran.

Hardware Upgrade Forum - View Single Post - [THREAD UFFICIALE] Aspettando le nuove Nvidia GTX

Mal sehen, was am ende als lauffähige graka übrig bleibt. 448 stream prozessoren statt 512, 1.40GHz, weniger als die 1.476GHz der G200's. Die 6GB GDDR5 varianten kommen erst in 2H 2010.

wenn man jetzt den takt anhebt und alle 512 sp's zur verfügung hat, sprengt man schon mit ner single-karte die 300w vom pci-e.

viel spass beim warten.


Ich hab das Gefühl, dass die Meldung ne Ente ist.

lies bitte die n_vidia-quelle hier:

http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
 
Zuletzt bearbeitet:

PCGH_Marc

Lötkolbengott/-göttin
tm0975 schrieb:
wenn man jetzt den takt anhebt und alle 512 sp's zur verfügung hat, sprengt man schon mit ner single-karte die 300w vom pci-e.
Woher nimmst du diese Erkenntnis? Eine HD5970 sprengt die 300 Watt auch - AMD aber lockt das Ganze und die Radeon taktet sich runter, senkt die Vcore usw.
 

Holdrio

Gesperrt
Mal ganz im Ernst, ich würde mich totlachen wenn der Fermi nach all der Werbung und Zeit die darauf verwendet wurde und wie die Grünen sich brüsten mit ihrer Superkarte der HD5000er reihe von ATI unterlegen wäre. Es is mir zwar wurscht da ich eh keine neue Karte kaufen werde (weder rot noch grün) aber es würd mich schon freuen wenn NV mal auf die Nase fallen würde wie ATI mit der HD2000er Serie und NV seinerzeit mit dem Fön...

...und das dann noch "ganz im Ernst":lol:

Ganz genau meine Meinung, denn schnellere Grakas als als die 58xx wären schliesslich für Spieler eine schlechte Nachricht und nicht schnellere eine viel bessere, also hoffen wir das alle mal und drücken die Daumen!

Auch mal ganz im Ernst, bei manchen fragt man sich wirklich, wie sie bei ihrer totalen Beschränktheit überhaupt über die eigene Nasenspitze sehen können, geschweige denn sogar noch die Tastatur erkennen können um solchen Schwachsinn von sich zu geben! :schief:
 

Hugo78

PCGH-Community-Veteran(in)

Ah danke.
Dennoch bleibt es seltsam, grade mit Blick auf das Datum der PDF.
Das Papier ist einen Monat alt (16.Nov09), aber das Produkt kommt frühestens in 3-4 Monaten, die schnellere Version sogar nochmal 3 Monate später.

So entgültige Daten, 4-5 Moante vor Release, obwohl zu dem Zeitpunkt noch nicht mal die Ausbeute klar sein konnte, ist doch sehr seltsam.
Dazu passt, das unter "DOCUMENT CHANGE HISTORY", erst ein Posten belegt ist. ;)
 

tm0975

Software-Overclocker(in)
Woher nimmst du diese Erkenntnis? Eine HD5970 sprengt die 300 Watt auch - AMD aber lockt das Ganze und die Radeon taktet sich runter, senkt die Vcore usw.

Vereinfacht gesagt: Dreisatz. Meine Nvidia-Quelle habe ich ja angegeben und das mehr an SP's kann jeder selbst ausrechnen. Mit der Frequenzerhöhung und der zu erwartenden Spannungserhöhung kann man nicht ganz so einfach kalkulieren, aber zusätzlicher Verbrauch ist vorprogrammiert. die frage, ob der chip noch ordentlich zu kühlen ist, stelle ich hier jetzt mal nicht. es würde mich nicht wundern, wenn es dieses jahr nur kastrierte chips gibt und erst in 2011 ein echter, d.h. wie eigentlich geplanter, fermie in 28nm das licht der welt erblicken wird. im prinzip dasselbe problem wie intel mit larrabee. chip bzw. herstellungsverfahren zu groß.

der geplante supercomuter auf fermi-basis soll ja acuh nciht kommen, liest man an verschiedenen stellen im web.
 

zappels

Komplett-PC-Käufer(in)
am besten finde ich ja... das wenn es die nvidia karten tatsächlich zu kaufen gibt, ist die ati schon wieder alt. 6 monate sind ne ewigkeit. da brauch mir dann keiner mehr schreiben, "siehste die sind schneller!" denn wer zuerst kommt kann nur verlieren im direkten vergleich. nvidia dachte sich aber hey... ich mach mal mehr als 256 bit speicherinterface und rocke so alles. ati ist immer noch günstiger was das produzieren der karten angeht. denke das die chips an sich kaum teurer sind als die 4870 chips damals. sie können über den preis noch richtig druck machen, während nvidia bei dem preis von anfangs 420€ oder mehr festhalten muss. denn die karten sind monster. nur brauch die im moment kein mensch. welchels spiel brauch die rohleistung... ach mal abgesehen von Cry... ! im übrigen finde ich es klasse, dass dieses game auch heute noch grafikmäßig alles schlägt. selten gab es ein spiel das so lange in aller munde war und mal ehrlich... die jungs, die kohle zum ausgeben haben für solche monster... haben nen guten job oder nen reichen daddy ;-)
die spielen nur gelegentlich... da reicht ne ati locker.
 
Zuletzt bearbeitet:

Fatal!ty Str!ke

PC-Selbstbauer(in)
Hab jetzt so ein beruhigendes Gefühl, das mir sagt, dass nVidia keine Super-Karten a'la 8800 GTX wie damals rausbringt.

Und da die Theoretische Leistung ungefähr gleichauf mit der der ATIs leigen soll, sie aber leicher auszulasten sind, stell ich mir das Resultat ähnlich vor, wie GTX200 vs HD4k. ATI etwas schwächer, dafür aber um einiges günstiger.

Passt also. Hab schließlich meine HD5850 für 214 bekommen. Wenn die neuen nVidia Karten bei 300€ und mehr anfangen, bin ich zufrieden, da sich der Kauf dann gelohnt hat.
 

PCGH_Marc

Lötkolbengott/-göttin
@ tm0975

AMD kann 300 Watt kühlen, NV auch. Wird halt voluminös und laut. Und von wegen kastriert: Wie Raff schon sagte, 448 ALUs bei 1,4 GHz sind flotter wie 512 ALUs mit 1,2 GHz und zudem besser auszulasten. Und die Teslas müssen unter 225W bleiben, eine GTX280 nicht - die kann dank 6+8-Pin Richtung 300W (und mehr, siehe HD5970 oder Asus Mars) saufen.
 

Gunny Hartman

Gesperrt
Tja Holdrio, woher willst du denn wissen, dass Nvidias Fermi schneller sein wird als die aktuellen Karten von Ati?

Ganz so abwegig klingt das ja nicht, dass Nvidia mit dem Fermi einen Griff ins Klo landet. Es wäre ja nicht das erste mal. Ja auch Nvidia kann sowas mal passieren.

Jedenfalls, bevor Ich keine Benchmarks des Fermi gesehen habe und nicht weis, wie schnell, laut und stromhungrig die Karte ist, werde Ich kein Urteil für oder gegen den Fermi erheben und daran sollten sich alle anderen auch halten.

Es gibt ja genug sogenannter Fanboys hier, die gegen oder für Nvidia bashen und die Leute erkennt man leicht genug an Ihren Posts.

Wenn Ich eine News lese, wie diese hier, dann versuche Ich mir dabei etwas zu denken, warum es denn so sein könnte. Solange man neutral bleibt, sollte es auch erlaubt sein, sich auch mal kritisch zu äußern. Nicht das wenn man z.B. sagt: "Nvidia wird wohl probleme mit der Temperatur haben", dass dann gleich welche kommen und sagen "Der Fermi ist so schnell, dass er auch mit 400 ALUs auskommt, wie kann man nur so einen Mist behaupten...".

Ich habe keine lust Posts von Leuten zu lesen, die scheinbar Ihr ganzes Leben damit verbringen, eher negative Nachrichten für Nvidia so zu drehen, dass es am Ende wieder positiv wirkt und positive Nachrichten zu feiern und damit zu protzen, als wäre es der Triumph Ihres Lebens. Genauso wenig habe Ich lust, Posts von Leuten zu lesen, die das mit Ati tun oder die jede schlechte Nachricht für Nvidia zum Bashen nutzen, genauso umgekehrt bei Leuten die Ati bashen.

Wenn Ich mal Buck*** als beispiel nehme, bei dem scheints auch so als häbe er Nvidia studiert. Genau solche Leute meine Ich.

Es gibt genug bei Nvidia und Ati zu meckern. Mir ist nur wichtig, dass das PLV stimmt und die Karte auf dem neusten Stand ist. Wenn eine Fermi 100% schneller ist als eine Radeon, dann bezahle Ich gerne mehr Geld. Wenn sie nicht wesentlich schneller ist, aber 50% mehr kostet, dann ist klar was Ich kaufe und was nicht. Nvidia kauft sich eben bei den Spieleherstellern ein. Aber diese Kritik hat nichts mit den Karten zu tun sondern mit der Konzernpolitik. Die Karte kann gut sein, aber wenn man ein Spiel so auslegt, dass es die GeForce bevorzugt, dann ist die GeForce auch etwas schneller als die Konkurenz. Wäre das nicht so, lägen beide Karten gleich auf und Nvidia könnte eventuell nicht so viel Geld pro Karte verlangen. Wenn Ati das so machen würde, würde Ich Ati dafür kritisieren.
Nvidia würde heute bestimmt keine so guten Karten herstellen, wenn sie nicht damals 3dfx gekauft hätten, da bin Ich mir absolut sicher.
 
Zuletzt bearbeitet:

PCGH_Marc

Lötkolbengott/-göttin
@ Explosiv

Weniger ist mehr? 512*1,2=614,4 und 448*1,4=627,2. Anvisiert waren 1,23 @ 512, macht 629,8 - das sind dann satte 2,6 FLOPS weniger - den internen Teiler mal außen vor. Der kann das nämlich zerhauen, die GT200 machen etwa 27er Sprünge.
 

latinoramon

PCGHX-HWbot-Member (m/w)
Jedenfalls, bevor Ich keine Benchmarks des Fermi gesehen habe und nicht weis, wie schnell, laut und stromhungrig die Karte ist, werde Ich kein Urteil für oder gegen den Fermi erheben und daran sollten sich alle anderen auch halten.
und wenn irgendwelche seiten ein paar benches liefern, glaubst du dann das auch sofort oder wie? IöI
fast jedes forum bietet welche und "fast" jeder hat ein anderes ergebnis.
so etwas ist schon oft genug passiert.
Weil jeder anders testet.
Nvidia ist wie immer und wird auch dieses mal die bessere lösung sein, da habe ich überhaupt keine bedenken.
SLI, NVIDIAS Treiber, PhysX, ist einfach das bessere packet. ;)
 

Explosiv

BIOS-Overclocker(in)
wenn du mal den dreisatz anwenden würdest, wüsstest du was er meint. 448alu bei 1.4ghz ~ 525 alus bei 1.2ghz

Ach nee, mir war schon klar wie das gemeint war :ugly:.
Das die theoretische Leistung nie mit der Praxisnahen Leistung übereinstimmt, sollte ja wohl jeden klar sein (da hilft auch kein Vorrechnen :schief:).
Mir geht es darum, wie man zu so einer Schlussfolgerung kommen kann, ohne selbst einen Fermi in der Hand gehabt zu haben.
Denn das ist, wie fast alles andere hier im Thread, pure Spekulation und Theorie (bei Fermi momentan leider ein permanenter Zustand) :devil: !

Gruß Explosiv
 
Zuletzt bearbeitet:

PCGH_Marc

Lötkolbengott/-göttin
Explosiv schrieb:
Mir geht es darum, wie man zu so einer Schlussfolgerung kommen kann, ohne selbst einen Fermi in der Hand gehabt zu haben.
Was hat der Vergleich zwei unterschiedlicher ALU-/Takt-Verhältnise von ein und der selben Architektur mit der Leistung gegenüber einer anderen Architektur zu tun? Eben, nichts.

@ Two-Face

NV-PDF von Mitte November.
 

Eckism

Volt-Modder(in)
und wenn irgendwelche seiten ein paar benches liefern, glaubst du dann das auch sofort oder wie? IöI
fast jedes forum bietet welche und "fast" jeder hat ein anderes ergebnis.
so etwas ist schon oft genug passiert.
Weil jeder anders testet.
Nvidia ist wie immer und wird auch dieses mal die bessere lösung sein, da habe ich überhaupt keine bedenken.
SLI, NVIDIAS Treiber, PhysX, ist einfach das bessere packet. ;)

Was habt ihr denn immer an ATI Treibern auszusetzen???? (Vorallem wenn man mit Niewieda verheiratet ist):huh:

Meiner Bekannten hab ich ne GeFurz verbaut und finde den Treiber auch nicht gerade berauschend!:daumen2:
 

Xylezz

PCGH-Community-Veteran(in)
und wenn irgendwelche seiten ein paar benches liefern, glaubst du dann das auch sofort oder wie? IöI
fast jedes forum bietet welche und "fast" jeder hat ein anderes ergebnis.
so etwas ist schon oft genug passiert.
Weil jeder anders testet.
Nvidia ist wie immer und wird auch dieses mal die bessere lösung sein, da habe ich überhaupt keine bedenken.
SLI, NVIDIAS Treiber, PhysX, ist einfach das bessere packet. ;)


Ohman, ich hoffe für dich das du rote Ampeln trotz deiner Grünenbrille noch erkennen kannst 0o
 

Explosiv

BIOS-Overclocker(in)
Was hat der Vergleich zwei unterschiedlicher ALU-/Takt-Verhältnise von ein und der selben Architektur mit der Leistung gegenüber einer anderen Architektur zu tun? Eben, nichts.

Naja vielen Dank, die Aussage sagt mir jetzt aber auch nicht viel.

Ich hatte deinen Beitrag nicht gelesen, da ich selbst einen in der Zeit geschrieben hatte, Entschuldigung für die Nicht-Beachtung deines Posts und deiner Rechnung :ugly:.
 
Oben Unten