Nvidia Fermi: Nvidia reduziert die aktive ALU-Anzahl der Tesla-Karten

warscheinlich hat nvidia die restlichen cores nur deaktiviert, weil die grafikkarte auch so stark genug ist, sämtliche ati's in grund und boden zu stampfen :lol:.

nein ernsthaft, ich bin gespannt, was sich da entwickelt, oder ob sich ein ähnliches debakel wie mit der hd 2900 anbahnt ;)...
[ich hatte später trotzdem eine, war ne klasse heizung im winter :ugly:].
 
@ tm0975

Beim G80 war auch lange Ruhe.

Erste Benches der HD5870 gab es iirc Anfang September (oder hast du Quellen, die Benches aus August oder früher zeigen?), Launch war Ende September - Anfang September waren die Samples schon längst unterwegs und da haben die Asiaten zugegriffen.

War jetzt eher allgemein gefragt. Bin der Meinung, dass 2bis 3 Wochen vor Poduktstart Benchmarks durchsickern könnten. ist aber sehr waage und ich rechne mit den karten auch nicht vor q2 2010. aber das soll ja nichts heißen. hab im web noch ein paar interessante kalkulationensdisskusionen zu fermis produktionskosten gesehen und sofern das annähernd paßt, wirds auch mit fermi erstmal keinen preiskampf geben.
 
Schau mal in das von dir verlinkte Dokument auf Seite 13, da findest du nämlich unter "Total Board Power" der lustige Satz "Targeted to be <= 225 W"

Was dieser lustige Pfeil mit dem Gleichheitszeichen bedeutet muss ich dir hoffentlich nicht erklären ;)

Zu deiner anderen Nachfrage:
HD5870: Erste Benches am 15. September - Release: 23. September (8 Tage später)
HD5770: Erste Benches am 8. Oktober - Release: 13. Oktober (5 Tage)

Aber ich glaub die Zahlen gefallen dir jetzt nicht :P

Was heißt gefallen?! Es war eine Frage und sie implizierte keine besondere Vorliebe für eine bestimmte Antwort. Meine mathekenntnisse sind spitze, leider paßt das mit der messung der leistungsaufnahme bei nvidia (und bei ati vor radeon 5000) nicht so besonders gut. wenn es dann am ende nur 225w sind, können alle sehr zufrieden sein. ob die fermi-wartenden mit der dx11-leistung auch zufrieden sind, ist eine andere sache. vielleicht erfahren wir ja im januar schon etwas mehr.
 
Ich bete still und heimlich, dass das Ironisch gemeint ist.
Wenn nicht: Bitte, warte, bis konkrete Angaben da sind.

Natürlich war das ironisch gemeint. Irgendwie find ich´s aber auch wirklich witzig, wieviel Aufmerksamkeit NVIDIA bekommt, weil über Features und Hardware gesprochen wird, die noch gar nicht in feste Form gegossen sind. Oder hat hier schon jemand ne Fermi und sagt nur nix davon???
 
Langsam glaube ich dass Larrebee von Intel schneller in der Regalen steht als eine GT(X)(S)360.:ugly:

GPU Kastration bei den spitzen super Profimodel bedeutet:
- der Chip frisst zu viel Strom und/oder ist zu heis.
- die Fertigung bekommt keine Fehlerfeie chips zu stande.

Das bedeutet fuer die Gamermodele, dass die noch mehr kastriert werden.
 
Natürlich war das ironisch gemeint. Irgendwie find ich´s aber auch wirklich witzig, wieviel Aufmerksamkeit NVIDIA bekommt, weil über Features und Hardware gesprochen wird, die noch gar nicht in feste Form gegossen sind. Oder hat hier schon jemand ne Fermi und sagt nur nix davon???
Einige Samples sind wohl schon unterwegs bei diversen Firmen. Aber eben noch kein finaler Chip. Auf den wartet nvidia noch mit der A3-Revision.
Etwas gutes wird die Verspätung aber haben. nvidia hat mehr Zeit am Treiber zu feilen und wird sich hoffentlich sowas wie ATI nicht leisten. Keine LOD-Anpassung bei RGSSAA und fehlende CF-Unterstützung bei Eyefinity. Immerhin 3 Monate nach Launch haben sie es endlich in einen Hotfix-Treiber gepackt. :ugly:
 
Na die Info von nvidia selbst passt ja wie die Faust aufs Auge....:ugly:
Die 225W werden wohl nur Wunschdenken sein. :lol:
Jaja 350W gönnt se sich, hab ich mir zufällig sagen lassen. Zählt man eins und eins zusammen, so klingt das mit den wegschnippeln der shader wirklich nach zuviel Stromfrass und erst der nächste Die shrink + Optimierungen dürften die vollen 512 nutzen.
Wer weiss, vielleicht geben se Gummi und Januar wisse ma mehr, bzw. es bewegen sich vereinzelt welche gen Markt. Zumindest, hof ich doch, gibts mal offizielle Benchmarks.:)
Die solln echt hine machen, sonst is der Fermi wirklich der neue Duke :devil:
 
Das was Nvidia über Fermi und Tesla raushauen wird immer doller :lol:
Wenn die so weitermachen hat ATI längst seine 6xxx-Reihe auf den Markt bevor von Fermi auf nur das erste Modell auftaucht.Und wie Nvidia erst kürzlich verlauten liess,ist DirectX11 ja auch "nicht so wichtig" :ugly:.
Und wenn jetzt wieder einer schnautzt "ATI-Fanboy" so juckt mich das wenig.Ich hatte bisher Karten von beiden Firmen und konnte keine grossen Mängel feststellen.Aber wenn Nividia so weitermacht,können die auf kurz oder lang gesehen einpacken.
 
Einige Samples sind wohl schon unterwegs bei diversen Firmen. Aber eben noch kein finaler Chip. Auf den wartet nvidia noch mit der A3-Revision.
Etwas gutes wird die Verspätung aber haben. nvidia hat mehr Zeit am Treiber zu feilen und wird sich hoffentlich sowas wie ATI nicht leisten. Keine LOD-Anpassung bei RGSSAA und fehlende CF-Unterstützung bei Eyefinity. Immerhin 3 Monate nach Launch haben sie es endlich in einen Hotfix-Treiber gepackt. :ugly:


So was wie dich lob ich mir :daumen: . An was für Treibern sollen sie arbeiten, wenn der Chip noch nicht mal das finale Stadium erreicht hat. Das Grundgerüst vieleicht, aber optimieren, niemals. Zu ATI. CF + Eyefinity geht seit dem 9.12 und ging schon seit der beta(kurz nach dem 9.11). Gut das du so gut informiert bist.
@TOP : hatte ich als doch richtig gelesen gestern. Das bremst die Desktop Serie der G-Force doch ein wehnig ein. Ist schon traurig, wenn Versprechungen nicht gehalten werden und die groß angekündigte Sensation, langsam aber sicher immer mehr zu einem eifachen --- was neues--- zusammen schrumpft. Nicht um sonst hat NV keine genauen Daten an die Presse gegeben. Hätten sie das getan, würden sie jetzt aber dumm da stehen. Ich befürchte das dies noch nicht die letzte schlechte Nachricht war, sollte sich das alles bestehtigen. Traurig :nene:
 
Zuletzt bearbeitet:
Ich hab da meine eigene Theorie: Letztens sind ja angeblich offizielle Benchmarks von Nvidia erschienen, da hat man gesehen, dass eine (höchstwahrscheinlich) GTX380 sogar schneller ist als eine HD5890 (ich meine jez die DUAL-GPU ka wie die jez genau heißt). Aus diesem Grund deaktivieren sie jez ein paar Kerne, um die beim nächsten Refresh der ATIs freizuschalten. So würden sie für ihre eigenen Refreshkarten, ohne großen Umwand noch etwas Luft in Sachen Leistung herauskitzeln können.
Folglich ist es für NV viel wirtschaftlicher, ohne großen Aufwand die restlichen Kerne für die Refreshkarten zu aktivieren. Es geht hier ja schließlich nur ums Geld!

Es macht ja imom keinen Sinn die gesamte Rohleistung der Fermi zu offenbaren, es sei denn man würde für so viel Leistung auch entsprechend einen hohen Preis verlangen. Dies würden sich mit Sicherheit aber nicht viele Gamer gefallen lassen 500€ oder mehr für eine Graka hinzublättern und somit sich doch noch ne ATI in den PC einzubauen.

Aus meiner Sicht würde, wenn es denn der Fall wäre, enttäuschend sein, da ich gerne eine Graka hätte, welches die Leistung meines GTX280 SLI-Gespanns erreichen kann. Aber dass sie der nächsten Graka eine wenig den Wind aus den Segeln nehmen würden, habe ich nie für unwahrscheinlich gehalten.


Wirtschaftlich totaler Unfug, einen großen Chip zu produzieren und dann ihn zu beschneiden wegen zu viel Leistung. Die Karten müsten dann auch günstiger verkauft werden, aber die Kosten für die Produktion wären immer noch hoch. Etwas weit her geholt oder Ausdruck von Hoffnung :schief:
 
Ich glaube einige Leute erwarten deutlich mehr als NV dann abliefern kann.

Mir ist das auch total strulle was für ne Grafikkarte meine Monitore befeuert, sie muß meine Ansprüche erfüllen und darf nicht mehr Geld kosten als ich habe :D

Viele hier reden dauernd über die hohe Effizienz des neuen Femi bezüglich der ALU´s und ich frage mich wie sie darauf kommen.
Diese ALU´s wurden mit dem Schwerpunkt GPU computing entwickelt und nicht speziell darauf getrimmt um eine möglichst hohe Grafikleistung zu erbringen. Es ist sehr unwahrscheinlich das NV es geschafft hat hochkomplexe ALU´s zu entwickeln die alles positive in sich vereinen. Mag sein das beim GPU Computing die Leistung um ein vielfaches steigt, was aber eventuell auch bedeuten kann das die ALU´s mit anderen Aufgaben eben nicht so gut fertig werden.

Ich kenne Leute die sprechen schon seit Monaten über den Femi.
Der schönste Spruch von denen ist

Der Femi ist ein zahnloser Tiger, das Ding auszulasten ist genau so einfach wie die Rohleistung des Cell in der PS3 zu entfalten :D

Ich hoffe ja das NV im nächsten Jahr eine GPU bringt die wenigstens ne 5870 in den Sack steckt. Das NV den Knaller bringt der die 5000er Serie arm aussehn lässt sehe ich jedenfalls noch nicht.

Ich kann allen NV Fans nur nahe legen den Tag nicht vor dem Abend zu loben und die Ansprüche an das was kommen wird etwas herunter zu schrauben.
Wird es der insgeheim erhoffte Knaller dann freut ihr euch um so mehr. Liegen die Erwartungen zu hoch und NV schafft es nicht diese zu erfüllen seit ihr nur entteuscht.
 
ich frage mich ernsthaft, was für merkwürde kristallkugeln so einige hier besitzen....

schadenfreude ist jedenfalls nicht angebracht. auch wenn ich die letzten jahre nur ATI in meinen rechner hatte und habe, wünsche ich mir doch ein gutes produkt von NVIDIA.

kaufen werde ich - wie immer - das highend produkt mit dem besten preis-leistungs-verhältnis.
ob es eine ATI oder eine NVIDIA wird ist doch sowas von egal.
 
:offtopic:
jungs könnt ihr mich mal aufklären: Hat jetzt n Bisschen was mit 40nm zu tun!
Wieso kann TSMC ohne Probleme die Juniper GPUs herstelln und die Cypress nicht(beide doch 40nm)?
Wieviel größer sind die Produktionskosten (für einen Chiphersteller) für einen leistungsfähigeren Chip dessen Die gleich groß ist wie eines schwächeren? (gibt es soetwas überhaupt?)

nVidia and ATI :daumen:
beide super Firmen!
 
So was wie dich lob ich mir :daumen: . An was für Treibern sollen sie arbeiten, wenn der Chip noch nicht mal das finale Stadium erreicht hat. Das Grundgerüst vieleicht, aber optimieren, niemals. Zu ATI. CF + Eyefinity geht seit dem 9.12 und ging schon seit der beta(kurz nach dem 9.11). Gut das du so gut informiert bist.
AnandTech
Die 5970 konnt CF Eyefinity. Der Rest des ATI-Lineups nicht bis zum 9.12 Hotfix.

http://www.pcper.com/article.php?aid=820&type=expert&pid=4
CrossFire + Eyefinity support is limited to the HD 5970 ONLY. That means that users looking to add a second HD 5800-series card are still going to be out luck for at least another driver revision or two.
 
Einige Samples sind wohl schon unterwegs bei diversen Firmen. Aber eben noch kein finaler Chip. Auf den wartet nvidia noch mit der A3-Revision.
Etwas gutes wird die Verspätung aber haben. nvidia hat mehr Zeit am Treiber zu feilen und wird sich hoffentlich sowas wie ATI nicht leisten. Keine LOD-Anpassung bei RGSSAA und fehlende CF-Unterstützung bei Eyefinity. Immerhin 3 Monate nach Launch haben sie es endlich in einen Hotfix-Treiber gepackt. :ugly:

Jaja, das alte Bananen-Ding. Na, ich bin dann mal sehr gespannt, ob NIVIDIAs Bananen wirklich reif ausgeliefert werden, oder ob sie denn auch beim Endkunden reifen :schief:
 
Wirtschaftlich totaler Unfug, einen großen Chip zu produzieren und dann ihn zu beschneiden wegen zu viel Leistung. Die Karten müsten dann auch günstiger verkauft werden, aber die Kosten für die Produktion wären immer noch hoch. Etwas weit her geholt oder Ausdruck von Hoffnung :schief:

nein, damit liegst du völlig falsch. es ist absolut wirtschaftlich sinnvoll, es so zu machen. eine b-revision würde monate dauern und die vorstellung auf mind. q3-2010 verschieben. ein weiterer vorteil mit der kastration wäre, dass teildefekte chips verkauft werden können und so die chipausbeute steigt. siehe amd x2 und x3.

:offtopic:
jungs könnt ihr mich mal aufklären: Hat jetzt n Bisschen was mit 40nm zu tun!
Wieso kann TSMC ohne Probleme die Juniper GPUs herstelln und die Cypress nicht(beide doch 40nm)?
Wieviel größer sind die Produktionskosten (für einen Chiphersteller) für einen leistungsfähigeren Chip dessen Die gleich groß ist wie eines schwächeren? (gibt es soetwas überhaupt?)

nVidia and ATI :daumen:
beide super Firmen!

die chip-größe ist der springende punkt. je größer der chip, desto höher die ausschußquote. juniper 1 mio, cypress 2 mio , fermi 3 mio transistoren...
 
Zurück