Nvidia Fermi - Top oder Flop?

Ich finde Fermi.......

  • ....Top

    Stimmen: 97 26,4%
  • ....Flop

    Stimmen: 224 60,9%
  • ....typisch Nvidia/weiß nicht

    Stimmen: 69 18,8%

  • Anzahl der Umfrageteilnehmer
    368
Ja wenn du BC2 spielen willst.. viel spaß (beim Warten). :devil:
Wieder mal so ein Commet der sich mir mal wieder nicht Eschließt. was bitte soll das heißen?

Ich Zocke ebenfalls Battlefiel Bad Company 2 und ich habe 0 Probleme und das mit 2 HD 3870 im Crossfire, jetze erkläre mir also mal was du mit deinen Ersten Satz wo du mich Zitiert hast gemeint hast und als Abschluss noch deinen letzten Comment.
 
Wieder mal so ein Commet der sich mir mal wieder nicht Eschließt. was bitte soll das heißen?

Ich Zocke ebenfalls Battlefiel Bad Company 2 und ich habe 0 Probleme und das mit 2 HD 3870 im Crossfire, jetze erkläre mir also mal was du mit deinen Ersten Satz wo du mich Zitiert hast gemeint hast und als Abschluss noch deinen letzten Comment.

Hab mir eine HD5850 (OC) eingebaut und hatte drei mal längere Ladezeiten als mit meiner 4 Jahre alten 8800GTX. Angeblich ein Problem mit den Treibern... Hauptsache mit dem Spiel auf der Seite werben. :schief:

Lern lesen, ich kau dir nichts vor und vorallem verdreh' meinen Post nicht wie's dir passt. Ich sagte ich spare STROM und keine HEIZUNGSKOSTEN (die im übrigen auch über einen Timer am Heizkörper geregelt werden).


Ich kann jetzt auch nicht behaupten, dass man zum Gamen unbedingt Nvidia kaufen muss. Aber lasst uns nicht wieder so ne blöde Diskussion AMD vs. Nvidia bzw. AMD vs. Intel vom Zaun brechen. Langsam reicht das mal, da eh immer die gleichen dünnen Argumente kommen (wenn überhaupt :ugly:) und es früher oder später wieder zu persönlichen Angriffen etc. kommt. Das bringt den Mods nur wieder Arbeit und es hagelt Verwarnungen (dabei scheint atm die Sonne) :lol:

Ne, atm scheint hier nichts. :(
 
Zuletzt bearbeitet:
Trotzdem ist deine Aussage, ATI sei nix für (richtige) Gamer, völlig aus den Haaren herbeigezogen - wenn ich mir damals anstelle der beiden X1950 XTX, zwei GeForce 7950 GX2 eingebaut hätte, dann könnte ich BC2 wahrscheinlich nicht mal in 800x600 in niedrigsten Details spielen.:schief:

Verstehst du was ich meine?
 
Wieso sollte Ati nichts für richtige Gamer sein?
In den High-End Auflösungen (>1920*1020) wird die gtx 480 immer schlechter im vergleich zur 5870 und ich kenne im Moment kein spiel das man mit ner 5870 auf dieser Auflösung nicht flüssig spielen kann.
Und ich weiss nicht ob mir dieser exorbitante Stromverbrauch und die extreme Lautstärke die 10 Fps mehr die ich bei crysis raushole wert sind.
 
Top oder Flop?

Sagen wir einfach mal sie ist jetzt da und das ist auch gut so.
Der Chip macht auf jedenfall einiges her.
Die Karten sind momentan zwar noch nicht so toll, aber das kann sich ändern!

Da ich mir erst ende August eine neue Karte kaufen werde, kann ich noch schön abwarten. Es wird wohl zu erwarten sein das eine GTX460 kommt, ich bin einfach mal so frei und denke mir das sie 200W verbrauch haben wird.
Erst werden wohl wieder die modelle mit der standard kühlung kommen, sobald dann aber die Boardpartner richtig los legen dürften da auch sicher schnell wieder andere und bessere Kühler drauf sein. So wird die Karte nachher doch kühler und leiser sein und an dem Strom Verbauch lässt sich sicher auch irgendwas regeln.

Von dem her sieht es gar nicht so düster aus für nv, man könnte zwar annehmen sie hängen hinterher aber noch kann kaum jemand sagen ob sich nich ATI bald wieder auf die Nase legt.
Die ATI karten sind zwar durchaus attraktiv momentan, aber nv bietet mir immer noch einige Vorteile. Als Linux Nutzer natürlich den nach wie vor besseren Treiber und auch generell finde ich die Treiber von nv einfach besser. Auserdem habe ich ein SLI board und solang Hydra noch eher eine kleine sache ist wird sich das wohl auch kaum ändern.
Physix ist nach wie vor eine schöne Sache und wie gesagt der Fermi Chip ist ein gelungenes Stück Technik.

Für mich bleibt auch weiterhin noch das warten
Ich war noch nie ein Fan davon neue Technik sofort zu kaufen, man weiß nie was noch kommt oder was passiert.
Also leute einfach mal chillen, wir werden sehen was aus dem Chip noch schönes entstehen wird^^
 
Wer spielen will der kauft siche Nvidia, wer auf die Karte gucken und mit Stromverbrauch prahlen will kauft sich Radeon. ;)

Also ich kann bei meiner HD 4870 nicht gerade mit niedrigen Stromverbrauch prahlen, dafür kann ich damit ordentlich zocken, und ich habe bestimmt mehr FPS als eine GTX 480 in FULLHD :P
 
Also, nochmal zu dieser Diskussion:
Wieso sollte Ati nichts für richtige Gamer sein?
Man erinnere sich an den Launch GTX280 und dann an den Launch der 4870x2. 40% Mehrleistung bei gleichem Preis waren für mich ein Gamer-Kaufargument :ugly:

Und nur weil ne Karte nicht mehr Strom aus der Dose zieht als ein Kühlschrank, ein attraktives PLV bietet und relativ leise kann man damit doch trotzdem ordentlich gamen :confused:
 
Warum Fermi für mich ein Flop ist?

Meiner Meinung nach hat Nvidia einfach noch nichts vom Wandel in der Gesellschaft mitbekommen, welche immer mehr und mehr auf verbrauchsarme und nachhaltige Produkte setzt. Wir leben nicht mehr in der Plastik- und Wegwerfgesellschaft der 80er und 90er, andere Industrien wie z.B. die Autoindustrie (zumindest in Europa und Asien) hat das schon länger gecheckt und setzt nicht mehr auf Leistung um jeden Preis, sondern achtet inzwischen auch sehr auf Verbrauch und CO²-Ausstoß. Die IT-Branche springt auch so langsam auf den Zug mit auf, schließlich stand ja auch die Cebit 2009 unter dem Motto "Green IT". Ati hat das auch schon seit längerem begriffen und stellt seit der HD 3xxx-Serie Karten mit eienr sehr guten Leistungeffizienz her, dies war auch vor zwei Jahren mit der Grund, warum ich mich für eine HD 3870 und gegen eine 8800 GT entschieden habe, wohl bewusst dass die 8800 GT die stärkere Karte ist, vor allem bei Aktivierung von AA. Aber Ati hatte sein Powerplay schon in das Bios seiner Karten implementiert, als man einen 2D-Modus bei Nvidia-Karten nur manuell mithilfe des Rivatuners einstellen konnte.

Nvidia selbst hat in einem Statement klargemacht, dass Gamer ohnehin keinen Wert auf die Leistungsaufnahme legen und dass der zusätzliche Stromverbrauch übers Jahr gesehen nur ein paar Euro ausmacht. Deutlicher kann man in meinen Augen nicht zeigen, dass man die Botschaft hin zu mehr Umweltbewusstsein einfach noch nicht verstanden hat. Die teils exorbitante Leistungsaufnahme von Fermi ist der beste Beweis dafür. Leistung um jeden Preis, koste es was es wolle (was sich dann nicht nur in der Leistungsaufnahme, sondern auch im Endpreis niederschlägt, von Temperaturen und Lautstärke mal abgesehen).

Mir kommt es eben nicht auf diese 5 € an, die ich dann vielleicht am Ende des Jahres gespart habe, die kann ich wesentlich effektiver anderswo einsparen. Mit geht es um die eingesparte Energie, und darum ein Signal zu geben, dass ich an ressourcenschonenden Produkten interessiert bin. Diese sollen schon ihre Leistung bringen, gar keine Frage, schließlich möchte ich ja nicht aufs Zocken verzichten, ebenso wenig wie ich auf das Autofahren verzichten möchte, nur mächte ich dies eben so effizient wie möglich machen ohne dabei Ressourcen zu vergeuden.

Endlich wurde das hier auch mal vernünftig ausgeführt. Jeder denkt nur an seine Stromkosten, aber wenige denken an die Hintergründe warum die Strommkosten so hoch sind und immer höher werden.
Ich bin beim besten Willen kein Öko, aber von MKSU aufgeführten Punkte darf man heutzutage nicht mehr vergessen, schon gar nicht eine große Firma wie nVidia.

Übrigens ist Nachhaltigkeit ein bedeutsames Wort für das 3te Jahrtausend.

Dieses Video passt dazu wunderbar.
YouTube - The earth has a bad case of humans
 
Das seh ich anders. Wie leben in einer Gesellschaft die überwiegend nach dem Motto: "Hauptsache billig" kauft. Angenommen ne GTX 480 würde 150 Euro weniger kosten würde hier kaum einer das Maul aufreissen. Auch ist ATI nicht seit der 3er Serie das "Stromsparwunderkind", zumindest von der HD 4870 und 4890 weiss ich, dass sie alles andere als stromsparend sind (Im Idle verbrauchen die das doppelte wie das Nvidia Pendant).
 
was mich ja mal brennend interessieren würde,

kann man die deaktivierten shadercluster wieder reaktivieren ?
sollen ja nur im bios deaktiviert worden sein :ugly:

dann würde sie wahrsch. tempmäßig abrauchen, aber leistungsplus ist plus ^^


flop
top

von beidem ein bisschen
aber für mich mehr top als flop
 
Hatte auch schon ein komisches Gefühl als bei den ersten Vorstellungen nur Physixs und andere Anwendungen nur keine Spiele. Den dann hätte man schon damals die Performence welche nur etwas besser ist als die ener HD 5870 gesehen.

Wenn man die Leistung einer GTX 480 möchhte sollte man sich eher eine HD 5870 mit 2GB evantuell auch nur mit 1 GB in Standarddesign (ich weiß das es mit 2GB nicht gibt) kauft und dann auf 950-1000 Mhz Chip und Speicher +400 Mhz dann wird die HD 5870 sogar schneller und wahrscheinlich leiser und mit weniger Stromhunger.
 
[x] Top
weil:
komplett neue Architektur
schnellste Singlegpukarte
man koennte hier noch ein paar Punkte anfuehren


Ich Zocke ebenfalls Battlefiel Bad Company 2 und ich habe 0 Probleme und das mit 2 HD 3870 im Crossfire, jetze erkläre mir also mal was du mit deinen Ersten Satz wo du mich Zitiert hast gemeint hast und als Abschluss noch deinen letzten Comment.

Sorry Freeak das ich dich da rausgepickt habe.
Ich kanns einfach nicht mehr lesen, egal in welchem Thread wo es um die neuen nVidia Karten geht.
Die Hauptargumente die immer und immer wieder vorgebetet werden sind Lautstaerke, Verbrauch, Hitze. Preis.

Verbrauch: jo ist ein komplett neuer Chip, der viel Leistung hat und viel verbraucht. Muss niemand in Ordnung finden, aber bitte Leute: selbst Multimonitoring, CF/SLI Gespann im Rechner haben, oft zu groß dimensioniertes Netzteil, damit das ja nie effizient arbeiten kann, vom Haushalt und Auto wollen wir hier gar nicht sprechen, und dann permanent den Verbrauch als derben Kritikpunkt anfuehren?
Ich wuerd auch mal gern wissen, wieviele ihren Rechner oft stundenlang einfach am laufen haben ohne ihn zu benutzen.
Aber ueber ~75W Mehrverbrauch (wo auch gerne ueberall sehr uebertrieben wird) sich so aufregen ist einfach laecherlich.

Preis:
Keine Ahnung wie lange ihr euch mit Computer beschaeftigt. In der Vergangenheit wars leider immer so, das die neuesten und dadurch meist schnellsten Grafikkarten unverhaeltnissmaessig teuer waren. ATI und nVidia haben sich beide nichts genommen in dieser Hinschicht.
Die wenigsten User haben sich die Dinger dann auch wirklich beim Release gekauft. Ein einziges mal war ich einer davon. 500€ fuer eine 7800GTX ausgegeben, was im Nachhinein sicher suboptimal war.
Wer sehr aktuell sein will, muss halt dafuer zahlen, gefaellt mir auch nicht, aber das permanent als Kritikpunkt anfuehren?
Zusatz: Die ATI 5970 kostet im Moment um die 600€, ist vielleicht die schnellste Grafikkarte, aber darueber verliert kaum wer ein Wort.

Hitze/Lautstaerke:
Ist wirklich nicht gut gelungen. Koennte man besser machen, hat vielleicht was mit Kosten zu tun. Weis ich nicht. Ausweichen auf einen Alternativkuehler ist vielleicht empfehlenswert, macht die Sache aber noch teuerer. Finde ich nicht gut. Obwohl man dazusagen muss: Solange die Karte mit der Standardkuehluhung funktioniert, ohne das sie kaputt geht oder restliche Hardware in Mitleidenschaft zieht, ist es in Ordnung.
Vielleicht sind hier auch mal die Kuehler/Luefterhersteller angehalten vernuenftige Referenzloesungen zu entwickeln.
ATI und nVidia koennen hier auch nur mit dem Material arbeiten welches zur Verfuegung steht.

Bleibt zu hoffen, das die Verfuegbarkeit sehr viel besser ist, als bei den Karten der letzten Monate.
Koennte sich nur positiv auf eine kundenfreundlichere Preisgestaltung fuer alle auswirken.

/edit: Mehrverbrauch laut Tabelle: http://www.pcgameshardware.de/aid,7...on-Nvidias-GF100-Generation/Grafikkarte/Test/ berichtig
 
Zuletzt bearbeitet:
Das seh ich anders. Wie leben in einer Gesellschaft die überwiegend nach dem Motto: "Hauptsache billig" kauft. Angenommen ne GTX 480 würde 150 Euro weniger kosten würde hier kaum einer das Maul aufreissen. Auch ist ATI nicht seit der 3er Serie das "Stromsparwunderkind", zumindest von der HD 4870 und 4890 weiss ich, dass sie alles andere als stromsparend sind (Im Idle verbrauchen die das doppelte wie das Nvidia Pendant).

Also findest du hohen Verbauch gut und Nachhaltigkeit ist unwichtig, da ja alle nach der Wegwerf und GeizistGeil Mentalität leben?

Das gibts du mir mit deiner Aussage zu verstehen :what:

Sorry habe jetzt einige deiner Beiträge verfolgt, du verzapfst oft ziemlichen Unsinn.
 
Verbrauch: jo ist ein komplett neuer Chip, der viel Leistung hat und viel verbraucht. Muss niemand in Ordnung finden, aber bitte Leute: selbst Multimonitoring, CF/SLI Gespann im Rechner haben, oft zu groß dimensioniertes Netzteil, damit das ja nie effizient arbeiten kann, vom Haushalt und Auto wollen wir hier gar nicht sprechen, und dann permanent den Verbrauch als derben Kritikpunkt anfuehren?
Ich wuerd auch mal gern wissen, wieviele ihren Rechner oft stundenlang einfach am laufen haben ohne ihn zu benutzen.
Aber ueber ~50W Mehrverbrauch (wo auch gerne ueberall sehr uebertrieben wird) sich so aufregen ist einfach laecherlich.
1. Der Chip könnte noch mehr leisten ,das stimmt, , würde
dann aber abrauchen ;)
2. Der Chip (der der GTX480, und er ist nicht voll
genutzt worden9 verbraucht mehr als ne 5970,
und die hat 2 GPUs !
3.Arbeitet ein zu groß dimensioniertes Netzteil
am effiziensten, da die optimale Effizienz bei ca. 50 % Last
erreicht wird, soviel nur dazu :P
4. Wegen SLI/CF Gespann:
Das ist sehr pauschal, ein CF Gespann aus 2 5870ern (nur mal als Beispiel)
ist wesentlich schneller als eine GTX480, bleibt
dabei leiser und kühler, und verbraucht
vielleicht etwas mehr Strom ;)
5. Ist das was du hier abziehst wenn man es genau
nimmt nur gegen User mit einer anderen Meinung flamen.

mfg Infin1ty
 
fuddles

Also findest du hohen Verbauch gut und Nachhaltigkeit ist unwichtig, da ja alle nach der Wegwerf und GeizistGeil Mentalität leben?

Was ich gut finde oder nicht steht doch gar nicht zur Debatte. Bei 350 Euro für ne GTX 480 würden ihre Nachteile gar nicht mehr als so schlimm wahrgenommen werden, denke ich. Sie hätte zwar den höheren Stromverbrauch, die höhere Wärmeentwicklung und die höhere Lautstärke, würde aber günstiger sein als ne HD 5870 und würde signifikant mehr Leistung bringen. Mit dem Preis kann man vieles wettmachen, mehr wollte ich damit nicht sagen.

Sorry habe jetzt einige deiner Beiträge verfolgt, du verzapfst oft ziemlichen Unsinn.

Falls du damit auf die Mikroruckler-Streiterei anspielst: Ich hab kein Bock auf jeden Blödsinn einzugehen. Was ich hier zum Thema Mikroruckler gesagt hab sind Tatsachen (selbst erlebt, mehrfach nachgewiesen, in dutzende Threads geklärt). Auf ne Bestätigung von irgendwelchen närrischen Multi-GPU-Lösungs-Verfechtern bin ich wirklich nicht angewiesen.

Mit Leuten die keine Mikroruckler wahrnehmen über Mikroruckler zu streiten ist wahrscheinlich ähnlich sinnlos wie mit Farbenblinden über Farben zu streiten.
 
1. Der Chip könnte noch mehr leisten ,das stimmt, , würde
dann aber abrauchen ;)
2. Der Chip (der der GTX480, und er ist nicht voll
genutzt worden9 verbraucht mehr als ne 5970,
und die hat 2 GPUs !
3.Arbeitet ein zu groß dimensioniertes Netzteil
am effiziensten, da die optimale Effizienz bei ca. 50 % Last
erreicht wird, soviel nur dazu :P
4. Wegen SLI/CF Gespann:
Das ist sehr pauschal, ein CF Gespann aus 2 5870ern (nur mal als Beispiel)
ist wesentlich schneller als eine GTX480, bleibt
dabei leiser und kühler, und verbraucht
vielleicht etwas mehr Strom ;)
5. Ist das was du hier abziehst wenn man es genau
nimmt nur gegen User mit einer anderen Meinung flamen.

mfg Infin1ty

3. Ist mal ne Behauptung von dir. Kannst du das irgendwie belegen?

4. Also bei SLI/CF Gespann ist hoher Stromverbrauch vollkommen in Ordnung?
Wo willst du die Grenze ziehen?
Du erkaufst bei SLI/CF Schnelligkeit genauso mit hohem Verbrauch, nur bei der GTX480 wird das lautstark kritisiert. Wenn man soetwas auf der einen Seite billigt, kommt es bisserl unglaubwuerdig vor, es auf der anderen Seite zu kritisieren. Ergo bei ner GTX480 ist ein Mehrverbrauch von ca 73W sehr sehr schlecht, aber nen 5870er CF Gespann darf 376W brauchen (126W mehr als ne GTX480) und das ist wegen Mehrleistung in Ordnung?

5. Ich flame nicht Leute mit anderer Meinung, ich flame, wenn ueberhaupt, Leute die irgendwas nachplappern, ohne groß nachzudenken und das immer und immer wieder. Ich flame, wenn ueberhaupt, auch Leute die wie du argumentieren, das etwas auf einer Seite i.O. ist (weil man es wahrscheinlich selbst macht oder hat) aber wenn es woanders ist, schlecht ist.

Denk mal drueber nach.
 
Zuletzt bearbeitet:
3. Ist mal ne Behauptung von dir. Kannst du das irgendwie belegen?
Das ist keine Behauptung, sonder eine Tatsache...
Sorry, aber wenn man keine Ahnung hat ;)

Hier mal als Beispiel:


4. Also bei SLI/CF Gespann ist hoher Stromverbrauch vollkommen in Ordnung?
Wo willst du die Grenze ziehen?

Wenn die Leistung stimmt ;) I

Bei der GTX480 stimmt Verbrauch/Leistung kein bisschen.
 
Zuletzt bearbeitet:
Das ist keine Behauptung, sonder eine Tatsache...
Sorry, aber wenn man keine Ahnung hat ;)
4. Also bei SLI/CF Gespann ist hoher Stromverbrauch vollkommen in Ordnung?
Wo willst du die Grenze ziehen?[7QUOTE]

Wenn die Leistung stimmt ;) I

Bei der GTX480 stimmt Verbrauch/Leistung kein bisschen.
wieder etwas schlauer, aber das gleich mit nem Flame verbinden?

der Rest ist auch sehr sehr subjektiv
 
Zurück