Nvidia Fermi - Top oder Flop?

Ich finde Fermi.......

  • ....Top

    Stimmen: 97 26,4%
  • ....Flop

    Stimmen: 224 60,9%
  • ....typisch Nvidia/weiß nicht

    Stimmen: 69 18,8%

  • Anzahl der Umfrageteilnehmer
    368
da kommt nach langen warten nun so eine Karte
dann wird auch gleich gemeckert ,
der Hit scheint das zwar auch nicht zu sein ,
weil angeblich Laut und heiß wird was heute nicht mehr zeitgemäß ist,
aber das ist ja nicht die letzte Karte,
würde sagen die nächste Generation noch abwarten.
wenn die nur zu laut ist kann man da nicht einen besseren Kühler verbauen ?
 

DA schließ ich mich an.
Die Leistung ist zwar wirklich gerade unter DX 11 recht gut, bei allen anderen ist die HD 5870 aber kaum langsamer:devil::daumen:
Zudem kann ich mir die höhere Leistung in manchen Spielen nicht erklären in den DX9/10 Titeln würde ich die Leistung etwa wie Mass Effekt 2 einordnen , rein nach den technischen Daten, daher sind für mich Ergebnisse wie in Wow nicht vorstellbar.
Wie auch immer, für die starke Verspätung ist die Leistung zu schwach.
zudem leidet die Karte unter :
- Hitzeproblemen ( ich habe schon mit einer HD 4870 enorme Probleme )
- Extrem hohe Leistungaufnahme ( 175 Watt in Spielen ,220 unter Vollast sind für mich das maximum an akzeptablem Werten für eine Single GPU )
- Lautheit war mir anfangs zwar egal, nach meiner HD 4670 mit Sapphire Kühler die in games ca. 6 Sone erreicht weiß ich das 4 Sone in games das ertragbare Maximum sind.
 
Für den bekloppten Preis kaufen die doch auch nur Irre!
Würde der Preis bei der GTX 480 so bei 300-350€ liegen und der GTX 470 bei 250-300€, wäre die Sache vollkommen in Ordnung!
Vielleicht wird er das bald so ungefähr, allerdings vergisst du, dass ATi ihre Preise dementsprechend auch ordentlich nach unten korrigieren wird ;)
Wenn eine GTX470 noch 275€ kostet, wird die 5870 mindestens auch dort liegen, wenn nicht sogar bei ~250€.
 
Ich hatte aber schon die Vermutung als sich der Start der Fermi immer weiter hingezogen hat das da was nicht stimmt. Es war wohl so als ATI seine Karten auf dem Markt brachte Nvidia gemerkt hat das ihre zu langsam sind und die Karten dan so modifiriert haben das sie schneller als die von ATI simd.
Der Preis dafür ist der das wir Karten vor uns haben die schon an der Grenze arbeiten und kein Spielraum nach oben haben, also ende der Fahnenstange. ATI hat dagen noch Potential nach oben und wenn dann die 5890 auf den Markt kommt wird sie erheblich schneller sein als die 480 von Nvidia.
 
naja ihr vergesst immer wieder das sie viel mehr leistung hat, und 2. ein besseres bild bietet. den verbrauch kann man so schnell nicht mindern, aber mit anderen lüftern die hitze und lautstärke. daher ist sie für mich top. auch wenn ich auf die refresh warte, wie bei der gtx285, die ich mom hab und mir noch vollkommen ausreicht.

Viel mehr Leistung? Sag mal wie ignorant bist du eigentlich? Die ist gerade mal 20% schneller als eine HD5870 - und das erkauft sie sich mit völlig ungerechtfertigtem Stromverbrauch und extrem hoher Abwärme.

Es geht aber um die jetzige Generation und nicht um eine, die vielleicht mal kommen könnte. ;)
Es geht ja nicht mal um die jetzige Generation, sondern eigentlich nur um die GTX480 - theoretisch müsste man den Threadtitel entsprechend umbenennen.:schief:
 
Ich habe FLOP gestimmt. Ich gebe den Karten aber noch ein paar Chancen, denn Ati hat den Stromverbrauch von den Karten per Treiber gesenkt. Desweiteren liefen eine Vielzahl der Ati 5xxx auch am Anfang wie ein Sack Kartoffeln, meine 5970 lief auch erst mit dem 9.xx Treiber halbwegs rund.

Daher warte ich dann mal ab was die ersten Usertest hervorbringen, der Stromverbrauch für ne Singlekarte ist aber wirklich sehr krass. Mit Sli ein 1KW Netzteil ?? Na hallo Peng.

Gruß.
 
Warum Fermi für mich ein Flop ist?

Meiner Meinung nach hat Nvidia einfach noch nichts vom Wandel in der Gesellschaft mitbekommen, welche immer mehr und mehr auf verbrauchsarme und nachhaltige Produkte setzt. Wir leben nicht mehr in der Plastik- und Wegwerfgesellschaft der 80er und 90er, andere Industrien wie z.B. die Autoindustrie (zumindest in Europa und Asien) hat das schon länger gecheckt und setzt nicht mehr auf Leistung um jeden Preis, sondern achtet inzwischen auch sehr auf Verbrauch und CO²-Ausstoß. Die IT-Branche springt auch so langsam auf den Zug mit auf, schließlich stand ja auch die Cebit 2009 unter dem Motto "Green IT". Ati hat das auch schon seit längerem begriffen und stellt seit der HD 3xxx-Serie Karten mit eienr sehr guten Leistungeffizienz her, dies war auch vor zwei Jahren mit der Grund, warum ich mich für eine HD 3870 und gegen eine 8800 GT entschieden habe, wohl bewusst dass die 8800 GT die stärkere Karte ist, vor allem bei Aktivierung von AA. Aber Ati hatte sein Powerplay schon in das Bios seiner Karten implementiert, als man einen 2D-Modus bei Nvidia-Karten nur manuell mithilfe des Rivatuners einstellen konnte.

Nvidia selbst hat in einem Statement klargemacht, dass Gamer ohnehin keinen Wert auf die Leistungsaufnahme legen und dass der zusätzliche Stromverbrauch übers Jahr gesehen nur ein paar Euro ausmacht. Deutlicher kann man in meinen Augen nicht zeigen, dass man die Botschaft hin zu mehr Umweltbewusstsein einfach noch nicht verstanden hat. Die teils exorbitante Leistungsaufnahme von Fermi ist der beste Beweis dafür. Leistung um jeden Preis, koste es was es wolle (was sich dann nicht nur in der Leistungsaufnahme, sondern auch im Endpreis niederschlägt, von Temperaturen und Lautstärke mal abgesehen).

Mir kommt es eben nicht auf diese 5 € an, die ich dann vielleicht am Ende des Jahres gespart habe, die kann ich wesentlich effektiver anderswo einsparen. Mit geht es um die eingesparte Energie, und darum ein Signal zu geben, dass ich an ressourcenschonenden Produkten interessiert bin. Diese sollen schon ihre Leistung bringen, gar keine Frage, schließlich möchte ich ja nicht aufs Zocken verzichten, ebenso wenig wie ich auf das Autofahren verzichten möchte, nur mächte ich dies eben so effizient wie möglich machen ohne dabei Ressourcen zu vergeuden.
 
Tag,

[X] ....Flop

- Zu laut
- Zu teuer
- Zu warm
- für den Preis zu wenig Leistung (im Vergleich zu ATI)
- Stromverbrauch viel zu hoch
 
[x]....Flop
Die Leistung ist im vergleich zu dem Stromverbrauch (vielleicht ändert sich etwas bei denn nächsten Treibern). Die Leistung selber ist bei der GTX 480 richtig geil. Wenn ich mir eine Karte kaufen würde wäre es die HD5870 oder HD5890.
 
Wer spielen will der kauft siche Nvidia, wer auf die Karte gucken und mit Stromverbrauch prahlen will kauft sich Radeon. ;)

Schön gebrüllt mksu. Was ich bei der Karte an Strom verbrauche, spare ich woanders.
Jedes Gerät bei uns in der Wohnung hängt an einer Mehrfachsteckdose mit Schalter (spart Strom und die Bude kann nicht abfackeln). Im Flur hängen kleine Bewegungsleuchten die nur bei Dunkelheit angehen... Stromsparlampen überall, eh klar.

Es wäre allerdings schön, wenn die Geräte genrell weniger Strom bräuchten.
 
Zuletzt bearbeitet:
...und mit Stromverbrauch prahlen will kauft sich Radeon....


Selten SO VIEL BULLSHIT Gelesen.:klatsch: Klar nur weil man Gamer ist muss man natürlich NICHT auf den Stromverbrauch achten.:schief:

Hallo wo Lebst du?:daumen2: In Pentium IV sowie Athlon XP-Zeiten?:what: In der heutigen Zeit ist gerae bei Energie Sparen mächtig in. Cool´n Quiet, EIST, Powerplay etc. und wie se alle heißen, Stromsparmechanismen sind das wichtigste Kaufargument bei einem Modernen PC, wer will schon nen Kiste die im Idle die 200 Watt-Marke locker Knackt?

Klar kauf dir ne GTX 480,.... acht nein besser gleich 2 oder 3, somit Senkst du die Heizkosten, aber dafür Steigt der Stromverbrauch.:ugly:

Also echt erst DENKEN dann POSTEN.;)
 
Ich kann jetzt auch nicht behaupten, dass man zum Gamen unbedingt Nvidia kaufen muss. Aber lasst uns nicht wieder so ne blöde Diskussion AMD vs. Nvidia bzw. AMD vs. Intel vom Zaun brechen. Langsam reicht das mal, da eh immer die gleichen dünnen Argumente kommen (wenn überhaupt :ugly:) und es früher oder später wieder zu persönlichen Angriffen etc. kommt. Das bringt den Mods nur wieder Arbeit und es hagelt Verwarnungen (dabei scheint atm die Sonne) :lol:
 
Zurück