Nvidia GF100: Fermi-Geforce-Grafikkarte im Unigine-Heaven-DirectX-11-Benchmark

Normale Verfügbarkeit wenn überhaupt also kaum vor Mai, im April die üblichen Mondpreise für die ersten paar Karten.
Vom Zeitpunkt her auf jeden Fall besch... egal wie gut die Karte wird, wozu ausgerechnet auf den Sommer, wo man viel mehr draussen ist und auch kaum gute Spiele kommen, eine neue Highendkarte kaufen.
Da kann man auch gleich bis September warten, teurer werden sie sicher nicht.
 
Also sind ja mal wieder ziemlich teuer, für eine Karte von der man fast rein gar nichts weiß, außer das sie im Heaven Benchmark schneller ist :lol:, naja bin mal gespannt ob sie den Preis wirklich wert sind :P
 
Ähm... geht's nur mir so, oder ist diese Nachricht totaler Bullsh!t? Warum kündigt man an, dass man in einem Monat die Grafikkarten offiziell ankündigen will? Entweder man tut was oder man hält die Gusche! Das ist doch bloß die gleiche Hinhaltetaktik wie seit Monaten, in dem Versuch die Leute davon abzuhalten ATI Karten zu kaufen.
Wenn nVidia nichts zu sagen hat, sollte sie wie alle anderen auch, einfach mal die Fre$$e halten.

Außerdem wird es von einer offiziellen Ankündigung/Vorstellung der Karte bis zur Verfügbarkeit und ersten unabhängigen Tests auch noch ne Zeit dauern. Wer mit einer Verfügbarkeit von vor Mai rechnet, sollte lieber etwas Geduld mitbringen.

PS: Ich hoffe allerdings auch, dass sie früher kommt, damit endlich mal Bewegung in den Markt kommt und meine 8800GTX XXX in den Ruhestand kann oder zur PhysX-Karte werden kann.
 
Normale Verfügbarkeit wenn überhaupt also kaum vor Mai, im April die üblichen Mondpreise für die ersten paar Karten.
Vom Zeitpunkt her auf jeden Fall besch... egal wie gut die Karte wird, wozu ausgerechnet auf den Sommer, wo man viel mehr draussen ist und auch kaum gute Spiele kommen, eine neue Highendkarte kaufen.
Da kann man auch gleich bis September warten, teurer werden sie sicher nicht.

Der kleine symphatische großmäulige CEO von den grünen hat doch versichert das von anfang an genug Stückzahlen in den regalen stehn, schließlich wird der chip doch schon seit wochen produziert. Klar, teuer wird er auf jeden Fall. Für Fanboys aber eine lohnende Investition, man wird dann sicherlich 3 Jahre keine neue Graka brauchen. Und mal ehrlich Crysis z.B kann man mit ner 5870 auf höchsten Einstellungen immer noch nicht flüssig spielen. Ich glaub auch fest daran das SLI mit Fermi endlich den Quantensprung erreicht und absolut flüssig läuft. Ist ja jetzt schon viel ausgereifter als Kotzfire.

PS: Wir sollten das Kartell zerschlagen und ein halbes Jahr überhaupt keine Highend Grakas kaufen!!!:devil:

Findet ihr es auch widerlich das msi und andere hersteller fast nur noch Kackbraune PCBs in den Markt werfen? Pfui:daumen2:
 
@ Starwave
Ok, mein Fehler war, dass ich dieses "ähnlich wie bei 4870 zu 5870" eher so auf genommen habe, "4870 zu 5870 ist doch kein einfacher die shrink gewesen". War eine lange Nacht. :D
Na ja, aufgrund der Formulierung von "Adam West", ist mir dies Missgeschick passiert.

hört sich nach mehr als nur einem die shrink an ;-)
Im groben, wollte ich nicht mehr ausdrücken als das was hier "Adam West" getan hat.

Mein Kommentar ist ziemlich schlecht angekommen, idiotie in jedem Wort, schlechter und arroganter, hätte man es nicht ausdrücken können. :schief:
Aber es hört sich eben nicht an wie, "Die neue Gen. wird erst beim nächsten mal einschlagen, aufgrund Verbesserung und Weiterentwicklung der Architektur." (nur Shrink und dann gut)
Eine Generation einfach mit Die-Shrink in Verbindung zu bringen, finde ich einfach nicht ausführlich formuliert genug und eher abwertend für diese Produktserie und dessen Hersteller.
(wie "Adam West" schrieb, es ist mehr als ein Shrink)
Ich wollte dich nicht Beleidigen oder deine mir vorher unbekannte Kompetenz in den Dreck ziehen, dass was du erreicht hast schätze ich. Das ganze beruht eher auf einem kleinen Missverständnis meiner seits.

@ Adam West
Dein Kindliches eingehen auf meinen Beitrag, lässt mich genussvoll schmunzeln. :schief: :P

hm... hd 2900... hm fx5900... die waren besser als ihre vorgänger? hm... na du wirst schon recht haben :schief:
Weil ich schrieb "jede gen."... :daumen:

die frage die ich mir letztendlich stelle ist was überhaupt alles von den "fakten" welche über fermi bekannt ist, alles stimmt. hat denn überhaupt jemand mal diese "fakten" belegen können?

Niemand, man könnte ein wenig von Bildern schlussfolgern, und Theorien aufstellen und schätzen und und und... aber du hast recht, offiziel ist nichts von Nvidia so wirklich bestätigt. :huh:
Ich hoffe wir erfahren noch diesen Monat die Yield-rate, Verbrauch, Specs, und Größe, (Länge des PCB) das würde mich sehr interessieren. Bis zum 27.03 ist echt noch lange hin. Hätte nie gedacht das die Karten so spät kommen. :wow:

@ Citynomad
Gut, kann ich mir den Text sparen, ich stimme dir vollkommen zu. :)
 
Hoffentlich kommen die Karten dann raus. Ist zwar viel zu spät aber hauptsache die kommt überhaubt. Wenn die Preise stimmen wird das nicht aus Konkurrenz zu ATI.
 
@ Update vom 23.02.: rofl, ja bestellt euch alle ne NVIDIA-Karte für 670$ vor, damit ihr dann ne böse Überraschung erleben könnt, wenns nur ne geshrinkte GTX280 mit DX11 Support und 20MHz mehr Shaderclock ist :lol::lol::lol:

Mal ernsthaft: Wer bestellt sich denn bitte ne Grafikkarte für 670$ vor, von der nur theoretische Daten und die schon immer äußerst glaubwürdigen Herstellerbenchmarks gibt???

mfg
 
Menschen, die bis aufs Blut nur Nvidia kaufen würden. Selbst wenn das Ding langsamer als eine HD5890 bzw. 70 ist, würden sie irgendwie versuchen alle vom gegen teil zu überzeugen. Das wird dann schön abgehen, der dann eine solche Karte sein eigenen nennt und diese dann auch noch viel schneller sind. :schief:

Nein, sicherlich werden die meisten auf Benchmarks warten. Alles andere wäre doch absurd. :ugly:
 
year
hört sich gut an
aber ich werde trotzdem ermal mindesten 2 monate vergehen lassen und die test abwarten und dann auch mal nach dem finanziellen sehen
ich hoffe nur das sich das warte auch wirklich gelohnt hat
bin auf jeden fall gespannt

Gruß
 
Also Ich bin da noch sehr sehr skeptisch, was den Release angeht. Vorstellen werden sie die Karte bestimmt, aber veröffentlichen glaub ich kaum.
Bis man als Kunde die erste Karte kaufen kann wird es sicher Mai. Ich glaube, dass man dann aber astronomische Preise bezahlen muss. Das Angebot mit den 679$ mag zwar nur ein Marketing-Gag sein, allerdings klingt der Preis realistisch, wenn man allein die Chipgröße und die Schwierigkeiten mit der Ausbeute bedenkt. Es wäre zudem äußerst unklug sich jetzt schon auf die GeForce festzulegen, da noch nicht einmal bekannt ist, wie schnell sie nun wirklich ist. Genauso was Stromverbrauch und Hitzeentwicklung anbelangt, sollte man erst einen Test abwarten um die Karte dann mit der Radeon vergleichen zu können. Sollte die GeForce dann etwas teurer sein als die Radeon, was aber nicht sehr wahrscheinlich ist, und gleichzeitig ca. 10-25% schneller, ist sie eine Option. Wenn sie allerdings viel teurer als die Radeon ist und gleichzeitig nicht viel schneller, sollte man zur Radeon greifen. Angesichts der Spezifikationen, dürfte es schwer sein die GeForce zu kühlen, was entweder hohe Temperaturen oder einen extrem lauten Lüfter nach sich ziehen könnte.

Man könnte das Ganze mit der Situation bei den CPUs vergleichen: AMD CPUs sind in Spielen immer sehr flott und im Verhältnis sehr sehr günstig. Dafür schwächeln sie in anderen Bereichen. Intel CPUs sind in allen Bereichen schnell, vor allem abseits von Spielen. Dafür sind sie aber sehr teuer.
Bei der GeForce und der Radeon ist es ähnlich. Die Radeon ist in Spielen schnell, dafür aber weniger fürs Computing geeignet. Dafür sind die Radeons recht günstig, was den Preis anbelang. Die GeForce ist in Spielen schnell und bietet mit CUDA zudem eine Basis fürs Computing, was Ihr in der Hinsicht einen Vorteil bringt. Allerdings bezahlt man für die GeForce viel mehr Geld.

Man muss also abwägen ob man nur Spielen möchte, oder ob einem andere Features wie Computing wichtig sind. Es ist jedoch sicher, dass die GeForce preislich nicht mit der Radeon mithalten kann. Wenn Nvidia die GeForce für 500€ rausbringt und sie 20% schneller ist als die Radeon, wird AMD den Preis derer von 400 auf 300€ senken. Wird die GeForce 5% schneller sein, wird AMD den Preis von 400 auf 375 oder 350€ senken. Nvidia hat einen großen Chip entwickelt und muss diesen entsprechend teuer verkaufen, da er sonst nur zu Verlusten führt. Daher ist Nvidia nicht sonderlich flexibel was den Preis der neuen GeForce angeht.

Ich hoffe, dass Nvidia die GeForce zu vernünftigen Preisen veröffentlichen wird. Ich erwarte einen Preis von maximal 450€ für eine GTX 480, bei 10% Leistungsvorteil gegenüber der Radeon. Sollten es 20 oder 30% sein, darf die Karte auch 500€ kosten. Mit 5% Leistungsvorteil und einem Preis von 600€ braucht Nvidia mit der neuen GeForce aber gar nicht erst ankommen. Denn da würde jeder vernünftige Mensch zur Radeon greifen.

Es ist eine Frage der Leistung und des Preises. Sollten beide Karten ein ähnliches Verhältnis haben, entscheiden Stromverbrauch, Temperatur, Lautstärke und OC-Potential.
 
Ich kauf mir, wenn das stimmt was ATI versprochen hat, einen RV990/970. ;)
Ansonsten bin ich in keinem "Lager". Mein Avatar sieht nur so aus, weil es eine Graka in Explosionsansicht ist, nett anzusehen. :)
Objektivität gehört zu meinem Job. :schief:
 
Es ist eine Frage der Leistung und des Preises. Sollten beide Karten ein ähnliches Verhältnis haben, entscheiden Stromverbrauch, Temperatur, Lautstärke und OC-Potential.

Der Absatz hätte als Post auch gereicht, um allen deine Sichtweise zu erklären. Aber generell gibt es immer mehrere Käuferschichten.
1. OEM-User, die vom Tuten und Blasen keinerlei Ahnung haben.
2. Fanboys, die immer die Karte des vergötterten Brands preferieren.
3. Eine Art Fabo, der sich aber immer die zur Zeit "schnellste" Karte kauft.
und 4. Den rationalen Käufer, welcher nach deinen Kriterien entscheidet.

Beide Lager leben von all diesen Käuferschichten.
Ich persönlich würde mir eine HD zulegen, wenn ich meine gtx losbekomme, auch wenn der Fermi schneller ist ;)
 
Ich sehs schon kommen, nV wirds bei den Preisen genau so gehen wie ATI.
Die 5850 war zum Release auch um einiges günstiger als jetzt.
Wenn die Yield-Rate wirklich so schlecht sein solte beim GF100,
und dann die Nachfrage danach steigt, wird der Markt sein übliches tun.
-> Die Preise steigen.
Viel Spass allen, die dann 600€ oder noch mehr auf die Theke blättern können (480er)
An die Dual will ich mal gar nicht denken...

nV hat ja damals mit der GF3, wenn ich mich nicht irre,
schon die Schallmauer geknackt mit 1000DM für ne High End Graka.

Und das war 2001...
 
Zuletzt bearbeitet:
Menschen, die bis aufs Blut nur Nvidia kaufen würden. Selbst wenn das Ding langsamer als eine HD5890 bzw. 70 ist, würden sie irgendwie versuchen alle vom gegen teil zu überzeugen. Das wird dann schön abgehen, der dann eine solche Karte sein eigenen nennt und diese dann auch noch viel schneller sind. :schief:

Nein, sicherlich werden die meisten auf Benchmarks warten. Alles andere wäre doch absurd. :ugly:

Es wird oft eine Variante ausgelassen, nämlich die der überzeugten SLI/CF-User (CF eher weniger^^). In meinem Fall würde es sich rein hypothetisch auch nicht lohnen zu AMD/ATI zu greifen, selbst wenn letztere leistungsmäßig den Fermis ebenbürtig wären - ganz einfach aus dem Grund, dass ich ein NForce-Board besitze. Für eine CF-Plattform müsste ich auch das Board wechseln und insgesamt würde dasselbe ein bisschen mehr Kohle benötigen.

Bei der GeForce und der Radeon ist es ähnlich. Die Radeon ist in Spielen schnell, dafür aber weniger fürs Computing geeignet. Dafür sind die Radeons recht günstig, was den Preis anbelang. Die GeForce ist in Spielen schnell und bietet mit CUDA zudem eine Basis fürs Computing, was Ihr in der Hinsicht einen Vorteil bringt. Allerdings bezahlt man für die GeForce viel mehr Geld.

Wenn Nvidia die GeForce für 500€ rausbringt und sie 20% schneller ist als die Radeon, wird AMD den Preis derer von 400 auf 300€ senken. Wird die GeForce 5% schneller sein, wird AMD den Preis von 400 auf 375 oder 350€ senken. Nvidia hat einen großen Chip entwickelt und muss diesen entsprechend teuer verkaufen, da er sonst nur zu Verlusten führt. Daher ist Nvidia nicht sonderlich flexibel was den Preis der neuen GeForce angeht. .....

Mit 5% Leistungsvorteil und einem Preis von 600€ braucht Nvidia mit der neuen GeForce aber gar nicht erst ankommen. Denn da würde jeder vernünftige Mensch zur Radeon greifen. .....

Generell verweise ich auf meine Antwort auf den zitierten KBasti. Außerdem könnte das Verhältnis natürlich auch ganz anders aussehen wenn man den Leistungsvorteil von NV gegenüber ATI nicht wie du auf 5-20% beschränkt, sondern einfach den Gerüchten und Annahmen - deine 5-20% sind ja auch nur reine Annahmen - Glauben schenkt, dass die GTX480 mit einer HD 5970 mithalten könnte. In diesem Fall würden die 500€ schon gerechtfertigt sein und gegenüber den 550€ für eine HD 5970 sogar schon günstig sein.
 
Zuletzt bearbeitet:
Es wird oft eine Variante ausgelassen, nämlich die der überzeugten SLI/CF-User (CF eher weniger^^). In meinem Fall würde es sich rein hypothetisch auch nicht lohnen zu AMD/ATI zu greifen, selbst wenn letztere leistungsmäßig den Fermis ebenbürtig wären - ganz einfach aus dem Grund, dass ich ein NForce-Board besitze. Für eine CF-Plattform müsste ich auch das Board wechseln und insgesamt würde dasselbe oder ein bisschen mehr Kohle nötig sein.

Was hält dich und dein NForce-Board davon ab, z.B. ne 5970 oder auch jede andere Singleslot-Dual-GPU-Lösung zu nutzen? Egal von welchem Hersteller? Solange CF oder SLI direkt auf dem PCB der Grafikkarte stattfindet, isses dem Chipsatz doch völlig Wurscht, oder hab ich jetzt jahrelang falsch gelegen?

BTW: Ne 5970 ist mit 500€ immer noch billiger als ne GTX480, was die Performance anbetrifft wird sich aber leider erst zeigen ob man mit ner Dual-ATI ein Performanceplus hat.

Das Argument mit CUDA und allem was dranhängt finde ich nicht schlecht, dann aber eher für Rechner mit schwachen CPUs, z.B. für HTPCs um x264/BlueRay-Decodierung direkt aufm Chipsatz durchzuführen (Bsp. AMD Sempron oder Intel Celeron auf nem Board mit 8200er Onboard GPU).

Eigentlich: Warten was die Fermis leisten werden und das vor allem durch mehrere unabhängige Tests bewiesen wurde. Vorher ist es eigentlich völlig sinnbefreit sich Gedanken zu machen ob nun ne HD5xxx oder ne GF4xx die bessere Wahl sein wird.

mfg
 
Was hält dich und dein NForce-Board davon ab, z.B. ne 5970 oder auch jede andere Singleslot-Dual-GPU-Lösung zu nutzen? Egal von welchem Hersteller? Solange CF oder SLI direkt auf dem PCB der Grafikkarte stattfindet, isses dem Chipsatz doch völlig Wurscht, oder hab ich jetzt jahrelang falsch gelegen?

mfg

Du liegst da grundlegend schon richtig. Nur gibts da für mich schon einige Dinge, die dagegen sprechen. CF skaliert nachweislich schlechter als SLI, kann mit Mikrorucklern nicht so gut umgehen wie NV und Dual-GPU-Lösungen kommen für mich wegen der Wärmeentwicklung und deren Unflexiblität in Sachen Kühlung nicht in Frage - egal ob es eine ATI- oder NV-Dual-GPU-Lösung ist. Außerdem schränkt die unflexible Kühlung auch das OC-Potenzial ein. Nebenbei erwähnt wäre ein Umstieg auf die HD 5970 aufgrund des geringen Leistungszuwachs nur Prestigegelame und nicht wirklich lohnenswert, denn ein seperates SLI-Gespann hat performance- und preistechnisch geringe Vorteile.

BTW: Ne 5970 ist mit 500€ immer noch billiger als ne GTX480, was die Performance anbetrifft wird sich aber leider erst zeigen ob man mit ner Dual-ATI ein Performanceplus hat.

Also ich habe innerhalb Deutschlands noch keine HD5970 gesehen, die unterhalb von 550€ liegt, geschweigedenn ein Exemplar, das zu diesem Preis lieferbar wäre.
 
Zuletzt bearbeitet:
Ich denke, dass die neuen GTX Karten von NVIDIA am Anfang eh noch nicht bezahlbar sein werden..:wow:..!?
Deshalb wirds bei mir wohl eine ATI sein, welche eingbaut wird..:)!

Greets Winpo8T
 
Zurück