Nvidia GF100: Fermi-Geforce-Grafikkarte im Unigine-Heaven-DirectX-11-Benchmark

Schließe mich hier der mehrheit an.

Warum verbaut nVidia 3 GPU's wenn Sie sowieso nur einen, ich sag mal, geringeren beeindruckenden Benchmark laufen lassen?

Das die Karte SLI fähig ist, ist glaube das einzige, was bislang sicher war...

Des weiteren lässt der abermals nach hinten verschobene Release termin auf anscheinend erhebliche Probleme blicken. Und selbst wenn Sie, sollte Sie mal rauskommen, mehr Performance auf die Beine bringt, ist das kein Wunder. Immerhin ist die Karte bis dahin signifikant jünger...

Finde es halt schade das es bislang immernoch keine Handfesten Daten gibt. Bräuchte demnächst mal ne neue GPU und wüsste gern ob sich das warten derart lohnt.

@Fanboys_Go_Home!,
Liest Du dir auch durch was Du schreibst? :rolleyes:
 
Das PC-Games-Video ist wenigstens von wesentlich besserer Qualität. Auch die Nachfrage, wieviele Karten genutzt werden war sehr gut! Was mich allerdings wirklich wundert, ist warum Nvidia keinen Leistungstest gezeigt hat. Der einzige gute Weg, die noch wartenden Kunden bei der Stange zu halten, ist ihnen zu zeigen, dass die Karte das warten wert ist. Wirklich seltsam... :huh:
 
Warum sollte es das nicht? Der GT200 war auch deutlich größer als der RV770 und trotzdem hatte er nur 50% des Idle-Verbrauches.


nana du vergisst hier das der GF100 ein neuer architektur ist angeblich :schief::ka:

und wenn dann ist die frage wie gut wird er mit den GDDR5 klar kommen :schief:;)

es sind einige neue features für NV was auch dene sehr schwer macht mit den stromverbrauch+hitze und treiber ;)

deshalb kannst du das alte architektur nicht mit den neuen vergleichen :klatsch::ugly::stupid::daumen2:
 
Zuletzt bearbeitet von einem Moderator:
Genau das ist der springende Punkt. Die Aussage: "Einen niedrigen Idle-Verbrauch schaffen die sowieso nicht, weil der Chip so groß ist (oder aus welchem Grund auch immer)" ist genau so unsinnige Spekulation, wie: "Weil die letzte Generation im idle wenig verbraucht hat, wird es die neue auch tun."
 
@da brew: "Einen niedrigen Idle-Verbrauch schaffen die sowieso nicht, weil der Chip so groß ist (oder aus welchem Grund auch immer)"



vll wird auch NV den selben problem haben in 2D betrieb mit den GDDR5 was AMD/ATI auch zu kämpfen hatte mit RV770/90 :schief:;)
 
Zuletzt bearbeitet von einem Moderator:
was ist mit :huh: ?


hast du mich nicht verstanden oder kein plan von der technik ? :ugly::stupid:


ich hoffe dir ist klar das das nur ne vermutung ist was ich damit meinen will mit den GDDR5 oder wieso stellst du dich so dumm da mit dein :huh: ?
 
Genau das ist der springende Punkt. Die Aussage: "Einen niedrigen Idle-Verbrauch schaffen die sowieso nicht, weil der Chip so groß ist (oder aus welchem Grund auch immer)" ist genau so unsinnige Spekulation, wie: "Weil die letzte Generation im idle wenig verbraucht hat, wird es die neue auch tun."
Der Ursprung war aber jemand, der meinte wie supertoll XY ist, nur weil sie aktuell einen niedrigen Verbrauch haben - was die 2 Jahre vorher ganz, ganz anders aussah. Zu dem Zeitpunkt hat derjenige natürlich erzählt, wie unwichtig doch der Idleverbrauch ist, er will doch zocken :P
 
Ich hab da Andere Informationen.

Wikipedia kommt da nicht so ganz mit anscheinend.

Welche Vorteile bringt Steam denn für mich, die ich bei Cuda Hardware nicht hab? XCoder? Lustig...

Zu Punkt 1:
in dem Heise-Artikel steht im Endeffekt nix anderes als bei Wikipedia.
2006 Abkomen über Zusamenarbeit, 2007 Kauf von Havok durch Intel.
2008 neues Kooperationsabkomen
Aber du hattest ja behauptet die Radeons hätten kein Havok...

Zu Punkt 2:
Vorteil hin oder her... nV hat Cuda, ATI hat Stream.
beide haben also GPCPU-Systeme.

----

Ich hoffe mal im Sinne der Kunden bevorzugen die Software-Entwickler in Zukunft DX11-CompuShader
und offene Standards die von allen verwendet werden können.
Mir geht diese ganze proprietäre Schei**e auf den Sack.
Früher wars D3D gegen OpenGL/Glide, dann kam MMX gegen 3dNow,
dann auch noch IA64 gegen AMD64, und jetzt dieses Physik/GPCPU Gewürge.
Wie damals bei den Videorecordern und den DVD-R bzw DVD+R bzw BluRay/HD-DVD.
Jeder kocht sein eigenes Süppchen.Der Leidtragende ist der Kunde.
Man entscheidet sich für ein System und ist dann zu 50% der Angeschmierte.

Und dieses BLAU/ROT/GRÜN Geflame reicht mir sowieso schon lange.
Als wären wir hier im ComputerBild Forum für Kindergärten.......
:wall:

So, das musste ich jetzt einfach mal loswerden.
 
Zuletzt bearbeitet:
Kein Havok? Dann lies mal HIER
ATI Karten unterstützen das seit der X1000-Serie. (Bei nV ab GF6).

Nur um mal darauf zurückzukommen, dies war als Antwort auf Ageias PhysX gedacht, Nvidia hatte zum selben Zeitpunkt ebenfalls eine alternative Methode angekündigt, nur nicht vorgestellt - die haben halt zwei Jahre später Ageia einfach aufgekauft.
 
Ageia war aber früher mal offen und mit eigener Hardware, hatte das damals auch unter meiner X1650pro installiert. Jetzt ist es nur noch eine reine nV-Geschichte.

Lustig find ich auch, dass ich auf meinem zweit-PC mit einer GF6600GT auch für manche Games (zB Risen) extra die PhysX-Software installieren muss obwohl es ja nicht unterstützt wird von der Karte. Sonst läuft das Game nicht. Der Grafik-Treiber spielt es ja nicht automatisch mit ein.

So, jetzt reichts aber dann mt OT.....
 
Der Ursprung war aber jemand, der meinte wie supertoll XY ist, nur weil sie aktuell einen niedrigen Verbrauch haben - was die 2 Jahre vorher ganz, ganz anders aussah. Zu dem Zeitpunkt hat derjenige natürlich erzählt, wie unwichtig doch der Idleverbrauch ist, er will doch zocken :P

in 2 jahren daft man sich doch weiterentwickeln, haben ja die strompreise auch getan...
 
was ist mit :huh: ?


hast du mich nicht verstanden oder kein plan von der technik ? :ugly::stupid:


ich hoffe dir ist klar das das nur ne vermutung ist was ich damit meinen will mit den GDDR5 oder wieso stellst du dich so dumm da mit dein :huh: ?

Ich stelle mich nicht dumm, sondern ich frage mich, was du mit dem Kommentar aussagen willst. Ich hab gesagt: das ist alles unnötige Spekulation; und du wirfst noch ne unnötige Spekulation hinterher. Wo ist da der Sinn :huh:


dann auch noch IA64 gegen AMD64,

Soweit ich weiß war/ist IA64 eine reine (64bit-)Server-Architektur und AMD64 eine (64bit-)Erweiterung für x86-Prozessoren, sodass da wenig Konkurrenz aufkommen dürfte. Und OpenGL ist keine proprietäre Schnittstelle, sondern Open Source, meine ich. Aber was die Kindergarten-Geschichte angeht, kann ich dir nur zustimmen.


Ageia war aber früher mal offen und mit eigener Hardware, hatte das damals auch unter meiner X1650pro installiert. Jetzt ist es nur noch eine reine nV-Geschichte.

Das war auch damals nicht offen, nur gehörten die Rechte nicht nVidia sondern Ageia.


Lustig find ich auch, dass ich auf meinem zweit-PC mit einer GF6600GT auch für manche Games (zB Risen) extra die PhysX-Software installieren muss obwohl es ja nicht unterstützt wird von der Karte. Sonst läuft das Game nicht. Der Grafik-Treiber spielt es ja nicht automatisch mit ein.

Ich nehme an, weil da immer Physix zum Einsatz kommt, nur einmal die abgespeckte CPU-Variante und einmal die GPU-beschleunigte.


So, jetzt reichts aber dann mt OT.....

Denk ich auch...
 
Zuletzt bearbeitet:
Hier nochmal ein interessanter Bericht von Fudzilla, der einige der größten Befürchtungen und Spekulation bezüglich der Fermikarten darlegt.
"The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better."

Ich denke zwar das dies noch keine Bestätigung von Spekulationen ist jedoch verdichten sich die Annahmen immer mehr. Zusammfassung:
- schlechte Yieldraten
- hohe Temperaturen
- und nur leicht bessere Performance zum Cypress von ATI
- zwingt Nvidia zum Preis drücken---> schlechte Marge
- führt zu einer schlechten Verfügbarkeit, da die verf. Chips für Tesla Karten etc. verwendet werden, auf Grund besserer Margen.---> Preise steigen---> schlechterer Absatz

Objektiv gesehen sind das absolute Bad News für Nvidia.

MfG
 
Zurück