Nvidia GF100: Fermi-Geforce-Grafikkarte im Unigine-Heaven-DirectX-11-Benchmark

@john keine ahnung von welcher seite du den ausgegraben hast, aber semiaccurat kannst du immer in die tonne kloppen, wenn es um news über nvidia geht.

600Watt für Dualkarte kann garnicht sein, da die PCI-E Stromversorgung (auch mit 2 x 8Pin extra) dieses nicht hergeben kann. Somit muss sie weniger verbrauchen...

wieso charlie hat bis jezt die wahrheit gesagt im gegensatz zu nvidia:D
 
Hm... ich seh es schon, bald werden die 3600W Grenze herkömmlicher 16A Sicherungen zur Grenze und wir müssen unsere PCs mit Starkstromkabeln versorgen XD

Wenn die 600W wirklich stimmen könnte ein Quad SLI System mit übertaktetem CPU zumindestens schon an die 1,5kW Grenze kommen...

Na ja wenigstens braucht man sich dann keine Gedanken mehr über eine Heizung zu machen wobei ich mich frage ob es überhaupt möglich ist 600W bei einer Dual oder auch Tripplesloth GraKa per LuKü wegzukühlen... Föhn reloaded

Du kannst auch eine 32A Sicherung nehmen und 6mm² Leitungen zum PC legen :P Dann brauchste kein Drehstrom "G"

Ja irgendwann lässt sich die Strukturbreite nunmal nicht mehr verkleinern. Die haben nicht ohne weiteres immer wider Probleme bei neuen Produktionsreihen und irgendwann gehts eben nicht mehr. Wir alle wissen ja, daß das zumindest das Atomos zuletzt das Ende sein würde.
Man stelle sich so ne GTX280 oder gar Fermi in der Strukturbreite einer Voodoo 1 mit 350nm? vor... Reicht da ein KW?
Zudem is ja wohl klar, je Komplexer der Aufbau, je mehr Bauteile bei gleicher Grösse und Verbrauch der einzelnen Komponente, desto wärmer und Leistungs gieriger wird das Gesammte.
Und was Lukü anbelangt, denk mal es ist schon machbar aber wird auch gross und schwer. Jedenfalls definitiv grösser konzipiert, als das aktuell erhältliche Zeugs. Aber Wakü wird sicherlich auch im OEM Markt bald zum Standart werden. Man bedenke, wie doof man vor bald 10 Jahren mit ner Wakü im PC angeguckt/gelabbert wurde....
 
Zuletzt bearbeitet:
ich glaube das wir wohl noch lange nicht sehen werden, der Chip ist wohl zu teuer und die ausbeute reicht wohl nur um die Tesla-Karten zu bestücken. man sollte doch denken das Nvidia das endlich hin bekommt oder haben die angst vor einem Reinfall!? :devil: Denn AMD/ATI kommt ja auch bald wieder mit einer neuen.
 
Denn AMD/ATI kommt ja auch bald wieder mit einer neuen.

Bezweifle, dass eine HD5890 einer GTX480 das Wasser reichen kann - wenn, dann die HD6000er - und die kommen nicht "bald". So eine Karte bräuchte dann schon einen drastisch höheren GPU/Speicher-Takt und/oder evtl. mehr Shader.
So ein Refresh wird halt ausschließlich dazu dienen, Nvidia preislich besser unter Druck setzen zu können.
 
@BigBubby
600Watt könnten möglich sein oder auch 800 oder 300. Keiner weiß etwas über die mögliche Dual Karte. Es kann doch sein, das 2x480 zu viel verbrauchen und deswegen maximal 2x460 verwendet werden.
Natürlich werden es 2x460 sein, war doch bei der GTX295 auch schon so, dass es keine 285er waren.

600-800 Watt kann man kaum abführen, kühltechnisch (Wenn die Karte bezahlbar bleiben soll), allein deswegen kann sie schon nicht so viel verbrauchen.

Abwarten und wir werden sehen, wieviel sie wirklich verbraucht...
 
Bin ja mal gespannt was denn nun am 27 März passiert :-)


Da entscheidet sich dann obs ne ATI oder ne NVIDIA wird.

Wenn man die Preise in Euro umrechnet kann es ja durchaus hinkommen.

497 Euro für die GTX 480 / 365 Euro für die GTX 470

Gruß
 
Zuletzt bearbeitet:


naja, 17.Februar 2010 iss jetzt nicht wirklich so Asbach..... auch wenn du das anders siehst, aber auf jeden Fall bin ich gespannt inwieweit die Probleme existieren. Aber daß sie existieren ist nicht von der Hand zu weisen, schon alleine deshalb wenn man das beinahe ATI Waterloo mit dem 40nm Prozess bei TSCM betrachtet.......
 
Habe mich schon entschlossen noch mindestens ein halbes jahr auf DX11 zu verzichten , da mir die derzeitigen Preise für die Leistungssteigerrung nicht zusagen . Habe mir lieber erst mal ne SSD für die System Partition gegönnt und kann nur jedem der auch mit dem Gedanken spielt die 80gb Postville wärmstens empfehlen . Sollten die Preise für Fermi und co das Niveau der letzten Generation erreicht haben kann man ja nochmal in die Kasse schauen ob genug Geld da ist . Bis dahin heißts burn baby burn für meine GTX 260 65nm , 192 shaders . Da sie aber mit 1.025 volt bei 666 , 1404 , 1188 stabil läuft ist der Zustand erträglich . Glaube nicht das da noch irgendeine 5770 leistungsmässig mithält und die scheint ja auch schnell genug zu sein .

Gamiac
 
Habe mich schon entschlossen noch mindestens ein halbes jahr auf DX11 zu verzichten , da mir die derzeitigen Preise für die Leistungssteigerrung nicht zusagen . Habe mir lieber erst mal ne SSD für die System Partition gegönnt und kann nur jedem der auch mit dem Gedanken spielt die 80gb Postville wärmstens empfehlen . Sollten die Preise für Fermi und co das Niveau der letzten Generation erreicht haben kann man ja nochmal in die Kasse schauen ob genug Geld da ist . Bis dahin heißts burn baby burn für meine GTX 260 65nm , 192 shaders . Da sie aber mit 1.025 volt bei 666 , 1404 , 1188 stabil läuft ist der Zustand erträglich . Glaube nicht das da noch irgendeine 5770 leistungsmässig mithält und die scheint ja auch schnell genug zu sein .

Gamiac


...also ich lehn mich jetzt mal ganz weit aus dem Fenster und wage zu behaupten, daß du noch bis 2011 warten kannst, wenn die Fermi verbessert auf 28nm geshrinked wird.....damit alle Krankheiten ausgemerzt sind..... ähnlich wie 4870 zu 5870
 
...also ich lehn mich jetzt mal ganz weit aus dem Fenster und wage zu behaupten, daß du noch bis 2011 warten kannst, wenn die Fermi verbessert auf 28nm geshrinked wird.....damit alle Krankheiten ausgemerzt sind..... ähnlich wie 4870 zu 5870

4870 zu 5870 ist doch kein einfacher die shrink gewesen. btw. welche "schlimmen" kinderkrankheiten mussten denn bei der 4870 ausgemerzt werden?
 
4870 zu 5870 ist doch kein einfacher die shrink gewesen. btw. welche "schlimmen" kinderkrankheiten mussten denn bei der 4870 ausgemerzt werden?

im Grunde ist die 5870 eine Verdopplung der inneren Werte der 4870 gewesen(mkay, hier und da - wie HardwareTesselation, das aber schon seit der HD2900 integriert ist), inklusive Shrink, der die Leistungsaufnahme und somit Abwärme endlich massiv gesenkt hat, ebenso wie endlich zufriedenstellendes Energiemanagement. Die 4870 war schon nicht schlecht, aber erst in Form der 5870 das ultimative Produkt.
 
im Grunde ist die 5870 eine Verdopplung der inneren Werte der 4870 gewesen(mkay, hier und da - wie HardwareTesselation, das aber schon seit der HD2900 integriert ist), inklusive Shrink, der die Leistungsaufnahme und somit Abwärme endlich massiv gesenkt hat, ebenso wie endlich zufriedenstellendes Energiemanagement.

hört sich nach mehr als nur einem die shrink an ;-)

Die 4870 war schon nicht schlecht, aber erst in Form der 5870 das ultimative Produkt.

das kann man doch bei vielen generationswechseln sagen, bei vielen herstellern. ist doch normal das die next gen. das "bessere" der vorherigen gen. ist :)
 
Was für ein Schwachsinn. :lol:
Man kann sich die Sachen schön reden wie man will. Aber ich glaube nicht dass du ein Mikrotechnik Studium hast und sonst irgendwie den Chip analysieren konntest. Von den einfachen Werten her, könnte man das grob so ausdrücken aber das ganze ist weit aus komplexer. Es ist einfach eine neuerer Generation, da ist die neuste immer besser als die alte. Im Prinzip sind dann alle irgendwie unausgereifte Projekte, die erst in der nächsten Generation gut sind und dann wieder schlecht, bis zur nächsten... :ugly:
 
das kann man doch bei vielen generationswechseln sagen, bei vielen herstellern. ist doch normal das die next gen. das "bessere" der vorherigen gen. ist :)[/QUOTE]


...genau was ich sagen will, dies ist die erste Generation der Fermi... die 28nm Fermi werden erst so richtig rocken...... ich wünsch´s Nvidia nicht, aber ich befürchte so schaud´s aus :schief:
 
Was für ein Schwachsinn. :lol:
wollte ich über deinen comment auch grad sagen! :schief:

Man kann sich die Sachen schön reden wie man will. Aber ich glaube nicht dass du ein Mikrotechnik Studium hast und sonst irgendwie den Chip analysieren konntest.

hat keiner behauptet, aber sicher wirst du mir gleich sagen, das du es kannst (chipanalyse) :schief:
...aber das ganze ist weit aus komplexer.
sag bloß... wäre mir ohne dich garnicht aufgefallen. :schief:
Es ist einfach eine neuerer Generation, da ist die neuste immer besser als die alte.
hm... hd 2900... hm fx5900... die waren besser als ihre vorgänger? hm... na du wirst schon recht haben :schief:

...genau was ich sagen will, dies ist die erste Generation der Fermi... die 28nm Fermi werden erst so richtig rocken...... ich wünsch´s Nvidia nicht, aber ich befürchte so schaud´s aus :schief:

ok, dann hatte ich dich missverstanden :(
 
ok, dann hatte ich dich missverstanden :(

..oder ich mich mißverständlich ausgedrückt, kommt schon mal vor :D (...beides mein ich.... )


und danke, daß du den Vorredner so elegant zerpflückt hast, ich hatte mir das verkniffen, weil man sich jedweden Kommentar bei solch sachlich fundierten Aussagen sparen kann :ugly: ...und noch eins dazu, Mikrotechnikstudium hab ich keines, aber technisch bei weitem mehr fundiert iss mein Wissen mit Sicherheit, btw. bin ich wahrscheinlich doppelt so alt bzw. hab mindestens soviel Berufserfahrung wie er Lenze zählt :ugly: - wennst es genau wissen willst, ich bin Elektroniker, C++ Programmierer und hatte schon ein Geschäft für EDV-Hard& Softwaresupport.....und last but not least, bin ich seit den ersten C64 mit dem Thema sehr vertraut..... ein FreizeitNerd sozusagen :D
 
Zurück