Erste Performance-Werte zur Geforce GTX 460

ihr mit eurem stromverbrauch... Wenn ich danach gehen würd, dürfte ich net auf nem 47" FullHD diesen Text schreiben, welcher auf 100% Helligkeit eingestellt ist und 430W verbraucht...

btt...... bin mal gespannt, ob und wie diese Karte sich gegen die 5850 schlägt, besonders ind DX11.. Vielleicht ist sie ja doch garnciht sooo schlecht ;) Aber ich bleib auch erstmal noch für nen Jahr bei meiner GTX285...

Gruß Bamboo
 
Eine kWh kostet rund 15 Cent, bei 20W Differenz musst du also den Rechner 300 Stunden laufen lassen um auch nur einen einzigen Euro zu sparen, für nen glatten 10er also 3000 Stunden.:D Sind geschmeidige 125 Tage ohne Unterbrechung...
Klar rechnet sich das am Ende, am Ende aller Tage. Wenn die 4 Apokalyptischen Reiter am Horizont auftauchen und der Rechner bis dahin ununterbrochen an ist, dann holen die den zuerst der so ne Karte hat.:lol:
wieder einer bei dem mama den strom bezahlt.
zeig mir mal einen anbieter, bei dem man seinen strom noch für 15cent bekommt. 20-eher 25cent sind mittlerweile normal.

der zweite denkfehler liegt beim verbrauch. ab und an werden die grafikkarten ja auch mal gefordert. und dann geht es nicht mehr um 20watt sondern eher um 100watt.

aber wenn ich auch ehrlich bin, schau ich da auch nicht unbedingt so drauf. zur not kann man noch ne alte 60watt glühbirne gegen ne 11watt energiesparlampe austauschen und das ganze relativiert sich wieder.
wenn man noch glühlampen hat natürlich;)

P.S. 300h ist nicht besonders viel. habe allein 100h BFBC2 seit erscheinen hinter mir. 100h unter vollast in 2 monaten(das jahr hat aber 12)!
 
ihr mit eurem stromverbrauch... Wenn ich danach gehen würd, dürfte ich net auf nem 47" FullHD diesen Text schreiben, welcher auf 100% Helligkeit eingestellt ist und 430W verbraucht...

btt...... bin mal gespannt, ob und wie diese Karte sich gegen die 5850 schlägt, besonders ind DX11.. Vielleicht ist sie ja doch garnciht sooo schlecht ;) Aber ich bleib auch erstmal noch für nen Jahr bei meiner GTX285...

Gruß Bamboo


Gebe dir vollkommen recht. Das ist bescheuert, auf einem 47er seine Internet posts zu schreiben. Aber genau diese Mentalität ist es, was den Energieverbrauch zu hoch schraubt und es immer teurer macht. Es gibt zu wehnig Menschen, die weiter denken und zu viele von deiner Sorte, die sich um die Zukunft keine Sorgen machen.
Siehe auch den anderen Poster, der das Problem auf 20Watt mehr reduziert (eh falsch, da man eine Karte der Klasse nicht nur im Idel betreibt). Wenn ich davon ausgehe, das Milionen Menschen eine solche Karte haben, summiert sich da ganz schön was zu sammen. Ihr solltet mal über den Tellerrand sehen und nicht nur euren eigenen schwa..... im Auge haben.
@Top: die neue wird sich unter der 5850 einsortieren. Wie überraschend :schief:
 
Vorallem frage ich mich, welcher 47-Zöller 430W verbraucht? Mein Vater hat einen 46-Zoll-Fernseher mit FullHD, der zieht maximal 160W und in der Regel nur ~130W! Oder verstehen swich die 430W inklusive Rechner?
 
Vorallem frage ich mich, welcher 47-Zöller 430W verbraucht? Mein Vater hat einen 46-Zoll-Fernseher mit FullHD, der zieht maximal 160W und in der Regel nur ~130W! Oder verstehen swich die 430W inklusive Rechner?

nennt sich plasma fernseher;) ein freund von mir hat einen 50zoll full hd.
der genehmigt sich auch nur 510w:ugly:
 
auf der erde, du dagegen irgendwo hinter dem mond ;).
heise online - Grafikchipmarkt leicht rückläufig
soviel zum thema, dass nvidia weiterhin kräftig marktanteile verliert.

Man kann sich Statistiken auch schön reden!

Bei deinem Link sind alle Chips enthalten, d.h. auch 2 mal umgelabelte Low-End und Laptopkarten, ausserdem ist auch noch INTEL Marktführer!

Das interessiert hier aber keinen, es geht um ein ganz bestimmtes Marktsegment über was wir hier reden und zwar über die neuen DX11 Desktopkarten, die für Spiele gedacht sind...und da wird nvidia Marktanteile weiterhin verlieren! Und dein Marktführer INTEL ist hier nichtmal vertreten...

Also das nächste mal bitte sinnvolle Quellen verlinken, die auch was mit dem Thema zu tun haben.
 
Diese Karte ist doch überhaupt nicht zum Spielen geeignet, schon gar nicht unter DX11.

Wer legt denn 300€ hin, nur um dann immer noch niedrige FPS zu haben?
 
Man kann sich Statistiken auch schön reden!

Bei deinem Link sind alle Chips enthalten, d.h. auch 2 mal umgelabelte Low-End und Laptopkarten, ausserdem ist auch noch INTEL Marktführer!

Das interessiert hier aber keinen, es geht um ein ganz bestimmtes Marktsegment über was wir hier reden und zwar über die neuen DX11 Desktopkarten, die für Spiele gedacht sind...und da wird nvidia Marktanteile weiterhin verlieren! Und dein Marktführer INTEL ist hier nichtmal vertreten...

Also das nächste mal bitte sinnvolle Quellen verlinken, die auch was mit dem Thema zu tun haben.
Genauso ist es, AMD legt gegen über NVIDIA 96% zu, wohingegen NVIDIA nur 41% zulegt und genau in dem Segment verschieben sich die Marktaufteilungen.

MfG
 
also is das dingen dann super langsam ohne cache oder wie?? Hört sich ein bissl danach an...

Der Cache hat anscheinend keinen Einfluss auf die Spieleleistung und wird nur für Profianwendungen benötigt.

Aber es wurde ja schon mehrmals gesagt: Das Package stimmt einfach nicht. ATi macht mit den HD5k Karten im Vergleich zu den GTX4ern beinahe alles besser.
 
Man kann sich Statistiken auch schön reden!

Bei deinem Link sind alle Chips enthalten, d.h. auch 2 mal umgelabelte Low-End und Laptopkarten, ausserdem ist auch noch INTEL Marktführer!

Das interessiert hier aber keinen, es geht um ein ganz bestimmtes Marktsegment über was wir hier reden und zwar über die neuen DX11 Desktopkarten, die für Spiele gedacht sind...und da wird nvidia Marktanteile weiterhin verlieren! Und dein Marktführer INTEL ist hier nichtmal vertreten...

Also das nächste mal bitte sinnvolle Quellen verlinken, die auch was mit dem Thema zu tun haben.

tja in den marktanteilen zählt nunmal alles rein, da hilft auch dein beschränken nichts. von daher ist die quelle wesentlich sinnvoller wie dien posting.
 
tja in den marktanteilen zählt nunmal alles rein, da hilft auch dein beschränken nichts. von daher ist die quelle wesentlich sinnvoller wie dien posting.
:daumen2:
Wenn du nicht verstehst, was andere darstellen und ausdrücken, dann frage doch einfach nach und werde nicht unsachlich.

MfG
 
:daumen2:
Wenn du nicht verstehst, was andere darstellen und ausdrücken, dann frage doch einfach nach und werde nicht unsachlich.

MfG

beschwer dich woanders, wenn du nicht verstehst was ich schreibe. fakt ist, nvidia hat seinen marktanteil gesteigert und nicht verringert, wie jemand hier behauptet hat. da hilft auch alles mies reden von dir und spawn nicht.
 
Die Frage ist doch bloß, was bringt NVidia mehr. Viele Notebook-Grafikchips mit einer Gewinnmarge von ein paar Cent oder ein paar weniger verkaufte Midrange und High-End Grakas mit teilweise großen Margen?

Ganz zu schweigen von den Profikarten für 1000€. Von denen werden nicht sooo viele verkauft, und trotzdem sind sie Nvidias wichtigstes Standbein. Daher auch die Fermiarchitektur, die besonders gut für solche Aufgaben geeignet ist.

Die Spiele sind nicht Fermis Hauptaufgabe, nur ein zweiter Markt, der auch abgedeckt wird, mehr nicht.
 
beschwer dich woanders, wenn du nicht verstehst was ich schreibe. fakt ist, nvidia hat seinen marktanteil gesteigert und nicht verringert, wie jemand hier behauptet hat. da hilft auch alles mies reden von dir und spawn nicht.
Lern lesen, die Rede war von Marktsegmenten, für Dich nochmal fett markiert. :cool:

Und wie gesagt, bleib einfach mal sachlich, wir wollen uns hier alle nur vernünftig unterhalten/debattieren. Wenn du sinnfrei stänkern willst empfehle ich Dir das spiegel.de Forum, da hängen mehr als genug von dem Schlag herum. ;)

MfG
 
Lern lesen, die Rede war von Marktsegmenten, für Dich nochmal fett markiert. :cool:

Und wie gesagt, bleib einfach mal sachlich, wir wollen uns hier alle nur vernünftig unterhalten/debattieren. Wenn du sinnfrei stänkern willst empfehle ich Dir das spiegel.de Forum, da hängen mehr als genug von dem Schlag herum. ;)

MfG

arbeite an deinen textverständniss, es ging um marktanteile und da hat nvidia zugelegt. quelle dazu existiert und ist verlinkt, wie wärs wenn du die erstmal liest?
 
arbeite an deinen textverständniss, es ging um marktanteile und da hat nvidia zugelegt. quelle dazu existiert und ist verlinkt, wie wärs wenn du die erstmal liest?
Zitat von Spawn1702:"...es geht um ein ganz bestimmtes Marktsegment..."

Und genau darauf hatte ich geantwortet und auf nichts anderes und aus dem Link geht nun einmal hervor das in dem Segment über das wir beide geredet/geschrieben hatten, AMD 96% und NVIDIA nur 41% zugelegt hatten, nicht mehr und nicht weniger. Wie gesagt, lies dir den Postkontext richtig durch, bevor du anfängst zu sticheln.:schief:

MfG
 
Zitat von Spawn1702:"...es geht um ein ganz bestimmtes Marktsegment..."

Und genau darauf hatte ich geantwortet und auf nichts anderes und aus dem Link geht nun einmal hervor das in dem Segment über das wir beide geredet/geschrieben hatten, AMD 96% und NVIDIA nur 41% zugelegt hatten, nicht mehr und nicht weniger. Wie gesagt, lies dir den Postkontext richtig durch, bevor du anfängst zu sticheln.:schief:

MfG

ist doch nicht mein problem wenn ihr von thema marktanteile auf einmal auf marktsegmente umschwenkt. soviel zum thema im kontext bleiben, das gerade du das einforderst, ist ein schlechter witz.
übrigens sind deine angegeben zahlen keine direkten oder irgendwelche segment anteile , sondern beziehen sich auf die reinen chipzahlverkäufe des gleichen vorjahresquartals, also quartal 01/09.
 
Ey mal ganz ehrlich, hatte hier im Forum noch nie einer Physikunterricht oder geschweige denn logisches Denken???

Watt gibt die Leistung eines Verbrauchers an. Ich hab allerdings noch nie einen gesehen, der seine Stromrechnung mit KiloWatt bezahlt. Das Ding heißt kWh, also kilowattSTUNDEN. Gehen wir mal die Rechung logisch und richtig durch:

Mehrleistung der Grafikkarte: 30-50 W
macht bei einer Sekunde einen "Energieverbrauch" von 30-50 Wattsekunden aus. ([W]=V*A*s= W*s)
Jetzt brauchen wir aber natürlich kwh und nicht ws:
108 KWs-180 KWs --> 0,03- 0,05 KWH
Also verbrauchen wir pro Stunde schonmal maximal 0,05 kWh mehr Strom

Gehen wir von einer durchschnittlichen Betriebszeit von 4 Stunden pro Tag aus:
0,12 KWh-0,2 KWh
Durchschnittlich 360 Tage im Jahr:
43,2 KWh - 72 KWh

Heutige Netzteile haben einen durchschnittlichen Wirkungsgrad von 90%:
48KWh - 80 KWh

Bei aktuellen Strompreisen von 18,30 cent/kwh macht das:
8,64 € - 14,64 €

Großartig viel ist das nicht unbedingt :D:D aber es geht ja nicht immer nur um Kosten sondern um den klimaschutz :D ^^

Kosten pro Jahr bei einer 300 Watt Graka: (Schnellrechnung)
(20 cent/kwh 4h/d 365d)
= 97,3 €


Übrigens wieso sollten sich Kunden verarscht fühlen wenn sie eine GTX 460 kaufen, nur weil diese einen "halben" Chip haben.
Der Kunde zahlt schließlich auch nur für die angegebene Zahl an funktionierenden Recheneinheiten. Und es ist jawohl besser, dass Nvidia dieses halbdefekten/ komplett defekten Recheneinheiten deaktiviert, anstatt sie in den High-End Modellen zu verbauen, dass sich der Kunde dann später ärgert, dass nicht alle Recheneinheiten korrekt funktionieren.
Eine andere Alternative wäre dann natürlich auch, dass Nvidia diese Chips wegschmeißt. Das würde aber dazu führen, dass die effektive Chipausbeute (dh Chips die verwendet werden können, egal ob komplett funktionstüchtig oder eingeschränkt funktiontüchtig) sehr gering ausfallen würde. Die Kosten für den Endkunden würden stiegen und eine Mid-End Karte wäre für den MArkt überhaupt nicht verfügbar...

MfG Matti
 
ist doch nicht mein problem wenn ihr von thema marktanteile auf einmal auf marktsegmente umschwenkt. soviel zum thema im kontext bleiben, das gerade du das einforderst, ist ein schlechter witz.
übrigens sind deine angegeben zahlen keine direkten oder irgendwelche segment anteile , sondern beziehen sich auf die reinen chipzahlverkäufe des gleichen vorjahresquartals, also quartal 01/09.
Ich gebs auf...:klatsch:
 
Zurück