Nvidia-Prognose: Grafikkarten bis 2015 mit 20-facher Leistung

Ja stimmt es steigerte sich weiter und weiter und wirds wohl noch ein bisschen tun, aber irgendwann ist auch mal die Grenze des Physikalisch machbaren bzw sinnvollen da (hoffe ich zumindest). Sollte die erreicht sein, dann wird der erste Hersteller mit einer sinnvollen Lösung ordentlich abcashen.. hoffe ich mal auch.

Hmm - ich erwarte da eher Beschränkungen durch die Programmierer:
Die Enginge muss auch was zum darstellen haben. In Sachen Beleuchtung&Animation ist z.B. Crysis schon ziemlich weit (imho sieht High kaum besser als Medium aus, aufgrund des aufpoppens zusätzlicher Details stellenweise sogar schlechter) - aber wie Mods mit Photo-Texturen zeigen, kann man aus ner guten Engine noch viel mehr rausholen, wenn man bei der Erstellung des Spiels mehr Aufwand treibt. Für Polygone gilt das gleiche, da werden immer noch sehr viele Objekte auf Quaderform reduziert, die eigentlich gar keine Quader sind. (gerade Gebäude)

war aber gar nicht der "Pionier" des zusätzlichen Stromanschlusses, das var doch eine Voodoo 5 Variante, wo manche Releases ja gliech mit extra Netzteil kamen ^^.

Die V5 6000 mit ihrem Netzteil kam bekanntermaßen nie auf den Markt, die V5 5500 mit ihrem zusätzlichen Stromanschluss war zwar erster - aber auch ne Zwei-Chip-Karte und erweckte sowieso bei einigen den Eindruck eines leicht verzweifelten Versuches. Aber die Radeon war ein ernst gemeintes Standard-Modell und ging weg wie warme Semmeln...

Aber erinnere dich an den "Staubbläser", Geforce FX 5800. Den Chip jedoch in ehren, ich glaube er hatte mehr 3dfx Technologie drin, als Nvidia jemals zugeben würde (wer will, ich habe für diese Vermutung recht gute Argumente ^^, einfach mal nachfragen :)).

Wobei man sagen muss, dass die FX5800Ultra merklich weniger Strom verbrauchte, als ihre Nachfolger - nur der Kühler war eine echte Fehlkonstruktion.

Bloß bin ich der Meinung das man Leistungshunger auch einfach decken muss, halt ohne Kohle und Co., sondern mit regenerativen Techniken. Größtenteils halt Sonnen oder Erdenergie.
Größtenteils ist alles indirekte Sonnenenergie.

Weniger Leistungshunger könnte man da aber wesentlich einfacher decken...


Um Strom zu "sparen" würde es auch helfen mehr Einstellung für die Leistung zu erstellen. Vorallem packt man doch gerne alte Spiele auch mal wieder aus. Brauchen die dann eine 100-250 Watt Grafikkarte?
Wohl eher nicht. Ein uraltes Spiel läuft selbst auf meinem Netbook einwandfrei.

Aber auch da hat der Kunde wenig Interesse - siehe Hybrid-SLI (zugegeben dank der nur-Nvidia-Chipsatz-Politik ausgebremst).
Aber n bissl kümmern sich die Hersteller da auch so drum rum - heutige High-End Grafikkarten (wenn sie nicht gerade der HD48 Reihe angehören :rollen: ) verbrauchen Idle kaum mehr Strom, als welche vor 5 Jahren.
Das sie dabei (außer unter Vista) auch nicht mehr darstellen, als vor 15 Jahren, stimmt aber auch.


Mehrkern GPUs sollten mal langsam daherkommen.

Öh - eigentlich haben Grafikkarten ziemlich viele Kerne.
 
Aber auch da hat der Kunde wenig Interesse - siehe Hybrid-SLI (zugegeben dank der nur-Nvidia-Chipsatz-Politik ausgebremst).
Aber n bissl kümmern sich die Hersteller da auch so drum rum - heutige High-End Grafikkarten (wenn sie nicht gerade der HD48 Reihe angehören :rollen: ) verbrauchen Idle kaum mehr Strom, als welche vor 5 Jahren.
Das sie dabei (außer unter Vista) auch nicht mehr darstellen, als vor 15 Jahren, stimmt aber auch.
Eben, können aber unter Volllast die zigfache Leistung "mobilisieren", wenn man sie braucht. Von daher ist die Richtung auf jeden Fall richtig, wenn das sich bei den nächsten generationen so fortsetzt.

Eine 1,5kW-Grafikkarte werden wir nie sehen. Die "natürlich" Begrenzung des Stromverbrauchs eines PCs setzen die amerikanischen Haushalte mit 20A bei 110V - also gut 2kW.
 
Da die CPU-Hersteller ja mitlerweile n Einsehen haben und versuchen, im P/L-Bereich unter 70W zu brauchen, reicht das doch in Verbindung mit einem 80 Gold Netzteil fast schon für die 1500er Grafikkarte ;)
 
Zurück