Nvidia-Prognose: Grafikkarten bis 2015 mit 20-facher Leistung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Nvidia-Prognose: Grafikkarten bis 2015 mit 20-facher Leistung gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Nvidia-Prognose: Grafikkarten bis 2015 mit 20-facher Leistung
 
Erster!
Also ich finde das jetzt nicht so überraschend.
1998 gabs glaube gerade die Ati Rage Pro Grafikkarte 6 jahre später 2004 die Radeon 9800 Ich denke die war auch 15 mal so schnell.
 
und die abwärme ist die dann auch 20mal so hoch?

bei grakas mit 20facher leistung lachst du über crysis, weil es dir zu hässlich aussieht:ugly:
 
Klingt optimistisch, ist aber evtl. sogar möglich.

Einzig der Abtransport der Abwärme könnte dem ein oder anderen Ingenieur Kopfschmerzen bereiten, ich bin mal gespannt was uns da ins Haus steht.:)

In Sachen Preis/Leistung sind wir aktuell ja schon gut dabei, ich hoffe,d ass sich die beiden großen (Nvidia und ATI) weiterhin ein solches Kopf an Kopf-Rennen um die Krone liefern.
 
Erster!
Also ich finde das jetzt nicht so überraschend.
1998 gabs glaube gerade die Ati Rage Pro Grafikkarte 6 jahre später 2004 die Radeon 9800 Ich denke die war auch 15 mal so schnell.
Genau so ist es. PCGH sollte das wissen, die sehen sich ja die reine Chipperformance der Grafikkarten eh öfter an, wo sind denn da die Charts mit MHZ Anzahl, Transistoren,Speicherbestückung,Speicherbandbreite,Flops. Man sieht da ganz schön, dass das Wachstum halbwegs Linear ist in den meisten Bereichen, außer die Architekturen ändern sich gerade in richtung mehr shader, da war das Wachstum noch stärker.
und die abwärme ist die dann auch 20mal so hoch?

bei grakas mit 20facher leistung lachst du über crysis, weil es dir zu hässlich aussieht:ugly:


naja, ist ja die Abwärme heutiger Grafikchips auch nicht 20x höher als die vor 5 Jahren. Irgendwo ist da eh bald eine Grenze, die der eine Feststecken wird, ähnlich des "Performance per Watt" ansatzes von AMD vor ein paar Jahren mal.
Naja kann sein, dass Crysis nicht mehr zu DEN schönsten Spielen gehört, aber ich spiele auch noch Oblivion, Far Cry, die Spiele sehen immer noch ganz ok aus wie ich finde. Klar im direktvergleich sind Models, Texturen nicht so toll aber der gesamteindruck zählt. Was bei Crysis ein Problem werden könnte, ist, dass das Spiel von der Grafik lebt und ohne einfach nur langweilig ist (habs mal auf low/Mid gezockt)

Klingt optimistisch, ist aber evtl. sogar möglich.

Einzig der Abtransport der Abwärme könnte dem ein oder anderen Ingenieur Kopfschmerzen bereiten, ich bin mal gespannt was uns da ins Haus steht.:)

In Sachen Preis/Leistung sind wir aktuell ja schon gut dabei, ich hoffe,d ass sich die beiden großen (Nvidia und ATI) weiterhin ein solches Kopf an Kopf-Rennen um die Krone liefern.
Das mit der Abwärme wird kein so großes Problem werden, sie wird nicht mehr so ansteigen wie in den letzten paar Jahren.
und ich denke, gerade weil GPGPU Berechnungen wichtiger werden und eine Grafikkarte mehr als nur Grafik berechnen kann, werden beide Firmen weiterhin versuchen hier ein heißes Duell liefern zu können.
 
2001 hat INTEL auch gesagt "Spätestens 2005 haben wir die 10 Ghz-Grenze geknackt"

Leider sind wir im Endeffekt immer noch bei 3 Ghz...:ugly:

Die Industrie macht es halt richtig, warum übers Ziel hinausschießen, wenn das gebotene den Ansprüchen gerecht wird und man so verdienen kann.

Die Frage ist auch, wer soll die Leistung nutzen? Da ja quasi alle Spiele Multi-Plattform-Huren sind, da man über Konsolen mehr profitiert (zumindest die Publisher).
 
Ziemlich optimistisch.
Jetzt wird die Leistung um rund 30-50% gesteigert und in dem Tempo ist 20x mehr nicht möglich.
Es müssen andere Technologien her um dies zu erreichen.
 
2001 hat INTEL auch gesagt "Spätestens 2005 haben wir die 10 Ghz-Grenze geknackt"

Leider sind wir im Endeffekt immer noch bei 3 Ghz...:ugly:

Die entwicklung war ja vor der Entscheidung-> mehr Geschwindigkeit oder komplexere/mehr kerne.

Beides wäre jetzt erreicht gewesen, ein Weg ist aber nur verfolgt wurden, sprich der des Mutlithreadig/ der komplexität.

Wenn sie gewollt hätten, hätten wir jetzt 15Ghz - Singlecore Prozzis, welche warscheinlich grad mal die hälfte der Leistung eines i7 erreichen würde-> vorraussetzung alle kerne würden angewand.

Also was bringt dir bei Multithreading ein sehr hoch getakteter single? Richtig, so gut wie gar nichts.

mfg,
Mexxim
 
Also was bringt dir bei Multithreading ein sehr hoch getakteter single? Richtig, so gut wie gar nichts.

nur würde es kein multithreading geben wenn es keine mehrkernprozessoren gibt.
ausserdem wird intel damals die wärmeentwicklung massiv unterschätzt haben, korrigier, hat die wärmeentwicklung massiv unterschätz.

wie genau die leistung aussehen würde, wenn man den anderen weg gegangen wäre kann man genauso schwer sagen wie die spieleleistung von linux - denn solange die software nicht mitmach :schief:
 
nur würde es kein multithreading geben wenn es keine mehrkernprozessoren gibt.
ausserdem wird intel damals die wärmeentwicklung massiv unterschätzt haben, korrigier, hat die wärmeentwicklung massiv unterschätz.

wie genau die leistung aussehen würde, wenn man den anderen weg gegangen wäre kann man genauso schwer sagen wie die spieleleistung von linux - denn solange die software nicht mitmach :schief:

naja immerhin gabs doch ein paar, die den P4 auf um die 8 Ghz gebracht hatten. Weit weg von den 10 ist es dann ja auch nicht mehr und das ohne weiterentwicklung, sodnern "nur mit alternativen Kühlmethoden"
 
Und die Leistungsaufnahme steigt um den Faktor 40??? Wasserkühlungen werden zwingend notwendig??? Ich bin gespannt!
 
Intel war damals mit Zukunftsprogonosen was die Steigerung der GHz-Zahl anbelangt ebenfalls sehr voreilig, bis man dann einsehen musste, dass irgendwann mal schluß mit der Steigerung ist.

Wobei ich mir das bei Grafikkarten durchaus vorstellen kann, dass man diese Leistungssteigerung erreichen könnte.

Bei neuen Prozessoren sind die Leistungsgewinne nicht immer so hoch, wie bei neuen Grafikkarten.
 
Wie wollen die das denn schaffen ? Bzw. warum bringen sie die Karten nicht jetzt/bald schon raus wenn sie wissen wies geht ?

Die Umstände werden sich doch mit der Zeit nur verschlechtern, weniger Ressourcen und Material aufm dem Planeten für Grakas usw...
 
Wie wollen die das denn schaffen ? Bzw. warum bringen sie die Karten nicht jetzt/bald schon raus wenn sie wissen wies geht ?

Die Umstände werden sich doch mit der Zeit nur verschlechtern, weniger Ressourcen und Material aufm dem Planeten für Grakas usw...
silicium gibts wie sand am meer ;)
 
Wie wollen die das denn schaffen ? Bzw. warum bringen sie die Karten nicht jetzt/bald schon raus wenn sie wissen wies geht ?

Die Umstände werden sich doch mit der Zeit nur verschlechtern, weniger Ressourcen und Material aufm dem Planeten für Grakas usw...
Willst du vielleicht ne Graka für 10000€ kaufen die unter Last 5KW aufnimmt? Natürlich ist es eigentlich auch heute schon möglich einen so schnellen Chip herzustellen. Man nimmt sich einen Wafer und macht daraus einfach einen einzigen riesigen Chip. Der ist dann 50mal so groß wie ein GT200b, bringt die 50-fache Leistung und verbraucht 50mal so viel Strom. Von der Yield-Rate garnicht zu sprechen. Da könnte man wahrscheinlich 99,999% der Chips wegschmeißen.
 
Zurück