Nvidia GK110 soll angeblich um 25 Prozent schneller als GK104 sein - drittes Quartal 2012 angepeilt

Oh mann, nVidia verarscht dieses Mal die Kundschaft und alle freuen sich auch noch. Der GK110 wäre eigentlich der Chip, der jetzt gegen AMD/ATI hätte antreten müssen. Doch da die Performance reicht, wird erstmal der billigere Mittelklassechip verkauft - und zwar zu den Preisen des Topchips. Dann ist auch klar, warum der Gk104 nicht so viel Leistung verbraucht.
Wenn der 110er letztlich da ist, wird es doch so sein wie sonst immer: Großer Chip mit großem Stromhunger.

Für den Kunden wäre es natürlich besser gewesen wenn der GK104 nur ~250€ gekostet hätte. Dann wäre man aber besonders dumm gewesen und hätte gleichzeitig die Gewinne extrem einbrechen lassen, da alle anderen Grafikkarten - bis auf die Dual GPU's vllt - sich unter 250€ hätten einordnen müssen.
Mit Verarschen hat das überhaupt nichts zu tun. Der Chip bringt die Leistung eines High End Chips. Besser als der eigene High End Vorgänger und besser als die Konkurrenz. So what?
 
Das ist ja gar nicht mehr so weit hin oO

Wow, da lohnt sich ja Warten, wenn man kann. 25% mehr scheinen auch durchaus vielversprechend, wenn dann noch lautstärke und Leistungsaufnahme stimmen wie beim GK104 :)
Ja klar :ugly:

Das sind 6-7 Monate! Das ist ein halber Lebenszyklus eines Produktes... Bzw. Das war wenn ich mich recht erinnere sogar die ganze Lebensdauer des GF100 :klatsch:
Zumal AMDs neue Karte dann auch 1-3 Monate später ebenfalls auf den Markt kommen sollte.

Einige Leute sollten sich aber mal anschauen, von wem das kommt, und was selbiger vorm HD77x0 Launch alles erzählt hat, oder vorm GK104 Launch... Der Junge schreibt nur von anderen ab und hat tüchtig auf einen Strohhaufen drauf und hofft, das er mal etwas trifft. Mit BD lag er zwar nicht schlecht, aber bei GPUs hat er atm absolut keine Ahnung...

Nichts desto trotz wird die Performance wohl etwa in dem Bereich liegen, den er genannt hat. Welch Überraschung, wenn man sich GK104 anschaut, und dann bedenkt, was sich da alles ändern muss, damit es ein guter HPC Chip wird....:schief:

Aber ich vergaß ja. nvidia hätte AMD mit GK100 (:lol:, dens gar nie gab) zerbersten können, haben den aber zurück gezogen, weil AMD so schlecht ist, und GK110 wird dann aber bald kommen und AMD den Arsch versohlen in jeder Hinsicht :rolleyes:

GK104 hat ne verdammt gute Perf/W, aber das schafft er wohl auch nur, weil er eine HPC krücke ist. AMD geht da halt den Mittelweg. Besser in HPC als GK104 aber wohl schlechter als GK110. Was die bessere Entscheidung ist, wird sich erst zeigen.
 
Na dann ma kucken wie ich 500-700€ Ende des Jahres investiere... nen Ivy-E (unwahrscheinlich da verschoben), nen GK110 (etwas wahrscheinlicher aber nur wenn nötig) oder ne 512GB-SSB (der bisher wahrscheinlichste Plan) :D
 
Ja klar :ugly:
Das sind 6-7 Monate! Das ist ein halber Lebenszyklus eines Produktes... Bzw. Das war wenn ich mich recht erinnere sogar die ganze Lebensdauer des GF100 :klatsch:
Zumal AMDs neue Karte dann auch 1-3 Monate später ebenfalls auf den Markt kommen sollte.

Und:klatsch:????
Trotzdem mag es doch für den ein oder anderen lohnend sein auf den GK110 zu warten z.B. für maximale Power im Multi-Monitor Betrieb.:schief:
Und die, falls die Zahlen stimmen, ~35% von der HD7970 auf den GK110 müsste AMD dann auch erst mal aufholen.
 
Zuletzt bearbeitet:
Ja klar :ugly:

Das sind 6-7 Monate! Das ist ein halber Lebenszyklus eines Produktes... Bzw. Das war wenn ich mich recht erinnere sogar die ganze Lebensdauer des GF100 :klatsch:
Zumal AMDs neue Karte dann auch 1-3 Monate später ebenfalls auf den Markt kommen sollte.

Einige Leute sollten sich aber mal anschauen, von wem das kommt, und was selbiger vorm HD77x0 Launch alles erzählt hat, oder vorm GK104 Launch... Der Junge schreibt nur von anderen ab und hat tüchtig auf einen Strohhaufen drauf und hofft, das er mal etwas trifft. Mit BD lag er zwar nicht schlecht, aber bei GPUs hat er atm absolut keine Ahnung...

Nichts desto trotz wird die Performance wohl etwa in dem Bereich liegen, den er genannt hat. Welch Überraschung, wenn man sich GK104 anschaut, und dann bedenkt, was sich da alles ändern muss, damit es ein guter HPC Chip wird....:schief:

Aber ich vergaß ja. nvidia hätte AMD mit GK100 (:lol:, dens gar nie gab) zerbersten können, haben den aber zurück gezogen, weil AMD so schlecht ist, und GK110 wird dann aber bald kommen und AMD den Arsch versohlen in jeder Hinsicht :rolleyes:

GK104 hat ne verdammt gute Perf/W, aber das schafft er wohl auch nur, weil er eine HPC krücke ist. AMD geht da halt den Mittelweg. Besser in HPC als GK104 aber wohl schlechter als GK110. Was die bessere Entscheidung ist, wird sich erst zeigen.

Redest du hier von mir "Der Junge" ?! :what:

Denn, wenn dann verstehe ich das ganze nicht, habe dazu nie derartiges geschrieben, zudem wäre es Off-Topic und per PN zu klären. Was ist das Problem gerade, verstehe die problematik deinerseits nicht. :huh:

Ich habe nur geschrieben, dass die 25% Mehrleistung vielversprechend sind, wenn man die Möglichkeit hat zu warten, vorausgesetzt, Nvidia kann das Niveau in Sachen Leistungsaufnahme und Wärmeentwicklung/Lautstärke beibehalten. Die GTX680 ist nämlich ein echt rundes Produkt :)
 
warum denkt ihr beim verwendungszweck immer nur an spielen? Mit dem teil sollte brute force richtig spaß machen:hail::ugly:
 
warum denkt ihr beim verwendungszweck immer nur an spielen? Mit dem teil sollte brute force richtig spaß machen:hail::ugly:

Vielleicht weil wir hier bei PCGHX sind ?! :what::ugly:

PC GAMES HARDWARE [EXTREME] - Das sagt doch alles oder? Natürlich gibt es auch eine Riehe von Leuten unter uns, wie dich z.B., die andere Verwendungszwecke im Blick haben. Was soll also deine provokante Frage?
 
warum denkt ihr beim verwendungszweck immer nur an spielen? Mit dem teil sollte brute force richtig spaß machen:hail::ugly:

Das liegt wahrscheinlich daran, dass 99,8% der Käufer zu Hause genau das mit der Karte tun... die verhältnismäßig verdammt wenigen die da Falten oder GPGPU/Bruten oder was weiß ich sind die absolute Ausnahme^^
 
Uiihh noch schnellere Modellwechsel. Langsam werden es die mit ihren Karten übertreiben. 4 GB V-RAM wer braucht das denn wirklich?
 
Uiihh noch schnellere Modellwechsel. Langsam werden es die mit ihren Karten übertreiben. 4 GB V-RAM wer braucht das denn wirklich?

Leute die auf mehreren Monitoren spielen oder
Leute die sehr große Texturmods nutzen oder gar selbst erstellen oder
Leute die eigene Karten für Shooter erstellen (beispielsweise per Sandbox Crysis2 Editor) und und und.
Von Leuten, die keinen Nutzen davon haben außer eine virtuelle Schwanzverlängerung mal ganz zu schweigen, die dürften wohl den größten Teiöl der Käufer ausmachen :-D

Das sind natürlich keine Aufgaben die ein normaler Mensch zu Hause zu erledigen hat und der Kreis von Menschen die das brauchen ist sehr gering - aber eine Grafikkarte für 600 und mehr € zu kaufen engt den Personenkreis da auch sehr ein ;-)
 
UND: Wie bei RAM gibt es Leute, die 16GB haben, sie aber nicht mal zur Hälfte auslasten, aber es gab sie halt für einen relativ geringen Aufpreis. ;)

Ja, wenn man das Zeug nachgeworfen bekommt ist ja nichts dagegen zu sagen, ich würde mir bei nem neuen System wahrscheinlich auch 16 oder 32 GB RAM reinklatschen und ne nette RAM-Disk nutzen aber nur weils eigentlich sehr günstig ist - eine Grafikkarte mit so viel vRAM ist aber normalerweise schon ein gutes Stück teurer als das normale Modell - zumindest prozentual gesehen (ich erinner mich noch dass ich ne 1,5GB Karte gekauft habe weil das 3GB Modell der 580 fast 100€ teurer war damals).
 
Trotzdem nervt das Wettrüsten in immer kürzeren Abständen, wobei die Games nicht mal Schritt halten können
 
endlich mal wieder 512 Bit Speicherinterface :) Damit wird das meine erste Highendkarte seit meiner alten GTX280! Ich freue mich schon sehr. Ob es wirklich 20-25% mehr Leistung werden halte ich nicht für unmöglich, aber sehr optimistisch;)
 
"Der Chip ist doppelt so groß, die Bandbreite doppelt so groß und dann nur 25%"

So schnell geht das.[]

Und doppelt so viel RAM. + Weitere 256 Bit Speicherinterface. Macht auch 200% schneller. trollface.png
 
Zurück