• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia GK110 soll angeblich um 25 Prozent schneller als GK104 sein - drittes Quartal 2012 angepeilt

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Nvidia GK110 soll angeblich um 25 Prozent schneller als GK104 sein - drittes Quartal 2012 angepeilt gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Nvidia GK110 soll angeblich um 25 Prozent schneller als GK104 sein - drittes Quartal 2012 angepeilt
 

-Cryptic-

Software-Overclocker(in)
Ich warte sehnsüchtig darauf. ;)
Die 680 wird von mir daher bewusst ignoriert. Wenn dann gleich der ausgereiftere Kepler-Chip mit größerem vRAM und mehr Leistung.
 

Andrej

Software-Overclocker(in)
Ich will auch hoffen,dass sie schneller ist,damit sich die warterei auch lohnt.
Habe jetzt schon mit dem Gedanken gespielt mir eine GTX 680 zu holen.

In 2-3 Monaten wissen wir mehr,will ich hoffen.
 

Mr.Ultimo

PCGH-Community-Veteran(in)
mh ist also genauso sinnfrei wie die ati 7950 / 7970 im vergleich zu ihren performance modellen, wobei hier bei nvidia wohl leider über den strom verbrauch geregelt wird.

25 prozent mehr leistung ist zu wenig für die werte die obr da auf den tisch knallt, dann sollte nvidia sich gleich ans reisbrett setzten und den chip energie optimieren.
der sprung an mehr leistung sollte mindestens ! vergleichbar sein mit dem von der 560gtx TI zur 580 GTX . sonst lohnt sich die karte einfach nicht.
 

Fatalii

PCGHX-HWbot-Member (m/w)
Nur 25%? Hmm, die vermutete Mehrleistung gegenüber dem GK104 lag doch bei knapp 50%. So zumindest einige Aussagen aus dem 3D-Center.
Der GPGPU-Part wird deutlich wachsen, vielleicht zu deutlich und man kann die theoretische Leistung nicht so gut in Spielleistung umsetzen.
Aber es ist ja noch weit bis dahin. Also abwarten und mal schauen wie viel Wahrheit dieses Mal an OBRs Aussagen dran ist.

MfG
 

boxleitnerb

Freizeitschrauber(in)
Ja, 25% ist zu wenig. Bei ca. 6,5 Mrd. Transistoren und 550mm2, wie es im 3DCenter spekuliert wird, wäre das ein Armutszeugnis. 40-50% sollten drin sein, dann passt es auch mit dem Gesamtsprung von 80% von Kepler auf Fermi.
 

Tiz92

Volt-Modder(in)
25 % würden doch perfekt passen. Die GTX780 dann 25 % schneller als eine 680, die 770 dann 15 % und die 680 wäre dann wieder auf Höhe einer früheren GTX 560 Ti. ;)
 

boxleitnerb

Freizeitschrauber(in)
Äh, inkl. Refresh gabs bisher immer so 80% mehr Leistung alle 2 Jahre. Erst 60% durch den ersten Chip, z.B. 480 und dann nochmal 15-20% durch den Refresh. Wenn GK110 der stärkste Chip aus der Keplerfamilie ist, braucht man 50%, um auf diese 80% zu kommen. Die 680 ist halt nur 30% flotter als die 580, das ist doch nix.
 

Cook2211

Kokü-Junkie (m/w)
Also so auf ~30-35% hatte ich schon gehofft. Aber mal abwarten wie es sich letztlich in der Praxis darstellt. Es wäre beispielsweise wünschenswert, wenn die Karte nicht bei hohen Auflösungen einbrechen würde.
 

Incredible Alk

Moderator
Teammitglied
~25% sind durchaus realistisch.
Ich frag mich auch immer wo die Leute mit sonstwelchen Erwartungen herkommen.

"Der Chip ist doppelt so groß, die Bandbreite doppelt so groß und dann nur 25%"

So schnell geht das. Dass der GK110 wahrscheionlich über weit mehr GPGPU Fähigkeiten verfügt und daher viel mehr Chipfläche pro SPIELPerformance benötigt als noch der auf Spiele optimierte GK104 ist da nicht bekannt.

Aber trotzdem, selbst unter den Gesichtspunkten halte ich 25% nicht für sehr viel - sehr viel wäre es dann, wenn das mit 220W TDP drin wäre :D
 

-MIRROR-

Volt-Modder(in)
Das ist ja gar nicht mehr so weit hin oO

Wow, da lohnt sich ja Warten, wenn man kann. 25% mehr scheinen auch durchaus vielversprechend, wenn dann noch lautstärke und Leistungsaufnahme stimmen wie beim GK104 :)
 

Incredible Alk

Moderator
Teammitglied
Wow, da lohnt sich ja Warten, wenn man kann. 25% mehr scheinen auch durchaus vielversprechend, wenn dann noch lautstärke und Leistungsaufnahme stimmen wie beim GK104 :)

Naja wenn man bei 25% Mehrleistung auch von 25% mehr Leistungsaufnahme ausgeht (was optimistisch ist) wären wir ausgehend von 195W TDP des GK104 bei rund 240W für den GK110 - ein Wert der durchaus ziemlich genau dahin trifft wo man auch vergangene High-End Karten immer angesetzt hat bei NV: bei 250W.
 

Standeck

BIOS-Overclocker(in)
Ich mein auch +25 % und evtl. 30 und ein bisschen mehr werden es schon sein was der Chip am Ende vor der 680 liegt. Obs 50% mehr werden könnte man bezweifeln, schließlich wird ein wohl nicht unerheblichr Teil des Transistor Budgets wohl für GPGPU Funktionen genutzt werden.
 

Locuza

Lötkolbengott/-göttin
~25% sind durchaus realistisch.
Ich frag mich auch immer wo die Leute mit sonstwelchen Erwartungen herkommen.

Man muss sich doch nur mal die Leistungsunterschiede zwischen GTX 460 und 480 sowie zwischen GTX 560ti und 580 anschauen. Dann weiß man doch alles.
:D
Das heißt ja dann, dass jedes Jahr immer die gleiche Prozedur vonstatten läuft, wie letztes Jahr.
Diese Erwartungen kommen halt von dem wahrscheinlich größerem Die-Size Unterschied zwischen GK104 und GK110 im Vergleich zum GF104 mit einem GF110. Ich würde Ail deutlich mehr vertrauen als Dummbrovsky und dann eher Richtung 550mm² abschätzen.
Bei 2304 Transistoren hätte ein GK110 schon 50% mehr Shader-Power, dann ziehen wir einfach mal 25% vom Takt ab und addieren noch die viel höhere Speicherbandbreite und ein bisschen Cache-Bonus und eig. sollte ein GK110 mindestens 30% schneller sein.
 

Thornscape

Software-Overclocker(in)
Oh mann, nVidia verarscht dieses Mal die Kundschaft und alle freuen sich auch noch. Der GK110 wäre eigentlich der Chip, der jetzt gegen AMD/ATI hätte antreten müssen. Doch da die Performance reicht, wird erstmal der billigere Mittelklassechip verkauft - und zwar zu den Preisen des Topchips. Dann ist auch klar, warum der Gk104 nicht so viel Leistung verbraucht.
Wenn der 110er letztlich da ist, wird es doch so sein wie sonst immer: Großer Chip mit großem Stromhunger.
 

GoldenMic

Kokü-Junkie (m/w)
"Der Chip ist doppelt so groß, die Bandbreite doppelt so groß und dann nur 25%"

25% im Bezug auf Spielleistung warscheinlich. In GPGPU wird er ne ganze Ecke schneller sein, auch wegen der kleineren Treiber Restriktion.
Wie sind denn die Verhältnisse von 560ti zu 580? Waren es nicht 332mm² zu 520mm². Und wieviel Mehrleistung in welchen Bereichen?

So schnell geht das. Dass der GK110 wahrscheionlich über weit mehr GPGPU Fähigkeiten verfügt und daher viel mehr Chipfläche pro SPIELPerformance benötigt als noch der auf Spiele optimierte GK104 ist da nicht bekannt.

Das war imo von Vornherein klar. der Gk110 wird viel Ballast mit sich bringen, den ein Gamer nicht braucht.

Aber trotzdem, selbst unter den Gesichtspunkten halte ich 25% nicht für sehr viel - sehr viel wäre es dann, wenn das mit 220W TDP drin wäre :D

Eben. Vllt hat sich Nvidia ja gedacht: "Naja der Gk 104 ist schon schneller als AMDs High End Model, warum sollten wir also wieder zu Lasten der Leistungsaufnahme gehen?".
Wäre dem wirklich so, dann schlummert da vllt auch Übertaktungspotential.
 

GoldenMic

Kokü-Junkie (m/w)
Oh mann, nVidia verarscht dieses Mal die Kundschaft und alle freuen sich auch noch. Der GK110 wäre eigentlich der Chip, der jetzt gegen AMD/ATI hätte antreten müssen. Doch da die Performance reicht, wird erstmal der billigere Mittelklassechip verkauft - und zwar zu den Preisen des Topchips. Dann ist auch klar, warum der Gk104 nicht so viel Leistung verbraucht.
Wenn der 110er letztlich da ist, wird es doch so sein wie sonst immer: Großer Chip mit großem Stromhunger.

Für den Kunden wäre es natürlich besser gewesen wenn der GK104 nur ~250€ gekostet hätte. Dann wäre man aber besonders dumm gewesen und hätte gleichzeitig die Gewinne extrem einbrechen lassen, da alle anderen Grafikkarten - bis auf die Dual GPU's vllt - sich unter 250€ hätten einordnen müssen.
Mit Verarschen hat das überhaupt nichts zu tun. Der Chip bringt die Leistung eines High End Chips. Besser als der eigene High End Vorgänger und besser als die Konkurrenz. So what?
 

Skysnake

Lötkolbengott/-göttin
Das ist ja gar nicht mehr so weit hin oO

Wow, da lohnt sich ja Warten, wenn man kann. 25% mehr scheinen auch durchaus vielversprechend, wenn dann noch lautstärke und Leistungsaufnahme stimmen wie beim GK104 :)
Ja klar :ugly:

Das sind 6-7 Monate! Das ist ein halber Lebenszyklus eines Produktes... Bzw. Das war wenn ich mich recht erinnere sogar die ganze Lebensdauer des GF100 :klatsch:
Zumal AMDs neue Karte dann auch 1-3 Monate später ebenfalls auf den Markt kommen sollte.

Einige Leute sollten sich aber mal anschauen, von wem das kommt, und was selbiger vorm HD77x0 Launch alles erzählt hat, oder vorm GK104 Launch... Der Junge schreibt nur von anderen ab und hat tüchtig auf einen Strohhaufen drauf und hofft, das er mal etwas trifft. Mit BD lag er zwar nicht schlecht, aber bei GPUs hat er atm absolut keine Ahnung...

Nichts desto trotz wird die Performance wohl etwa in dem Bereich liegen, den er genannt hat. Welch Überraschung, wenn man sich GK104 anschaut, und dann bedenkt, was sich da alles ändern muss, damit es ein guter HPC Chip wird....:schief:

Aber ich vergaß ja. nvidia hätte AMD mit GK100 (:lol:, dens gar nie gab) zerbersten können, haben den aber zurück gezogen, weil AMD so schlecht ist, und GK110 wird dann aber bald kommen und AMD den Arsch versohlen in jeder Hinsicht :rolleyes:

GK104 hat ne verdammt gute Perf/W, aber das schafft er wohl auch nur, weil er eine HPC krücke ist. AMD geht da halt den Mittelweg. Besser in HPC als GK104 aber wohl schlechter als GK110. Was die bessere Entscheidung ist, wird sich erst zeigen.
 

Incredible Alk

Moderator
Teammitglied
Na dann ma kucken wie ich 500-700€ Ende des Jahres investiere... nen Ivy-E (unwahrscheinlich da verschoben), nen GK110 (etwas wahrscheinlicher aber nur wenn nötig) oder ne 512GB-SSB (der bisher wahrscheinlichste Plan) :D
 

Cook2211

Kokü-Junkie (m/w)
Ja klar :ugly:
Das sind 6-7 Monate! Das ist ein halber Lebenszyklus eines Produktes... Bzw. Das war wenn ich mich recht erinnere sogar die ganze Lebensdauer des GF100 :klatsch:
Zumal AMDs neue Karte dann auch 1-3 Monate später ebenfalls auf den Markt kommen sollte.

Und:klatsch:????
Trotzdem mag es doch für den ein oder anderen lohnend sein auf den GK110 zu warten z.B. für maximale Power im Multi-Monitor Betrieb.:schief:
Und die, falls die Zahlen stimmen, ~35% von der HD7970 auf den GK110 müsste AMD dann auch erst mal aufholen.
 
Zuletzt bearbeitet:

-MIRROR-

Volt-Modder(in)
Ja klar :ugly:

Das sind 6-7 Monate! Das ist ein halber Lebenszyklus eines Produktes... Bzw. Das war wenn ich mich recht erinnere sogar die ganze Lebensdauer des GF100 :klatsch:
Zumal AMDs neue Karte dann auch 1-3 Monate später ebenfalls auf den Markt kommen sollte.

Einige Leute sollten sich aber mal anschauen, von wem das kommt, und was selbiger vorm HD77x0 Launch alles erzählt hat, oder vorm GK104 Launch... Der Junge schreibt nur von anderen ab und hat tüchtig auf einen Strohhaufen drauf und hofft, das er mal etwas trifft. Mit BD lag er zwar nicht schlecht, aber bei GPUs hat er atm absolut keine Ahnung...

Nichts desto trotz wird die Performance wohl etwa in dem Bereich liegen, den er genannt hat. Welch Überraschung, wenn man sich GK104 anschaut, und dann bedenkt, was sich da alles ändern muss, damit es ein guter HPC Chip wird....:schief:

Aber ich vergaß ja. nvidia hätte AMD mit GK100 (:lol:, dens gar nie gab) zerbersten können, haben den aber zurück gezogen, weil AMD so schlecht ist, und GK110 wird dann aber bald kommen und AMD den Arsch versohlen in jeder Hinsicht :rolleyes:

GK104 hat ne verdammt gute Perf/W, aber das schafft er wohl auch nur, weil er eine HPC krücke ist. AMD geht da halt den Mittelweg. Besser in HPC als GK104 aber wohl schlechter als GK110. Was die bessere Entscheidung ist, wird sich erst zeigen.

Redest du hier von mir "Der Junge" ?! :what:

Denn, wenn dann verstehe ich das ganze nicht, habe dazu nie derartiges geschrieben, zudem wäre es Off-Topic und per PN zu klären. Was ist das Problem gerade, verstehe die problematik deinerseits nicht. :huh:

Ich habe nur geschrieben, dass die 25% Mehrleistung vielversprechend sind, wenn man die Möglichkeit hat zu warten, vorausgesetzt, Nvidia kann das Niveau in Sachen Leistungsaufnahme und Wärmeentwicklung/Lautstärke beibehalten. Die GTX680 ist nämlich ein echt rundes Produkt :)
 
S

SebS

Guest
warum denkt ihr beim verwendungszweck immer nur an spielen? Mit dem teil sollte brute force richtig spaß machen:hail::ugly:
 

-MIRROR-

Volt-Modder(in)
warum denkt ihr beim verwendungszweck immer nur an spielen? Mit dem teil sollte brute force richtig spaß machen:hail::ugly:

Vielleicht weil wir hier bei PCGHX sind ?! :what::ugly:

PC GAMES HARDWARE [EXTREME] - Das sagt doch alles oder? Natürlich gibt es auch eine Riehe von Leuten unter uns, wie dich z.B., die andere Verwendungszwecke im Blick haben. Was soll also deine provokante Frage?
 

Incredible Alk

Moderator
Teammitglied
warum denkt ihr beim verwendungszweck immer nur an spielen? Mit dem teil sollte brute force richtig spaß machen:hail::ugly:

Das liegt wahrscheinlich daran, dass 99,8% der Käufer zu Hause genau das mit der Karte tun... die verhältnismäßig verdammt wenigen die da Falten oder GPGPU/Bruten oder was weiß ich sind die absolute Ausnahme^^
 
D

Dr Bakterius

Guest
Uiihh noch schnellere Modellwechsel. Langsam werden es die mit ihren Karten übertreiben. 4 GB V-RAM wer braucht das denn wirklich?
 

Incredible Alk

Moderator
Teammitglied
Uiihh noch schnellere Modellwechsel. Langsam werden es die mit ihren Karten übertreiben. 4 GB V-RAM wer braucht das denn wirklich?

Leute die auf mehreren Monitoren spielen oder
Leute die sehr große Texturmods nutzen oder gar selbst erstellen oder
Leute die eigene Karten für Shooter erstellen (beispielsweise per Sandbox Crysis2 Editor) und und und.
Von Leuten, die keinen Nutzen davon haben außer eine virtuelle Schwanzverlängerung mal ganz zu schweigen, die dürften wohl den größten Teiöl der Käufer ausmachen :-D

Das sind natürlich keine Aufgaben die ein normaler Mensch zu Hause zu erledigen hat und der Kreis von Menschen die das brauchen ist sehr gering - aber eine Grafikkarte für 600 und mehr € zu kaufen engt den Personenkreis da auch sehr ein ;-)
 

Incredible Alk

Moderator
Teammitglied
UND: Wie bei RAM gibt es Leute, die 16GB haben, sie aber nicht mal zur Hälfte auslasten, aber es gab sie halt für einen relativ geringen Aufpreis. ;)

Ja, wenn man das Zeug nachgeworfen bekommt ist ja nichts dagegen zu sagen, ich würde mir bei nem neuen System wahrscheinlich auch 16 oder 32 GB RAM reinklatschen und ne nette RAM-Disk nutzen aber nur weils eigentlich sehr günstig ist - eine Grafikkarte mit so viel vRAM ist aber normalerweise schon ein gutes Stück teurer als das normale Modell - zumindest prozentual gesehen (ich erinner mich noch dass ich ne 1,5GB Karte gekauft habe weil das 3GB Modell der 580 fast 100€ teurer war damals).
 
D

Dr Bakterius

Guest
Trotzdem nervt das Wettrüsten in immer kürzeren Abständen, wobei die Games nicht mal Schritt halten können
 

OdlG

BIOS-Overclocker(in)
endlich mal wieder 512 Bit Speicherinterface :) Damit wird das meine erste Highendkarte seit meiner alten GTX280! Ich freue mich schon sehr. Ob es wirklich 20-25% mehr Leistung werden halte ich nicht für unmöglich, aber sehr optimistisch;)
 
Oben Unten