Test der Nvidia Geforce GTX 680: Ist AMDs Radeon HD 7970 geschlagen?

Unterm Strich finde ich es richtig gut, dass AMD und NVIDIA da jetzt auf gleicher Augenhöhe sind. Ich verspreche mir da jetzt einen kundenfreundlichen Preiskampf nach unten. :)

MfG

AMD und Nvidia sind nicht auf augenhöhe, da Nvidia noch nicht seinen besten Chip ins Rennen geschickt hat.
Aber wer kann es ihnen verübeln? Wer zwei Chips in der Entwicklung hat, bei denen sich herausstellt, dass der schwächere die High-End-Konkurrenz abhängt (wenn auch knapp), der bringt sicherlich diesen Chip zuerst und behält sich etwas in der Hinterhand, was den Gegner weghaut!!

Sprich, wenn Nvidia mit dem GK110 kommt können sie sich vlt. wieder soweit von AMD absetzen, wie zu Zeiten der 8800Ultra!!
 
So vorne weg erst mal sorry für die WoT, aber was hier abgeht, geht ja mal wieder teilweise auf keine Kuhhaut... :nene:
...
Und nochmal, GK100 wurde nicht gecnacelt, weil es nie einen GK100 gab....
...
Nein sollte er nicht... siehe oben...
...
GK104 ist genau so High-End oder nicht wie es Tahiti XT ist...
...
Und auch hier nochmals ein klares NEIN. WTF! es gab nie einen GK100 und fertig...

Kleiner Tip am Rande:
Entgengen weit verbreiteter und praktizierter Sichtweise ersetzen auch noch so viele Wiederholungen ein und derselben Behauptung keine unabhängige Referenz.
Ich habs halt schon so oft gesagt, und man liest es halt immer und immer und immer wieder. Daher sprech ich die Leute inzwischen direkt an, wobei ichs jetzt nicht nochmals sagen werd, weil irgendwann ists auch mal gut :-_-:
*grübel*... - das gleiche, wie alle anderen auch, oder? Hexacores, verspätetes erscheinen irgendwann zwischen Herbst und Weihnachten, genauere Einschränkung erst 2-3 Wochen vorher
full
Ich würde eher sagen seit März 2011 ;) Das ist nen bischen mehr als 2-3 Wochen vorher. Schau dir vor allem mal an, was XE85 zu dem Zeitpunkt noch vom Stapel gelassen hat, und wie ich mich da mit Händen und Füßen gegen seine Aussagen bzgl 8 Core für Desktop und Launch spätestens Anfang Q3, statt von mir: "aller aller frühestesns Ende Q3 eher sogar Richtung Q4, wenns dumm läuft wirds sogar 2012, wobei das auch für die Xeons gelten kann mit der Verfügbarkeit."

Das ist schon ein kleiner Unterschied :ugly:

Kepler ist halt so ne Sache. So lange gewisse Sachen nicht fix sind, kann man eben auch nicht sicher richtig liegen. Ganz zu schweigen davon, das nVidia verdammt dicht gemacht hat. Ergo hielt/hält sich die Anzahl an Quellen/Leuten die überhaupt was wissen verdammt in Grenzen, wobei die einem hin und wieder auch noch gefakete Infos mit unter jubeln, um zu sehen, ob man dicht hält oder nicht...

Hast du irgenwas anderes von dem kleinen Ding erwartet?
Es ist seit bald einem Jahr bekannt, dass Nvidia eine Veröffentlichung im Frühjahr plant, wenn die Funktion halbwegs am laufen ist - nicht "wenn auf wundersame Weise Leistung aus dem nichts entsteht". Seit 2-3 Monaten steht fest (und vorher war es schon zu hören), dass sie mit einem eher kleinen Chip versuchen werden, gegen Tahiti anzutreten. Dass das in Kombination heißt, dass sie eine vergleichsweise gute durchschnittliche Qualität für grenzwertigere Taktraten nutzen, war klar. AMD hat derzeit halt den Vor-/Nachteil, dass die HD7970 mit Spezifikationen antritt, mit der man aus den Dezemberchargen von TSMC zumindest ein paar verkaufbare Chips hinbekommt. Das bringt ihr einen erhöhten Verbrauch ein, obwohl sie mit "Masse statt Takt"-Ansatz die Leistung eigentlich auf verbrauchsschonenderen Wege generiert und so trotz ineffizientere/gpGPU-lastigerer GCN ähnliche Effizienz bieten könnte. Abzuwarten bleibt, ob AMD das Potential, dass mitlerweile die überwiegende Zahl der verkauften Tahitis hat, irgendwann für Spannungsreduzierungen oder höhere Taktraten nutzt, um dann mit vergleichbaren Sicherheitsreserven gegen Kepler anzutreten.
Ja, ich hab eigentlich größere Leistungsschwankungen erwartet, und das der Turbo nicht so gut funktioniert wie er es scheinbar tut.

Wobei mich wie gesagt, die hohe Spannung im Turbo doch sehr verblüfft. Hätte nicht gedacht, das man so hoch muss und dabei dann doch! so niedrig mit der Leistungsaufnahme bleibt. Der Turbo funktioniert wie gesagt, scheinbar echt verdammt gut. AMD muss wie gesagt, daher an ihrem "Turbo" meiner Meinung nach nachlegen.

Du solltest dir vielleicht etwas höhere Ziele setzen :ugly:
Man lobt den Berliner Kurier auch nicht, wenn seine Märchen 10% näher an der Wahrheit dran sind, als die von Mopo und BILD.
Naja, ich würde selbst sagen, trotz der Kepler Ungewissheiten liegt meine Trefferquote so bei >=75%.

Was kam, war halt ein stink normales Astek (oder cool-it? schon wieder vergessen) Rebranding, wie man es für OEM-Lösungen kennt und (wenn man ?IBM? nicht zuviel zutraut) erwartet.
Ja, und die kommen nicht in die puschen... Da haben Sie auf der CeBIT eben viel mehr versprochen, als Sie letzten Endes halten konnten....


Eigene Chips für den gpGPU-Bereich wären ein reines Verlustgeschäft. Nvidia achtet zwar ein bißchen auf erweiterte Möglichkeiten, aber im Kern fertigt man GPUs und verkauft die auch für andere Zwecke - was nicht das Zeug zur GPU hat, wird gar nicht erst entwickelt. (ist ja nicht wie bei Intel :ugly: )
GK110 wird primär für den Desktop kommen - mehr weiß man halt nicht. Naheliegend ist die Einstufung als 700er, denn zum einen gehört er eben nominell schon der Refreshgeneration an, zum anderen war der schnelle Wechsel auf 700 schon vor längerer Zeit mal in den Gerüchten - damals hat man ihn sich dann als falsche Schlussflogerung der 600er Fermi-Rebrandings erklärt, als nichts mehr kam. Aber das heißt nicht, dass die Sache tatsächlich an den Haaren herbeigezogen war.
Und nach unten abrunden kann man wunderbar mit ner 760 auf GK104 oder 114 Basis, ... . Da der 110 erst zum Weichnachtsgeschäft erwartet wird, ähnlich wie die HD8000, wird es sich Nvidia ohnehin nicht mehr erlauben können, Oberklassechips mit High-End-Namen und -Preis zu verkaufen.

Und die Dual-Lösung hat damit erstmal nichts zu tun. Das tippe ich auf einen Lückenfüller, der (je nachdem, was AMD macht) kurz vor oder kurz nach dem Sommerloch kommt, um Gespräch und an der Spitze zu bleiben. So großartig verkauf
Das wird wohl stark von der Sichtweise abhängen, ob das noch ein Gamer-Chip mit HPC Zeugs drin ist, oder ein HPC-Chip, der auch ein Gamer-Chip ist.

Da ich aber aus 2 unabhängigen Quellen gehört habe, das GK110 zuerst als Tesla kommt, würde ich eher auf letzteres tippen.
 
GTX680 - schöne Karte mit schöner Leistung, schönem Stromverbrauch und leider hässlichem Einführungspreis.

Bleibe aber noch bei meiner GTX570, denn die fühlt sich hier wohl bei mir und die ist ja auch erst 14 Monate alt. Wenns ihr mal langweilig wird kriegt Sie eben noch nen Brüderchen,
dann spielen Sie zusammen BF3 und da machts gleich doppelt soviel Spaß zu zweit. Noch kann Sie sich aber ganz gut alleine mit sich beschäftigen und das bleibt hoffentlich noch ne Weile so :D
 
Hmm, wenn die GTX 680 so performant ist, dann kommt sicherlich die GTX 670 in der Leistungsklasse der GTX 580 und die GTX 570 muss sich mit der GTX 660 prügeln. Es ist echt verlockend, aber die GTX 570 stemmt bei mir alles ohne Probleme und irgendwie habe ich das Gefühl, dass es mindestens auch noch 1-2 Jahre so sein wird.
 
Warum das wohl so ist ;)

Tjo, es gibt eben Leute, die wollen das so lesen, wie Sie es wollen. :)

Meine GTX 560 ti muss raus, will eine EVGA GTX 680 mit 8+8pin, will dem Seasonic X-560 Feuer unterm Hintern machen ;)


Aber ob eine GTX 680 bei einem auf 3,91 oder 4,0ghz getakteten Q9550 auch Sinn macht?

Ob dein Q9550 sinnvoll ist eine GTX 680 voll auszulasten ist eine Frage des Settings und der von dir genutzten Games. Wenn Du stets AA und Co. aktivierst und alles auf max hast hängst du meist am GPU-Limit. Und dort macht es sich so gut wie nicht bemerkmar wie stark deine CPU ist, der ist es egal was Du mit der Bildqualität anstellst, sie muss nur die Dreiecke zur verfügung stellen, etwas KI und Physic, das schafft in der Regel jede Quadcore CPU ab 3 GHz. Aber es gibt auch Games welche echt viel CPU Power forden (Stategie), dort dreht dan die GPU däumchen.

PS: Sorry für die "Rechtschreibfehler", aber die Busfahrt ist holprig und der Touchscreen ist klein. Aber biite nicht das schöne Deutsche mit dem Englischen klonen: Es macht Sinn gibt es nicht: Etwas ist sinnvoll oder sinnlos ;)
 
Weil das PCB auf über 200W samt 6+8P ausgelegt ist - NV das aber nicht braucht, da die HD 7970 nicht so schnell war gedacht.
Mich interessierts nur, weil bei 1125 wohl schluss mit OC. Wurde aber der MSI Afterburner verwendet. Daher kanns auch daran liegen.

Mich würde halt nur interessieren, ob die Spannungsversorgung bei Luft/Wasser-Kühlung zu einem Problem werden kann, oder ob selbst dann die Phasen ausreichen. Auf den OC Boards wird ja sonst immer mit Phasen um sich geworfen wie blöd.

Dass das @stock reicht ist mir auch klar, aber grad bei einer GTXx80 ist das Interesse bzgl OC ja doch deutlich vorhanden.

Und noch was, im Test habt ihr son nettes Bild zu ner PCI-E Riser karte. Macht ihr damit eure Verbrauchsmessungen? Oder wie macht ihr das genau. Wäre nämlich durchaus interessant, wie ihr das gelöst habt (möglichst ohne Kabel im Slot :ugly:), und was das für ein Aufwand wäre, dies selbst zu machen.
 
Wie gesagt, das Beispiel BF3 lässt grüßen, da rennt der Q9550 @ 3,91ghz mit der ASUS GTX 560 ti directcu ii @ 950/1900/2200 bei 70-80%. Die GTX 580 würde vielleicht noch 10% mehr Leistung des Q9550 kosten, aber wenn eine 680 schon gute 60% vor der GTX 580 liegt, wie will die dann 60% in Verbindung mit dem Q9550 auch auspielen, da wird die dann von 60% vielleicht 20-30% Leisten können, und dann noch übertakten, hätte wenig Sinn, außer für Folding@home. ^^
 
Mich interessierts nur, weil bei 1125 wohl schluss mit OC.
Das Referenz-Board verkraftet mit LN2 über 1,5 GHz und mit Epower über 1,8 GHz - also da würde ich mir keine Sorgen machen. Mit einem Software-Vmod sollten unter Luft locker 1.400 MHz drin sein - wir kamen im Test ja schon auf 1.299 MHz!

Und noch was, im Test habt ihr son nettes Bild zu ner PCI-E Riser karte. Macht ihr damit eure Verbrauchsmessungen? Oder wie macht ihr das genau. Wäre nämlich durchaus interessant, wie ihr das gelöst habt (möglichst ohne Kabel im Slot :ugly:), und was das für ein Aufwand wäre, dies selbst zu machen.
Das ist ein Extender, damit messen wir die 12V und 3,3V sowie Ampere, die durch den PCI-E gehen. Die Dinger sind iirc nicht wirklich teuer - einen Hunderter oder so.
 
Habe mich lange nicht mehr zu Thema Grafikkarten geäußert...
Mein Wunsch, dass AMD auf 38x Bit Speicherinterfuzzle geht und NV etwas herunter, hat Formen angenommen.
Jetzt zeigt NV der AMD, dass man auf gleichen Pfaden wandeln kann und es irgendwo, mit etwas zeitlichem delay, besser machen kann.

Ich wäre wirklich mal dafür, dass sich in diesen Boxkampf ein Dritter einmischt und ordentlich dazwischen knallt.

Träumen wird man ja noch dürfen...

Irgendwie episch. Diese Schlacht zwischen David und Goliath.

Was ist eigentlich inzwischen aus diesem unlimited-points-grafik Dingens geworden? Kann da nicht einmal ein potenter, technisch versierter Wissenschaftler in Richtung nanobionischer Hinsicht etwas Zaubern, was NV und AMD neuen Wind um die Ohren blasen wird? Vielleicht sogar ein, zwei andere Mitspieler auf den Plan bringt?!

Momentan ist das zwischen AMD und NV doch nichts anderes als kalter Krieg, den die beiden geflissentlich geschickt miteinander austragen.
 
@KreuzAss1985
Ja wer ist David wer Goliath :D
Zu einem 3. Spieler in der Runde wäre nichts einzuwenden, ich glaube Imagination (PowerVR) wollte wieder einsteigen?
Egal wie der 3. Spieler wird es mächtig schwer gegen die beiden Goliaths haben, selbst der ober Goliath Intel hat sich und tut sich noch sehr schwer daran.
 
Eins muss ich noch loswerden: Nvidia ist nicht schneller, sondern hält sich mit AMD endlich mal die Waage. Die Bildqualität ist bei beiden nun ausgezeichnet, manchmal ist die Radeon schneller, manchmal die Geforce. Die Radeon punktet außerdem bei aktuell leicht geringeren Kosten mit der hohen DP-Leistung und SSAA auch endlich in DirectX 10/11.
Ich rechne Nvidia allerdings hoch an, dass sie die SP-Rechenleistung mit nur 0,5 Mrd. Transistoren mehr verdoppelt und die AntiAliasing-Einstellungen im Treiber sinnvoll verbessert haben. Was wird nun passieren?
Werden die 7970 und die GTX 680 beide im Preis sinken oder lassen sie sich voll ausbezahlen? ;)
 
Mich interessierts nur, weil bei 1125 wohl schluss mit OC. Wurde aber der MSI Afterburner verwendet. Daher kanns auch daran liegen.

Mich würde halt nur interessieren, ob die Spannungsversorgung bei Luft/Wasser-Kühlung zu einem Problem werden kann, oder ob selbst dann die Phasen ausreichen. Auf den OC Boards wird ja sonst immer mit Phasen um sich geworfen wie blöd.

Dass das @stock reicht ist mir auch klar, aber grad bei einer GTXx80 ist das Interesse bzgl OC ja doch deutlich vorhanden.

Und noch was, im Test habt ihr son nettes Bild zu ner PCI-E Riser karte. Macht ihr damit eure Verbrauchsmessungen? Oder wie macht ihr das genau. Wäre nämlich durchaus interessant, wie ihr das gelöst habt (möglichst ohne Kabel im Slot :ugly:), und was das für ein Aufwand wäre, dies selbst zu machen.

Das Referenz-Board verkraftet mit LN2 über 1,5 GHz und mit Epower über 1,8 GHz - also da würde ich mir keine Sorgen machen. Mit einem Software-Vmod sollten unter Luft locker 1.400 MHz drin sein - wir kamen im Test ja schon auf 1.299 MHz!

Das ist ein Extender, damit messen wir die 12V und 3,3V sowie Ampere, die durch den PCI-E gehen. Die Dinger sind iirc nicht wirklich teuer - einen Hunderter oder so.

Ist auch schon längst auf der Main.:D
Spannend wird es sicherlich zu sehen, wann die 2GHz Grenze überschritten wird. Für mich ist es keine Frage ob, sondern nur eine Frage der Zeit.;)

MfG
 
Das Referenz-Board verkraftet mit LN2 über 1,5 GHz und mit Epower über 1,8 GHz - also da würde ich mir keine Sorgen machen. Mit einem Software-Vmod sollten unter Luft locker 1.400 MHz drin sein - wir kamen im Test ja schon auf 1.299 MHz!
Ja keine Ahnung, woran es dann am Ende hing bei euch ;)

Aber gut zu wissen. Danke. Da fragt man sich dann aber schon, warum die Custom-OC-Dinger dann teils noch weit aus weiter gehen, wenns praktisch eh kaum einer ausnutzt :ugly: Ich weiß, die LN2 Junkies. Mit dem "EPower"-Board von EVGA ist das aber irgendwie auch überfällig. Da können die ja auch noch modden was Sie wollen. Btw. das sieht schon arg monströs aus mit so nem Ding :hail: Da zieh ich echt meinen Hut vor Leuten, die so was machen, ohne die Karte direkt zu schrotten.

Das ist ein Extender, damit messen wir die 12V und 3,3V sowie Ampere, die durch den PCI-E gehen. Die Dinger sind iirc nicht wirklich teuer - einen Hunderter oder so.
:( Das ist dann doch bischen zu teuer für mich.

Aber vielleicht kann ich meinen Prof. anhauen, der war zuletzt eh begeistert :D
Haste vielleicht ne Typbezeichnung? Wäre dir WIRKLICH dankbar darüber. Zumal son Ding sicherlich eh ganz nützlich wäre im Allgemeinen.
 
Habe mich lange nicht mehr zu Thema Grafikkarten geäußert...
Mein Wunsch, dass AMD auf 38x Bit Speicherinterfuzzle geht und NV etwas herunter, hat Formen angenommen.
Jetzt zeigt NV der AMD, dass man auf gleichen Pfaden wandeln kann und es irgendwo, mit etwas zeitlichem delay, besser machen kann.

Ich wäre wirklich mal dafür, dass sich in diesen Boxkampf ein Dritter einmischt und ordentlich dazwischen knallt.

Träumen wird man ja noch dürfen...

Irgendwie episch. Diese Schlacht zwischen David und Goliath.

Was ist eigentlich inzwischen aus diesem unlimited-points-grafik Dingens geworden? Kann da nicht einmal ein potenter, technisch versierter Wissenschaftler in Richtung nanobionischer Hinsicht etwas Zaubern, was NV und AMD neuen Wind um die Ohren blasen wird? Vielleicht sogar ein, zwei andere Mitspieler auf den Plan bringt?!

Momentan ist das zwischen AMD und NV doch nichts anderes als kalter Krieg, den die beiden geflissentlich geschickt miteinander austragen.


Bin voll deiner Meinung :daumen:
 
Abend wollte mal fragen ob ein alter pII 940 mit 3,4Ghz und DDR 2 noch für eine GTX 680 oder HD 7970 ausreicht.

PS.Zocken durchgehend auf höchsten Einstellungen

THX für Anworten in voraus
 
Alle Reviews sehen die GTX 680 im Mittel vor der HD 7970. "Nvidia ist nicht schneller, sondern hält sich mit AMD endlich mal die Waage" stimmt ergo nicht :P

Toll, wieviel merkt man denn von den wenigen Prozenten in der Realität? Aber ich weis ja wie du es meinst... :ugly: Gerade in MassEffect 2 und Metro 2033 hätte ich mehr erwartet. :D
Man sieht, dass beide GPUs definitiv Potential haben - bei Leistung und Bildqualität. Im Endeffekt kann man sich endlich mal zwischen beiden Herstellern entscheiden ohne irgendwo Abstriche machen zu müssen. :)

PS: Auch von mir ein "danke" für den Test. :daumen:
 
Zurück