Erster Test der Nvidia GeForce GTX 680 aufgetaucht! AMDs Radeon HD 7970 geschlagen?

Status
Für weitere Antworten geschlossen.
Irgendjemand hat ja schon öfters die Leaks gepostet wo die Karten auf über 1100MHz übertaktet wurden.

Das Stock Takt von 1006MHz sagt ja gar nichts über die Übertaktbarkeit aus.
 
Irgendjemand hat ja schon öfters die Leaks gepostet wo die Karten auf über 1100MHz übertaktet wurden.

Das Stock Takt von 1006MHz sagt ja gar nichts über die Übertaktbarkeit aus.

Die Leaks könnten auch gefaket sein...... :D Es hat doch niemand behauptet das der Stock-Takt was über die Übertaktbarkeit aussagt....:( <--- oder irre ich mich da
 
das wäre ja auch falsch. Nvidia hat den Takt so nach oben geschraubt um zu zeigen das sie schneller als AMD sind!


Ja aber das kann man erst sehen wenn man weiß wie sie sich übertakten lässt...
Wenn sie sich z.B. nur 100MHz übertakten lässt, dann weiß man das es so ist das Nvidia da was hochdrehen musste... (Beispiel)

AMD könnte dann natürlich noch ein wenig kontern und die Karten mit mehr Coretakt & Speichertakt ausliefern lassen ;) Dann währen beide wieder gleichauf :daumen: Wie gesagt "könnte"
 
Ich denke sie haben den Takt so hoch geschraubt weil sie es einfach mit dem GK104 machen können. Kein Hersteller kann es sich erlauben eine bis ans Limit übertaktete Karte zu bringen, denn das kann uU zu massiven Problemen führen (Stabilitätsprobleme, Hitzetod in schlecht belüfteten Gehäusen usw.).
Deswegen kann man davon ausgehen, dass der GK104 auf jeden Fall noch Potenzial zum übertakten hat und eben nicht am Limit getaktet ist mit den 1006 MHz.
 
Ich denke sie haben den Takt so hoch geschraubt weil sie es einfach mit dem GK104 machen können. Kein Hersteller kann es sich erlauben eine bis ans Limit übertaktete Karte zu bringen, denn das kann uU zu massiven Problemen führen (Stabilitätsprobleme, Hitzetod in schlecht belüfteten Gehäusen usw.).
Deswegen kann man davon ausgehen, dass der GK104 auf jeden Fall noch Potenzial zum übertakten hat und eben nicht am Limit getaktet ist mit den 1006 MHz.

Das hätte AMD ja auch machen können nur die wahren ja zu (blöd) zu sehen was ihre Karten noch an Luft haben bis die mal an die Grenzen kommen!
1100MHz sind da ja min. locker drinne aber naja... Immer muss man selbst Hand anlegen :D
 
Die Leaks könnten auch gefaket sein...... :D Es hat doch niemand behauptet das der Stock-Takt was über die Übertaktbarkeit aussagt....:( <--- oder irre ich mich da


Auf mehreren Seiten wird behauptet, dass nV den Takt nur so hoch angesetzt hat um die 7970 überhaupt schlagen zu können. Das meinte ich damit. Aber streetjumper16 hat das ja schon klar gestellt.
 
Sie werden wohl ihre Gründe dafür gehabt haben, denke ich. Aber gut, was will man von einem Karnevalsverein wie AMD erwarten :D:D


Also ich kenne da keinen Grund! Jetzt machen es eben die einzelnen Hersteller selbst und verpassen den Karten ihr eigentliches Potenzial :D
Cook halt dich zurück... AMD ist kein Karnevalsverein... :fresse:
 
Ja und nämlich nicht zu wenig:
Hallo 800 Mio Transistoren weniger, 1500 vs 2000 shader, 50 Watt weniger Verbrauch, 256 bit vs 384 bit Speicherinterface, deutlich weniger Speicherbandbreite und TROTZDEM schneller bis gleich schnell?
Hallo, es wird also schön langsam klar, warum der Grafikchiparchitekt gehen musste.
Und an all diejenigen die mit dem Argument "Overclocking" kommen. Wo kann man wohl noch mehr rausholen mit overclocking: bei der Karte die schon mit deutlich höherer TDP startet oder der anderen? Außerdem vergleicht man Karten Stock vs Stock und nicht in irgendwelchen Spezialsettings.

@M4xwolf: stimmt schon, aber selbst ein knapper Gleichstand wäre schlimm, denn es zeigt eindeutig, dass Nvidia mit ihrem Design mehr Luft nach oben hätten, da sie diesen gleichstand bei weniger Hardwareeinheiten (= weniger Chipfläche und somit billigeren Chips) sowie weniger Speicherbandbreite etc erreichen. Egal was AMD nachlegt, man könnte es leicht übertrumpfen.

naja man hat 3x so viele Shader aber die shader von Fermi waren dafür 3x so hoch getaktet.
Jetzt hat man die Shaderausführung die auch ATI hat: wo Chip und Shader gleich takten. Jetzt kann man deren Effizienz eigentlich sehr gut vergleichen. Und man sieht in diesem Vergleich (1500 Shader vs 2000 Shader) einen Sieger
Eric Demers ist sicher nicht deswegen gegangen Rollora. Ansonsten hätte der Logik nach Nvidia die letzten Jahre gar keine Arbeiter und Manager gehabt.
Die Sache mit leicht nachlegen stimmt auch nicht zweifelsohne. Eins muss ich klar zugeben, Nvidia hat das ausgewogenere Design, aber nach belieben kann man ein Design nie skalieren. AMD ist mit Cayman der Stromverbrauch auch durch die Decke geschossen, obwohl ja das Design ordentlich mithalten konnte, aber bei der Skalierung hat eben nicht alles gepasst und man hat viele Bereiche von der Optimumskurve verlassen.

Wäre auch wieder so: bei 20% weniger Transistoren gleiche bis mehr Leistung.
Zumal es bei AMD schön langsam lächerlich sinnlos werden würde, wenn die noch eine Workstation-GPU bringen würden. Die haben dort sowieso nix verloren.
So oder so bei 83% mehr Fläche könnte man schon mit 1 Chip jegliches 2-Chip Flagschiff von AMD schlagen
Wie oben ausgeführt stimmt es nicht ganz. Und gerade bei den Workstations hat AMD viel verloren, weil die dort noch keinen guten Standfuß haben und massiv aufholen sollten, um auch die wichtige Softwarelandschaft gedeihen zu lassen.

Pitcaim scheint eher der Gegner für GK104 zu werden, als Tahiti XT, wenn man jetzt mal von der absoluten Perf ab sieht, wobei Pitcaim da ja auch nicht soo weit hinten an steht.
1. Paitcairn Skysnake :D
Das ist mir schon bei deinen letzten Beiträgen aufgefallen, aber jetzt bin ich mir sicher das du den Namen falsch schreibst.
2. Wird Tahiti wohl der Gegner vom GK104 und die Salvage GPUs von ihm, die Gegner von Tahiti Pro und Pitcairn XT.
Pitcairn ist wohl noch einen Tick besser, als ein GK104 aber bei der Performance bewegt er sich leider schon zu weit weg, um als "richtiger" Vergleichspartner bereit zu stehen.
Die 680 GTX trifft einfach den Sweet Spot von Einheiten, Takt und Leistungsaufnahme nahezu perfekt. Aber das hast du auch schon erwähnt. Interessant ist natürlich wie sehr Nvidia ihn verkrüppelt hat, aber auf jeden Fall sollte er gar keine vernünftige DP-Fähigkeit besitzen. Meinten die Chinesen nicht auch 1/16 DP?


Wie ich schon seit langem sage. Wir werden nach Fermi sicherlich eine noch stärkere Differenzierung sehen zwischen den Produkten. Die Mitteklasse als reine 3D-Gamer-Karte und das Topmodell mit einer immer stärkeren GPGPU-Ausrichtung, wobei diese noch immer die schnellste Karte am Markt ist, aber eben nicht so deutlich, wie man erwarten könnte. AMD zieht ja genau das gleiche Modell mit Tahiti und Pitcaim durch, nur wird nVidia hier wohl noch weiter gehen mit dieser Generation, was das Splitting betrifft.
Genau das gleiche sage ich auch :P

Weil du verdammt große Stückzahlen da absetzen kannst, und damit die Fixkosten schön aufteilen kannst, was dann die Marge an anderen Produkten erhöht?
Dein Beitrag lass sich eher so, als würde ein Produzenten mehr verlieren, als gewinnen wenn er an Apple liefern würde :ugly:
Man sollte lieber AMD fragen, wie sehr sich das mit Apple gelohnt hat, ganz so negativ bin ich da nicht eingestellt und will mir auch kein spekulatives Urteil fällen, weil niemand kennt die Verträge und die Margen, die den IHVs noch übrig gelassen werden.
Ich denke es gibt auch für AMD und Nvidia auch andere Abflussrohre für Fixkosten, außer ein Deal mit Apple.

Soweit ich weiß haben die dort noch kein Plus machen können.
Also wie gesagt, ich meine das letztes Jahr Nvidia das erste mal ein + verzeichnen konnte.

Ich teile da auch nicht deine Einschätzung, da ja die Vorzeichen eher schlechter stehen, als mit Tegra 2. Zudem ist, soweit ich das verstanden habe, der Tegra3 gar nicht der ursprünglich geplante Tegra3, sondern ein neuer Zwischenschritt, oder hat sich das auf Tegra2 bezogen?
Von Zwischenschritten habe ich noch nie etwas gehört. Tegra 3 ist ja fertig entwickelt und ich sehe auf den ersten Blick keine nennenswerten Veränderungen.

Ja, wobei es, wie ich schon gesagt hab, schwer zu sagen ist, wer da jetzt mehr getan hat. Es haben beide, wie es scheint sehr viel getan. Mehr als in so manch anderer Generation, oder gar zwei.
Nvidia hat mich überrascht. Für Kepler hatte ich weniger erwartet.

Die Rede ist natürlich bei einer reinen Spielergpu :schief:
So wie dieser Vergleich ja eigentlich auch zwischen 2 Spielergpus ist und nicht einer Spielergpu und einer Professionellen, oder? Oder hat die 7970 jetzt so viel Professionellen Kram mit onboard, welchen der GK 104 nicht hat? Und wenn ja: dann nehme ich natürlich alles zurück und man macht hoffentlich dasselbe bei AMD wie damals bei 58xx Serie auf 69xx. Nämlich den ganzen Kram raus.
Es gibt eigentlich keine "Spiele GPU" oder "profissionelle GPU" im architektonischem Sinne. Noch ist alles ein Kompromiss für die Eignung bei mehreren Bereichen. AMD und Nvidia können sich kein GPU-Design leisten, was einzig und allein von den Einnahmen aus der jeweiligen Sparte leben soll. Es ist auch zu gewissen Graden einfacher, ein Design zu skalieren und zu beschneiden, als zwei getrennte für verschiedene Workflows an zu fertigen. AMD ist wohl einfach noch nicht in der gleichen Lage wie Nvidia eine Game orientierte GPU auf den Markt zu lassen und später eine mit dicker Bandbreite, viel Caches etc.
Skysnake hatja schon erwähnt, was an GPGPU Einheiten der Tahiti mehr hat, wobei du nocht die DP-Fähigkeit dazu rechnen könntest.


Das mag alles schön und gut sein, aber AMD wird trotzdem irgendwann mal lernen müssen, dass im Professionellen Bereich das Rennen auch über treiber gemacht wird. Und egal wie viele Vergleiche ich mir noch anschaue, seit Jahren sind selbst die Nominell langsameren Nvidiachips vor den im Desktopbereich schnelleren AMD Chips, weil der Herstellersupport und die Treiber bescheiden sind.

Dass es THEORETISCH Performance bringt ist schön und gut, zählt aber nur was letzten endes auf der Straße landet


Und ich erklär dir nochmal, weil du wie in jeder Diskussion wieder mal besonders begriffsstützig bist:
wenn man etwas hat, was effizienter ist, dann geht diese Effizienz nicht verloren.
Sprich: wenn jetzt der GK 104 effizienter ist und der GK 110 nicht mehr wegen dem "vielen" zeug was Gamer nichts bringt, dann lässt man das in einer Desktopvariante halt raus, sofern man unbedingt will, dass man AMD wieder schlägt. Denn, und das scheinst du einfach nicht zu kapieren:
Wenn man 2 Desktopchips hat, der eine braucht weniger strom, weniger Chipfläche und ist trotzdem schneller und der andere eben nicht, dann ist der eine effizienter.
Wenn jetzt die andere Firma einen schnelleren Chip bringt kann das die eine, die sowieso schon macht, dasselbe spiel spielen und bekommt dadurch aber einen immer größeren Vorteil.
Da du diesen Fakt einfach nicht wahrhaben willst und wieder mal beim "ich muss krampfhaft rechthaben" Modus bist, ignoriere ich deine Posts mal wieder eine Weile, da eine sinnvolle und ernsthafte Diskussion mit dir einfach nicht möglich zu sein scheint.
AMD gewinnt da wenig an Erkenntnis dazu, hat wohl einfach nicht die Möglichkeiten das auch zu schaffen.
Theoretisch Rollora kommt da gar nichts auf die Straße, sondern sofort praktisch. Im GPGPU-Bereich wohlgemerkt. Auf der Gamerstraße bringt das ein oder andere kaum etwas.
Zu deinem GK104 zu GK110 Vergleich, habe ich ja schon oben ausgeführt das ein Design sehr wohl Effizienz verlieren kann. Wenn du dir jetzt auch Pitcairn vs. Tahiti anschaust, dann wirst du relativ schnell merken, dass die Effizienz im Spiele-Bereich schnell flöten gegangen ist. Aber du hast dennoch zum Teil recht, weil Nvidia einfach ein wunderbar skalierbares Design auf die Beine gestellt hat, wo die Versorgung wohl einfach besser klappen sollte und AMD wohl noch mehr in Rückstand bringen könnte.
Und rauslassen kann man aus einem GK110-Design nichts für den Retail-Markt. Das wäre zu aufwendig. Die gängigste Praxis ist wohl eine Beschneidung bei DP und die Deaktivierung von ECC, um Performance nicht unnötig zu verlieren.

Je nach Bereich, ist AMD schon lange deutlich besser als nVidia. Es kommt halt immer aufs Problem an. Im Durchschnitt ist nVidia durchaus vorne, aber das interessiert da keine Sau. Da schaut man sich sein Problem an, und nimmt dann das was am Besten ist, egal was drauf steht.
Wir werden jetzt sehen müssen, ob AMD die ein oder andere Paradedisziplin nicht verlieren wird. Ich frage mich jetzt wirklich, ob der 680 GTX jetzt wirklich beschnitten ist oder nicht, ansonsten wird es eine lange Wartezeit bis man Vergleiche ziehen kann.
 
gtx580 war doch auch gut ;) und gtx 285 auch, und gtx 8800 auch

Von der Leistung ja, aber zu welchen Preis? Die GTX580 verbraucht einfach viel zu viel. Die GTX285 war auch nicht schlecht und die 8800GTX war aus meiner Sicht das Beste was NV jemals gebaut hat. 2 8800GTS habe ich noch liegen.

Die GTX680 muss sich erst noch beweisen in Offiziellen Benchmarks.
 
HI Leutz

Ich hab mir den ganzen Thread reingezogen :klatsch:

Wenn ich das immer lese von den Leuten (Fanboys) , : Fürwas brauch man sone Leistung , ich kann mit meiner 5850 oder 480 gtx alles flüssig zocken auf Full-HD und alles auf maximale Einstellungen , da ruckelt nix omg :klatsch:.............. Dann spiel mal mafia2 mit physics high max einstellungen auf full-HD , oder Stalker clearsky - maximale Einstellungen mit dynamische bel. aller objeckte , sonnenschatten etc und meinetwegen noch Sichtweite nach oben mit AA +AF , da brricht selbst meine 560ti- 448 dermaßen ein , unspielbar . Das sind nur einige Beispiele

Also labert hier kein S....ß . Jagut , wenn 20-24 fps für die Leute flüssig ist , Weil das menschliche Auge ja eh nur 24 Bilder pro sekunde wahrnehmen kann :lol: dann gut .....
 
Zuletzt bearbeitet:
Das sind doch mal Werte, die mir gefallen:D (wenn sie kein Fake sind)

Benchmarks: GeForce GTX 680 im SLI-Gespann

Wenn man bedenkt, dass es für die Karten vermutlich noch keine angepassten Treiber und Profile gibt, dann sind das durchaus ansehnliche Werte.

Aber, wie man im Moment auch auf der Startseite des 3dcenter sehen kann, sind zwei GTX680@1150 MHz nicht schneller als ein 7970-Gespann das ebenfalls um 150 MHz (auf 1075 MHz) übertaktet wurde.

Edit:
Overclock.net hat offenbar eine erste Ladung erhalten, der Preis soll in etwa gleich dem der HD7970 sein.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück