Radeon HD 6970: Cayman XT rund 15-20 Prozent schneller als GTX 480 bei mehr als 255 Watt TDP?

255 Watt? Entäuschend. Aber nur legitim dass AMD mit der neuen Karte wieder die Leistungskrone für Single-GPU Karten beanspruchen wird. Das kostet halt. In diesem Fall vor allem Strom. Anscheinend gehts nur mit der Brechstange. Bin ma gespannt, wie die die Abwärme in den Griff bekommen wollen.

So langsam wird die Leistungsaufnahme für GPUs etwas absurd. Zumal ja eh fast nur Konsolenports aufem Markt sind, welche die Leistung der Karten garnicht brauchen.
 
Die HD 6970 hätte dann aber in etwa die selbe Leistungsaufnahme wie eine GTX 480, nur das diese mal angenommen, gut 20% schneller wird. Wenn die GTX 580 20% schneller sein soll als die GTX 480, dann müssen die 20% Leistung irgendwie so erzeugt werden, das der Verbrauch selbst nicht weiter steigt, um der HD 6970 entgegen treten zu können. Wie soll das gehen?

Wenn beide Karten wirklich etwa die selbe Leistung haben werden, ist aktuell rein theoretisch davon auszugehen, das die GTX 580 so oder so mehr als eine GTX 480/HD 6970 verbrauchen wird.

Nein, die GTX 580 wird nicht zwangsläufig mehr verbrauchen als ihr Vorgänger. Mit dem Wechsel von GF100 zu GF104 hat Nvidia bereits ordentlich das fps/Watt-Verhältnis angezogen: neue Anordnung der Shader, SMs usw. sowie die Entfernung stromfressender Komponenten, die eh nur im HPC-Bereich von Bedeutung sind. Da der GF110 auf dem GF104 basieren soll, kann man davon ausgehen dass die GTX 580 ein besseres fps/Watt-Verhältnis haben wird als die GTX 480.

Nehmen wir doch mal GTX 460 und 465 als Vergleich: in etwa gleiche Leistung, letztere hat jedoch eine um 14% höhere Leistungsaufnahme (132 zu 151W in Race Driver: Grid, Werte aus PCGH 09/2010).

Mit noch ein paar weiteren Optimierungen halte ich für die GTX 580 20% mehr Leistung bei ähnlicher Leistungsaufnahme für realistisch.

Original aus der News:

Charlie Demerjian von Semi-Accurate dagegen ist (wenig überraschend?) der Ansicht, die GTX 580 wird ein Paper-Launch um AMD am 22. November (angebliches Release) zumindest ein bisschen in die Parade zu fahren.
Was ist wenig überraschend? Dass die GTX 580 einen Paperlaunch hinlegt oder dass Charlie Demerjian gegen Nvidia wettert? :D
 
255 Watt? Entäuschend. Aber nur legitim dass AMD mit der neuen Karte wieder die Leistungskrone für Single-GPU Karten beanspruchen wird. Das kostet halt. In diesem Fall vor allem Strom. Anscheinend gehts nur mit der Brechstange.

Wie bei der GTX480 ja ebenfalls - da war auch die Brechstange am Werk - im Moment siehts so aus, als hätte AMD aber die dickere Brechstange am Start :ugly:

Wenn der Idleverbrauch gering ist, ist mir der Verbrauch unter Last egal.

Unterschreibe ich mit einem "FAST" dazwischen. Der Idle Verbrauch ist mir auch viel wichtiger da die Karte bei mir in 90% der Fälle dort verweilt aber völlig übertrieben sollte es unter Last auch nicht sein.
 
Wie bei der GTX480 ja ebenfalls - da war auch die Brechstange am Werk - im Moment siehts so aus, als hätte AMD aber die dickere Brechstange am Start :ugly:


Sieht so aus. Dachte, AMD hätte es vielleicht mit der neuen Generation geschafft, die Leistung nicht an ausufernde Trinksitten zu koppeln. Schließlich hatten Sie recht lange Zeit von Nvidias "Fehlern" zu lernen. War wohl nix. Anscheinend gehts nur mit "von nix kommt nix."
 
Sieht so aus. Dachte, AMD hätte es vielleicht mit der neuen Generation geschafft, die Leistung nicht an ausufernde Trinksitten zu koppeln. Schließlich hatten Sie recht lange Zeit von Nvidias "Fehlern" zu lernen. War wohl nix. Anscheinend gehts nur mit "von nix kommt nix."

Sie haben gelernt das trotz der hohen Aufnahme von Strom viele Karten verkauft werden und Nvidia weiterhin die Graka-Krone aufhaben wird (Verkaufszahlentechnisch gemeint)...trotzdem ATI...(bis jetzt) weniger Strom verbrauchte...Also was solls.
 
Die dickste Brechstange hat ASUS feat. AMD , mit ihrem Monster HD 5970 4 GB und bis zu 500 Watt verbrauch! :ugly:

Aber nur, weil man so ein Monster wegen noch viel höherem Verbrauch mit zwei vollwertigen GF100 auf einer Platine nicht bauen kann, die bräuchte dann 650W :-D
Wenn das möglich gewesen wäre gäbs das Ding sicher auch schon^^
 
hmm wenn sich die 6950 etwas von der 5870 absetzen kann und eine bessere Tesslation hat und 200 Watt TDP auskommt glaub ich werd ich mir soetwas holen dürfte auch langen ;)
 
ich hab doch gleich gesagt gleiche fertigung => kein wunder :P


bin ich mit ner GTX 480 35%OC dann evtl sogar sparsamer ?!?!? also eine bessere Leistung/ Watt ?!?!?! als die neue ^^ ?!?! :p


lalala ich rüst erst auf wenn se die 300 watt marke brechen ^^ oder kleiner fertigen :P


warum nur so wenig gpu X points ?!?!? im extreme mode hab ich 12742 Punkte bei 1920x1200 ohne PhysX
 
Zuletzt bearbeitet:
hmm wenn sich die 6950 etwas von der 5870 absetzen kann und eine bessere Tesslation hat und 200 Watt TDP auskommt glaub ich werd ich mir soetwas holen dürfte auch langen ;)

das wäre bei mir auch noch so eben die oberste grenze. ich hoffe mal, dass die nicht für über 300 taler rausgeht...
 
Also wurde letzendlich nur eine neue Klase hinzugefügt ? :what: :huh:

....die es zuvor schlicht und einfach nicht gab, JA ;). AMD hatte ja zur 5000er Zeit versucht die doch recht große Lücke zwischen HD5770 und HD5850 mit der HD5830 zu schließen, was aber in Angesicht von Verbrauch und Kosten im allgemeinen eher schlecht als recht gelang ;).

Im allgemeinen möchte ich hoffen das AMD nun auch bei dem Schema bleibt, so gefällt es mir deutlich besser und AMD braucht dann auch nicht mehr solche "Krüppel" wie HD4830 und HD5830 zu bringen :-).
 
ab einem gewissen punkt kann man bei gewissen strukturbreiten die effizienz nicht steigern und dies scheint langsam einzutreten bzw. lässt sich die leistung nicht mehr steigern ohne das der stromverbauch exorbitant steigt :ugly:
da müssen wir einfach auf die nächsten Generationen warten wenn wir weniger Strom verbrauchen wollen.

Ansonsten find ich es mal nice das jetzt AMD Nvidia penetrieren kann, heißt die nvidia deppen werden verzweifeln und einfach eine unfertige Karte auf den Markt werfen die 50% mehr verbaucht als die 480GTX und 30% mehr Leistung hat xD :lol: oder die haben aus den fehlern gelernt was ich irgendwie hoffe ^^
 
hmm wenn sich die 6950 etwas von der 5870 absetzen kann und eine bessere Tesslation hat und 200 Watt TDP auskommt glaub ich werd ich mir soetwas holen dürfte auch langen ;)


Genau auf sowas warte ich auch gerade. Sollte sie unter 200 Watt TDP und nicht teurer als 300€ sein, wird sie gekauft. Ich schätze mal, das wird auch so sein. Schneller als eine HD5870 wird die HD6950 sicher werden, da brauchen wir uns wohl keine Sorgen zu machen. Schon die HD6870 kommt ja nah an die HD5870 heran. Mit größerem Chip, 4D-Shadern und mehr TDP wird die HD6950 das sicher schaffen. Dazu die verbesserte Tesselationsleistung, die mir sehr wichtig ist, weil Tesselation so ziemlich das einzige ist, was mich momentan an DX11 neben einer verbesserten Performance interessiert.

Ich bin schon SEHR auf Tests gespannt, damit ich meine GTX260 AMP² endlich in Rente schicken kann. :daumen:
 
Nein, die GTX 580 wird nicht zwangsläufig mehr verbrauchen als ihr Vorgänger. Mit dem Wechsel von GF100 zu GF104 hat Nvidia bereits ordentlich das fps/Watt-Verhältnis angezogen: neue Anordnung der Shader, SMs usw. sowie die Entfernung stromfressender Komponenten, die eh nur im HPC-Bereich von Bedeutung sind. Da der GF110 auf dem GF104 basieren soll, kann man davon ausgehen dass die GTX 580 ein besseres fps/Watt-Verhältnis haben wird als die GTX 480.

Das Problem ist aber eben, dass das Verhältnis nicht linear ist. Je mehr Performance man will, desto stärker steigt der Stromverbrauch an. Das kann man doch auch beim GF104 beobachten, den man zwar auf GTX 470 Niveau takten kann, aber dann ist man mit dem Stromverbrauch unter Last auch schon wieder in der gleichen Liga mit der GTX 470, aber nicht in Sachen Tesselation.

Nehmen wir doch mal GTX 460 und 465 als Vergleich: in etwa gleiche Leistung, letztere hat jedoch eine um 14% höhere Leistungsaufnahme (132 zu 151W in Race Driver: Grid, Werte aus PCGH 09/2010).

Mit noch ein paar weiteren Optimierungen halte ich für die GTX 580 20% mehr Leistung bei ähnlicher Leistungsaufnahme für realistisch.

...

Die GTX 460 mit der 465 zu vergleichen ist wenig sinnvoll. Der GF 104 ist zwar auch teildeaktiviert, aber die 465 ist eine teildeaktivierte 470, welche eine teildeaktivierte 480 ist, welche ein teildeaktivierter GF100 ist (weil die 512 Shader parts gibts ja immer noch nicht für Gamer zumindest). Je mehr ein Chip "gekrüppelt" ist, desto schlechter auch die Effizienz, was man auch bei der 5830 von ATI beobachten kann.

Solche Chips eigenen sich aber dann kaum um die Effizienz einer Architektur festzustellen.
 
Das Problem ist aber eben, dass das Verhältnis nicht linear ist. Je mehr Performance man will, desto stärker steigt der Stromverbrauch an. Das kann man doch auch beim GF104 beobachten, den man zwar auf GTX 470 Niveau takten kann, aber dann ist man mit dem Stromverbrauch unter Last auch schon wieder in der gleichen Liga mit der GTX 470, aber nicht in Sachen Tesselation.
Den Takt zu erhöhen ist nicht das selbe wie zusätzliche Funktionseinheiten dazu zu packen. Im Detail kenne ich mich zwar dafür nicht genug aus, aber meiner Einschätzung nach steigt die Leistungsaufnahme überproportional bei einer Takterhöhung (erst recht, wenn dabei auch noch Spannungen heraufgesetzt werden, aber das nur nebenbei).


Die GTX 460 mit der 465 zu vergleichen ist wenig sinnvoll. Der GF 104 ist zwar auch teildeaktiviert, aber die 465 ist eine teildeaktivierte 470, welche eine teildeaktivierte 480 ist, welche ein teildeaktivierter GF100 ist (weil die 512 Shader parts gibts ja immer noch nicht für Gamer zumindest). Je mehr ein Chip "gekrüppelt" ist, desto schlechter auch die Effizienz, was man auch bei der 5830 von ATI beobachten kann.

Solche Chips eigenen sich aber dann kaum um die Effizienz einer Architektur festzustellen.
Hier muss ich dir recht geben, Karten sind mit teildeaktivierten Bereichen sind wohl besonders ineffizient - vermutlich stehen die Bereiche trotz Stilllegung dennoch unter Strom. Mein Vergleich war doch nicht zutreffend.
 
Zurück