Radeon HD 6970: Cayman XT rund 15-20 Prozent schneller als GTX 480 bei mehr als 255 Watt TDP?

Die größte Befürchtung, meiner Meinung nach, sollte bei einer hohen Leistungsaufnahme eine extreme Abwärme sein. Ich denke damit bin ich nicht der einzigste hier.

Ich finde es interessant wie AMD einfach sagt: "Wenn wir nicht die schnellste SGPU haben, dann ist es einfach kein Highend-Chip." (gut das ist vielleicht ein wenig überspitzt, aber naja).

völlig inakzeptabel... alles was mehr als einen 6-Pol Stromstecker braucht kommt nicht in meinen Rechner



WTF:ugly::fresse:

Gruß SaKuL

100% Zustimmung :D
 
Den Takt zu erhöhen ist nicht das selbe wie zusätzliche Funktionseinheiten dazu zu packen. Im Detail kenne ich mich zwar dafür nicht genug aus, aber meiner Einschätzung nach steigt die Leistungsaufnahme überproportional bei einer Takterhöhung (erst recht, wenn dabei auch noch Spannungen heraufgesetzt werden, aber das nur nebenbei).
...

Ist auch richtig, aber das Problem ist dann auch die Chipfläche und auch hier verhält sich die Sache nicht linear. 10 % größerer Chip =! 10% höhere Chance auf einen "Fehler" sondern eben mehr. Je mehr Funktionseinheiten, desto größer der Chip etc.
 
Im Winter, wenn im Zimmer ein eisiger Luftzug hindurch weht, weil die Fenster kurz an gekippt sind um zu lüften, ist das wirklich sehr, sehr angenehm. :D

Der Effekt wird immer besser, wenn man sich die Entwicklung so anschaut. :ugly:
 
Nur weil etwas im Desktop- und nicht im Mobilbereich angesiedelt ist, ist es deswegen noch lange nicht High End. Stromverbrauch zählt also sehr wohl im Desktopsegment.

Daher wäre in meinen Augen auch eine HD 6970 mit einer Leistungsaufnahme von über 250 Watt ein Fail. Unter 200 Watt sollte man schon bleiben. Aber genießen wir dieses Gerücht ohnehin mal besser mit Vorsicht.

Natürlich ist Desktop nicht unbedingt gleich High-End...

...eine 300€+ Karte, die die Leistungskrone hält schon...

Im Mobilsegment zählt Stromverbrauch auch in der High End Klasse, da dort eine Karte mit höherer TDP größere und schwerere Kühler benötigt und den Akku leersaugt- was der Mobilität nicht gerade gut tut...

Am Desktop zählt im High-End Bereich dagegen nur Leistung; Strom kommt aus der Steckdose und spätestens eine WaKü kann die Abwärme jeder aktuell denkbaren Karte bändigen

Am lustigsten finde ich in dem Zusammenhang jene, die mit einem GTX 460 SLI (320W TDP Ref.) oder HD 5770 CF (216W TDP Ref.) daherkommen und den Stromverbrauch der GTX 480 flamen...

Ich finde es interessant wie AMD einfach sagt: "Wenn wir nicht die schnellste SGPU haben, dann ist es einfach kein Highend-Chip." (gut das ist vielleicht ein wenig überspitzt, aber naja).
Ich kann AMD hier nur voll zustimmen und bin froh, dass es das aktuelle Rennen um die Single GPU Krone gibt-

warum?

Im High-End Bereich sind GraKas aktuell in fast allen Spielen ganz klar der Bremsklotz; wer das restliche System voll ausreizen will muss zu einer dual oder gar tripple GPU Lösung greifen- mit den bekannten Problemen; hier ist es natürlich sehr interressant diese Schwachstelle aktueller High-End Systeme auszumerzen

Wie oft hört man hier Aussagen wie:"Ein Phenom II 955BE reicht für eine GTX 480" "Einen i7 980XE braucht man nicht zum zocken"- warum? Nicht, weil man es wirklich nicht braucht sondern einfach weil die GraKas hier soweit begrenzen, dass es tatsächlich kaum sinnvoll ist noch mehr in die übrigen Komponenten zu investieren

Naja, im Notfall (50°C im Zimmer) kann man immer noch...
... eine Klimaanlage einbauen
... einen externen Radiator verwenden und bem Fenster hinaushängen
 
Zuletzt bearbeitet:
255w hören sich vielleicht erstmal viel an ist aber noch immer weit weniger als eine gtx 480 verbraucht. man kann die tdp angaben von amd und nvidia eben nicht vergleichen.
die tdp bei amd karten gibt den furmark verbrauch an während die tdp bei nvidia karten den verbrauch in spielen angibt...
 
Natürlich ist Desktop nicht unbedingt gleich High-End...

...eine 300€+ Karte, die die Leistungskrone hält schon...

Im Mobilsegment zählt Stromverbrauch auch in der High End Klasse, da dort eine Karte mit höherer TDP größere und schwerere Kühler benötigt und den Akku leersaugt- was der Mobilität nicht gerade gut tut...

Am Desktop zählt im High-End Bereich dagegen nur Leistung; Strom kommt aus der Steckdose und spätestens eine WaKü kann die Abwärme jeder aktuell denkbaren Karte bändigen

Am lustigsten finde ich in dem Zusammenhang jene, die mit einem GTX 460 SLI (320W TDP Ref.) oder HD 5770 CF (216W TDP Ref.) daherkommen und den Stromverbrauch der GTX 480 flamen...


Ich kann AMD hier nur voll zustimmen und bin froh, dass es das aktuelle Rennen um die Single GPU Krone gibt-

warum?

Im High-End Bereich sind GraKas aktuell in fast allen Spielen ganz klar der Bremsklotz; wer das restliche System voll ausreizen will muss zu einer dual oder gar tripple GPU Lösung greifen- mit den bekannten Problemen; hier ist es natürlich sehr interressant diese Schwachstelle aktueller High-End Systeme auszumerzen

Wie oft hört man hier Aussagen wie:"Ein Phenom II 955BE reicht für eine GTX 480" "Einen i7 980XE braucht man nicht zum zocken"- warum? Nicht, weil man es wirklich nicht braucht sondern einfach weil die GraKas hier soweit begrenzen, dass es tatsächlich kaum sinnvoll ist noch mehr in die übrigen Komponenten zu investieren


... eine Klimaanlage einbauen
... einen externen Radiator verwenden und bem Fenster hinaushängen

das heisst für mich mit einem übertakteten X6 muss ich ja zwei 6990 nehmen ;) also ich finde so sachen wie 955er @ 3,2GHz und ne GTX 480 sind schon absolute Untergrenze was den CPU betrifft und ein SYS mit einem 980X und einer GTX 480 ist durchaus gerechtfertigt wenn es nur zum Gamen sein soll
 
Die GTX 460 mit der 465 zu vergleichen ist wenig sinnvoll. Der GF 104 ist zwar auch teildeaktiviert, aber die 465 ist eine teildeaktivierte 470, welche eine teildeaktivierte 480 ist, welche ein teildeaktivierter GF100 ist (weil die 512 Shader parts gibts ja immer noch nicht für Gamer zumindest). Je mehr ein Chip "gekrüppelt" ist, desto schlechter auch die Effizienz, was man auch bei der 5830 von ATI beobachten kann.

Solche Chips eigenen sich aber dann kaum um die Effizienz einer Architektur festzustellen.

Das stimmt so nicht ganz. Es werden bei deiner sogenannten "Verkrüppelung" immer die schlechtesten Sektoren eines Chips abgeschaltet. Diese stehen dann natürlich, entgegen der Vermutung deines Nachredners, nicht mehr unter Strom. Der Grund, warum die HD5830 mehr Strom verbraucht als die HD5850 ist nicht etwa eine Clusterabschaltung, sondern eine andere Herangehensweise. Es wurden bei dieser Karte von AMD mehr Sektoren deaktiviert als eigentlich nötig und dann wurde eine Taktratenerhöhung vorgenommen, um die Leistung auf das entsprechende Niveau anzuheben. Daher ist die HD5830 im FPS/Watt-Verhältniss schlechter als eine HD5850. Dies kannst du auch in entsprechenden Fachartikeln nachlesen. Warum AMD so gehanelt hat, ist mir nicht klar. Eventuell zuviel Ausschuß bei der Chipherstellung (Resteverwertung).

Also gilt eher die Regel, dass ein Chip mit zunehmender Sektorendeaktivierung immer effizienter wird. Die CT hatte vor kurzem einen sehr interessanten Artikel zu dem Thema, ich glaube in der August-Ausgabe diesen Jahres.

Eigentlich wollte ich garnicht mitdiskutieren, aber der besagte Artikel hatte eben genau mit eurer Vermutung zutun.
 
Alles schön und gut mit den ca. 20% mehr Leistung als die GTX480. Aber entweder hat ATI aus den Fehler Nvidias nichts gelernt, oder es muss ein exzellenter Kühler darauf sitzen.

Schließlich kann jeder anhand des Standards bei Nvidia fühlen und vor allem hören, was es bedeutet 250 Watt Strom abzukühlen. Eine ATI mit möglichen 250+ Watt Stromverbrauch, wird nicht leise zu kühlen sein, geschweige denn gleichzeitig auf niedrige Temperatur zu halten.
 
263934d1283082632-amd-radeon-hd-6000-start-im-oktober-erster-3dmark-wert-einer-hd-6870-55199758201008290332101427283860315_000_533x800.jpg


http://extreme.pcgameshardware.de/user-news/115381-weitere-benchmarks-der-hd6870-neues-pcb-bild.html

Da habt ihr die benchmarks der 6970 (damals noch 6870)

Edit:

Eine übertaktete GTX480@ 775/1550/1900 schafft @ 1920x1080 4xAA/16xAF Tess. Extreme 18,2 FPS Min/32,6 FPS Avg/70,5 FPS Max

http://www.hardwareluxx.de/communit...-mit-frameverlaeufen-720931.html#post14714781

im Vergleich HD 6970 vs GTX480 OC
+20,8% Min FPS/ +12,2% Avg FPS/ -0,4 Max FPS

Edit2:

Wenn man auf standart takt runter rechnet und die GTX480 Linear zum Takt skaliert dann sind es sogar Beachtliche,
+31,4% Min FPS/ +22,4% Avg FPS/ +7,1 Max FPS
Mehr Leistung und damit würde vllt nur noch die GTX 580 der HD6970 das Wasser reichen können ,wenn nicht sogar um ein Paar % schlagen.
 
Zuletzt bearbeitet:
Genau auf sowas warte ich auch gerade. Sollte sie unter 200 Watt TDP und nicht teurer als 300€ sein, wird sie gekauft. Ich schätze mal, das wird auch so sein. Schneller als eine HD5870 wird die HD6950 sicher werden, da brauchen wir uns wohl keine Sorgen zu machen. Schon die HD6870 kommt ja nah an die HD5870 heran. :daumen:

Nicht so wirklich, bis zu 21% langsamer ! Im schnitt sind es 10%


Radeon HD 6870 und HD 6850 im Test - Frontalangriff auf GeForce GTX 460 - Tests bei HardTecs4U
 
nah 20% schneller als ne gtx 480 ist jetzt auch nicht so viel,ist mir doch egal ob ich 60 oder 70 fps habe im game.erstmal abwarten ob amd überhaupt an die Leistung der gtx 480 herankommt und was die Karte dann kostet.die gtx 480 ist schon sau schnell genug.ich denke mal das die Karte vollkommen ausreicht.

ne gtx 480 ultra mit 900 MHz und 2 gig ram sowie 512 Kerne würde mir mehr gefallen als ne gtx 580.Stromverbrauch ist in der Klasse eh Latte.
 
Zuletzt bearbeitet von einem Moderator:
Da werf ich auch mal meine Münze ins Glas. Ich denke NV wie AMD werden soviel wie möglich und nötig aus ihren Chips verbannen, um bei akzeptabler Stromverschwendung eine Mehrleistung zu "Vorgängergeneration" in Spielen zu erzielen. Sind seit G80 und R600 nur Evolotionsstufen *gähn*.
Bin gespannt und freue mich auf ein feuchtfröhliches Patt
 
ich hoffe mal das gleich eine Version mit Wasserkühler rauskommt, muß ich nicht erst umbauen und die Garantie ist auch nicht weg.:hail:
 
Das stimmt so nicht ganz. Es werden bei deiner sogenannten "Verkrüppelung" immer die schlechtesten Sektoren eines Chips abgeschaltet. Diese stehen dann natürlich, entgegen der Vermutung deines Nachredners, nicht mehr unter Strom. Der Grund, warum die HD5830 mehr Strom verbraucht als die HD5850 ist nicht etwa eine Clusterabschaltung, sondern eine andere Herangehensweise. Es wurden bei dieser Karte von AMD mehr Sektoren deaktiviert als eigentlich nötig und dann wurde eine Taktratenerhöhung vorgenommen, um die Leistung auf das entsprechende Niveau anzuheben. Daher ist die HD5830 im FPS/Watt-Verhältniss schlechter als eine HD5850. Dies kannst du auch in entsprechenden Fachartikeln nachlesen. Warum AMD so gehanelt hat, ist mir nicht klar. Eventuell zuviel Ausschuß bei der Chipherstellung (Resteverwertung).

Also gilt eher die Regel, dass ein Chip mit zunehmender Sektorendeaktivierung immer effizienter wird. Die CT hatte vor kurzem einen sehr interessanten Artikel zu dem Thema, ich glaube in der August-Ausgabe diesen Jahres.

Eigentlich wollte ich garnicht mitdiskutieren, aber der besagte Artikel hatte eben genau mit eurer Vermutung zutun.

Interessant. Ich bin kein Ingenieur und mein Wissen über GPUs kommt ausschließlich aus Eigenrecherche und eigentlich habe ich immer genau das Gegenteil von dem gelesen, was du sagst.

Für mich war immer klar, dass teildeaktivierte Chips ineffizienter werden, weil bestimmte Bauteile dann für die "übrigen" Shader klar überdimensioniert sind und Strom "verschwenden". Zudem wird längst nicht immer per Laser eingegriffen und der Überschuss komplett "abgeschnitten" wodurch auch minimalst Strom in nicht genutzten Bereichen verloren gehen kann.

Ein weiteres Argument war für mich immer, dass man je "schlechter" ein Chip ist eine höhere Spannung anlegen muss um die gewünschte Performance/Funktion überhaupt zu erreichen, was zu höherer "leakage" führt und das wiederum zu relativ gesehen höherem Stromverbrauch. Selektierte Chips (und auch bessere Steppings) funktionieren ja bei den gleichen Specs einfach mit weniger Spannung (und weniger Stromverbrauch) weil sie besser gefertigt sind. Insofern verstehe ich auch die Frage nach AMDs Handeln nicht. Da wurde so viel deaktiviert, wie eben nicht funktionierte. Klar hätte man beim "Rest" mit niedrigerer Spannung/weniger Takt arbeiten können, aber das hätte auch weniger Performance gebracht und damit dann wohl am P/W auch nicht viel geändert.

Letztlich widerspricht deiner Theorie auch die Faktenlage. In Performance/Watt Ratings schneiden besagte teildeaktivierte Chips extrem schlecht ab (siehe 5830 und GTX 465).

In jedem Fall fände ich es interessant etwas neues zu lernen und würde gern den Link zu dem Artikel in dem du das gelesen hast haben.
 
Zurück