Radeon HD 6970: Cayman XT rund 15-20 Prozent schneller als GTX 480 bei mehr als 255 Watt TDP?

Sorry aber leben wohl manche in einer Traum Welt und meinen Grafikkarten würden 20% schneller werden, als andere eigentlich schnellste Grafikkarten und gleichzeitig weniger Verbrauchen als die Spitzenmodelle der Vorgänger Generation?? Da steht ja nicht das die Karte 300 Watt verbraucht!
Aktuell kann man hier lesen, das die Karte wohl 15 - 20% schneller wird, und trotzdem nicht mehr Verbraucht, als die Karte von nVidia.
 
Die Argumentation im 1. Absatz find ich reichlich schwach.
Wollt ihr echt darauf schließen, dass die HD6900 des Namens wegen die ersten High-End Karten nach langer Zeit sind? Wie erklärt ihr euch dann, dass die HD6800 nicht wirklich schneller sind als die HD5800?

Ich mein da eher, was von gehört zu haben, dass die Umbenennung aus Marketinggründen geschehen ist, und das hat nicht wirklich was mit ner Unterteilung in High-End etc. zu tun. Bin auf jeden Fall schon gespannt auf die Karten, auch, wenn meine HD4850 mit 1gb noch ne ganze Weile reichen wird, bei dem Schrott, der rauskommt ;D Kann sehr vieles noch immer auf maximalen Details spielen ...
 
ein erhöhter TDP ist wegen der 40nm Fertigung nicht auszuschließen bzw wäre nicht ungewöhnlich!

ich finde NV immer lustig, wenn AMD/ATi irgendwas vorstellt, kommt von NV am gleichen tag eine News das die XYz karte so toll sein und bloss keiner AMD kaufen soll usw. ;)
klar, ist genauso normal wie beim gassigehen. der nachbarköter pinkelt an die hecke und meine töle gleich hinterher. bei ati und nvidia oder amd und intel ist es genauso. die verhalten sich wie läufige köter im stadtpark, wenn es darum geht deren news zu verbreiten.
also gaaanz normales rudelgehabe.
 
:D... ich find das immer wieder witzig ... dann kommt ne neue Grafikarte raus ... die Gerüchteküche köchelt vor sich hin ... :P.. und schon streiten sie wieder los ....

Ich finde wer lesen kann ist klar im Vorteil .. ich kanns , manchmal ;) aber auch nich immer geb ich zu .

da steht : Angeblich konsumiert die Karte 255 Watt laut TDP, die Leistung liegt leicht bis deutlich vor der aktuell schnellste SGPU-Grafikkarte Geforce GTX 480....

Das erste Wort ist entscheident :daumen:...

ANGEBLICH ... alles klar :D ?! ... es kann doch aber auch gut sein das es so ist , warum eigentlich nicht ...

Also Leute ruhig Blut :nicken:

Aber wenn es so sein sollte .... habe ich nichts dagegen , ich hab ja ATI ins geheim sehr lieb , auch wenn ich im Moment mal n bissi fremd gegangen bin .. hoffen wir das beste

LG Andi
 
Die Argumentation im 1. Absatz find ich reichlich schwach.
Wollt ihr echt darauf schließen, dass die HD6900 des Namens wegen die ersten High-End Karten nach langer Zeit sind? Wie erklärt ihr euch dann, dass die HD6800 nicht wirklich schneller sind als die HD5800?

Ich mein da eher, was von gehört zu haben, dass die Umbenennung aus Marketinggründen geschehen ist, und das hat nicht wirklich was mit ner Unterteilung in High-End etc. zu tun.

Jo haste wahrscheinlich recht mit der Umbenennung. Hatte ich auch so im Kopf.

Es ist aber so:
Die Strategie von AMD mit den letzten Generationen war einen Performance-Chip herzustellen (welcher dann natürlich sparsamer und auch langsamer ist als die High-End-Chips von Nvidia! und das war auch so beabsichtigt!) und den mittels Dual-GPU auch als High-End zu verkaufen.

Angeblich ist ja vom HD69x0er-Chip auch eine Dual-GPU-Version geplant. Ich frag mich wie das bei 255Watt gehen soll?!
Auf jeden Fall scheint AMD schon einen ungewöhnlich großen und potenten Chip rauszubringen. Barts ist ja als "HD57x0-Nachfolger" schon ziemlich Potent geworden und da wird Cypress nochmal einiges draufpacken.

Auch mit einer TDP von 255 Watt kann man dazu wohl kaum noch Performance-Segment sagen.

Auf jeden Fall scheint es mir auch so, als ob AMD seine Strategie ein wenig geändert hätte. Vielleicht liegt das auch einfach nur daran, dass sie eigentlich mit 32nm geplant haben und nun in 40nm fertigen müssen.
 
klar, ist genauso normal wie beim gassigehen. der nachbarköter pinkelt an die hecke und meine töle gleich hinterher. bei ati und nvidia oder amd und intel ist es genauso. die verhalten sich wie läufige köter im stadtpark, wenn es darum geht deren news zu verbreiten.
also gaaanz normales rudelgehabe.

Der Vergleich gefällt mir, soo,..passend :D

@ Topic
Im Grunde ist es doch scheißegal ob nun AMD oder Nvidia die schnellste Karte hat, meinet wegen sollen die sich die Köppe mit ihren Karten einschlagen solange dann auch bitte die Preise fallen was dann für uns wiederrum gut ist :devil:
 
Die Argumentation im 1. Absatz find ich reichlich schwach.
Wollt ihr echt darauf schließen, dass die HD6900 des Namens wegen die ersten High-End Karten nach langer Zeit sind? Wie erklärt ihr euch dann, dass die HD6800 nicht wirklich schneller sind als die HD5800?

Ich mein da eher, was von gehört zu haben, dass die Umbenennung aus Marketinggründen geschehen ist, und das hat nicht wirklich was mit ner Unterteilung in High-End etc. zu tun. Bin auf jeden Fall schon gespannt auf die Karten, auch, wenn meine HD4850 mit 1gb noch ne ganze Weile reichen wird, bei dem Schrott, der rauskommt ;D Kann sehr vieles noch immer auf maximalen Details spielen ...
Du weißt schon das die 68XX die nachfolger der HD57XX sind ?! :what:
 
Sehr richtig!
Genau das denke ich auch!
Amd hatte geplant den stromverbrauch durch den 32nm prozess zu senken und damit die nvidia karten deutlich zu schlagen
durch die 40nm fertigung mussten sie jetzt schnell umkonzipieren, aber weil sie das erscheinungsdatum nicht ändern wollten haben sie halt die karten so ähnlich beibehalten nur halt in 40nm fertigung, was dann halt den stromverbrauch erhöht
 
Naja die hohe Verlustleistung ist halt eine logische Konsequenz aus der Tatsache,
dass AMD die neue Architektur noch im 40nm-Verfahren fertigt.
Könnten sie schon im 32nm-Verfahren produzieren, fiele die Verlustleistung natürlich geringer aus.
Ich wäre sowieso dafür gewesen bis zur Fertigstellung der nächsten "richtigen" Generation zu warten,
anstatt jetzt Vorschnell (und so wirkt es auf mich) eine Mischung aus beiden zu verkaufen.
Das mag ja schön sein, um Nvidia einen kleinen Seitenhieb zu verpassen, aber AMD hat anscheinend vergessen,
dass auch Nvidia noch ein paar ganz heiße Eisen im Feuer hat und diese Veröffentlichung natürlich
einen Gegenschlag zur Folge haben wird.

Naja, mal sehen, ob ich mir eine Karte der 6700er-Reihe kaufen werde :)

Außerdem: Bis zu 20% schneller bei etwas höherer Verlustleistung als GTX480 ist doch in Ordnung.
 
Zuletzt bearbeitet:
Auf jeden Fall scheint es mir auch so, als ob AMD seine Strategie ein wenig geändert hätte. Vielleicht liegt das auch einfach nur daran, dass sie eigentlich mit 32nm geplant haben und nun in 40nm fertigen müssen.

Das hab ich mir spontan auch gedacht - ich glaube nicht, dass AMD von anfang an geplant hat eine "stromfressende" Karte wie die GTX480 zu produzieren - nur weil sie den Cayman jetzt in 40 statt 32/28 nm bauen müssen ist das kaum zu vermeiden - eine Architektur, die in 40nm 250W braucht könnte durchaus bei 32/28nm "nur" noch 200W benötigen - das würde ins Schema passen.
TSMC hats in dem Falle leider verbockt ;-)

Dennoch: bin gesapnnt wann sie kommt, was sie leistet und was sie kostet ;-)
 
Viele Leute reden hier einfach alles schlecht, etwas schlecht zu reden ist eben einfacher
um nen Beitrag zu posten und etwas Aufmerksamkeit zu bekommen.

Wer die Mehrleistung gegenüber die GTX480 so nötig hat, der soll sich doch die 6970 kaufen.
Jeder andere der auch mit weniger auskommt, muss nicht über Leistungsstärkere Modelle
herziehen, auch wenn die womöglich einen hohen Stromverbrauch haben, der meines erachtens
relativ niedrig/ok ist...
 
es war zu erwarten dass ohne einen shrik auf 32 oder 28 nm die leistungsaufnahme mächtig ansteigen würde bei einer so viel aufwendigeren und vergrößerten architektur. wenn die leistungsaufnahme wirklich fermi-niveau erreicht wäre das schon unschön.
 
Es wird spannend!
Ganz unabhängig ob von AMD oder nVidia, Stromverbrauch würde ich im high-end Desktop (im Gegensatz zum Mobil) Bereich nicht überbewerten

Im High-End Bereich zählt nur eines: Leistung- alles andere ist vernachlässigbar, eventuelle Kühlprobleme kann man immer via WaKü beseitigen

Nur weil etwas im Desktop- und nicht im Mobilbereich angesiedelt ist, ist es deswegen noch lange nicht High End. Stromverbrauch zählt also sehr wohl im Desktopsegment.

Daher wäre in meinen Augen auch eine HD 6970 mit einer Leistungsaufnahme von über 250 Watt ein Fail. Unter 200 Watt sollte man schon bleiben. Aber genießen wir dieses Gerücht ohnehin mal besser mit Vorsicht.

Der Argumentation, die HD 5870 sei eine Performancekarte, kann ich nicht ganz folgen. Ich mein, eine Performancekarte, die bei ihrem Release 400 € kostet? :ugly:
 
schade mit den 255 W TDP nun ja hoffen wir mal das die Spannungswandler einen Biosmod mitmachen ;) gekauft wird sie auf jeden Fall wenn sie über 1 GB VRam hat :)
 
Ich will Fakten sehen :devil:

und keine Gerüchte.

Wenn der Preis stimmt, die Leistung gut und der Idleverbrauch OK ist, steht dem kauf nichts im Wege.
 
255 Watt? Entäuschend. Aber nur legitim dass AMD mit der neuen Karte wieder die Leistungskrone für Single-GPU Karten beanspruchen wird. Das kostet halt. In diesem Fall vor allem Strom. Anscheinend gehts nur mit der Brechstange. Bin ma gespannt, wie die die Abwärme in den Griff bekommen wollen.

So langsam wird die Leistungsaufnahme für GPUs etwas absurd. Zumal ja eh fast nur Konsolenports aufem Markt sind, welche die Leistung der Karten garnicht brauchen.
 
Zurück