Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Aha, wusst gar nicht dass das bei GPUs auch betrieben wird - macht das denn jeder Hersteller und bei allen Chips oder wird das nur bei den High-End Modellen bei vielleicht besonders gefährdeten Chipteilen gemacht?
Das sind viele Parameter die einen Chip ausmachen und den Umstand unter welchen er produziert werden muss. Es ist immer eine Analyse der Umgebung. Will ich in Zukunft Reserven haben für nachfolgende Produkte? Ist die Ausbeute hoch genug und das Risiko gering, dass ich das Design unter meinen Wunschaspekten auf den Markt bringen kann, ohne Rendundanz ein zu planen, als Sicherheitspolster?

Aber etwas pauschalisieren können wohl etwas. Man wird am sinnvollsten dort Sicherheitsrendundanzen einbauen, wo man allgemein mehr Masse hat und durch fehlerhafte Sektoren noch ein Downgrade Chip erhalten kann. Man wird sicher keine 2-te vollständige Logikeinheit die sich um Verwaltung oder ähnliches kümmert einbauen. Dann ist der Chips in diesem Sektor fehlerhaft und wird aussortiert. Gerne baut man natürlich lieber Rendundanzen bei den Cores ein. Der RV770 hatte ja noch deaktivierte Shader-Einheiten, also sogar mehr als seine 160-5D Einheiten. Das war auch der letzte DIE-Shot welchen wir von ATI(AMD) gesehen haben.
Die Chipausbeute kann man natürlich auch dadurch erhöhen, indem die Basic-Specs einfach etwas niedriger gestaffelt werden. Lower Chiptakt z.B.
AMD geht ihr Sicherheitspolster bei Tahiti wohl lieber über tiefer gestapelte Taktfrequenzen, weil man sicher gehen will, nichts zusätzlich zu verbauen und nicht zu viel Ausschuss zu haben, da der Prozess sowieso immer anfangs Kopfzerbrechen bereitet.

Das witzige daran ist eigentlich, dass es gar nicht so schwer ist heraus zu finden, ob der jeweilige Chip noch deaktivierte oder überflüssige Schaltkreise hat. Leider werden wir so etwas nicht erfahren.

@Tiz

Keplers Designing-Ziele waren Perf/Watt und erhöhte Rechenleistung. "Thermi" war eben ein großer Schritt in die Zukunft und den Chip gut skalieren zu lassen ist einfach schwer problemlos zu lösen. Kepler wird wohl stark aus den Erfahrungen profitiert haben und die Interconnect und Synchronisationsgeschichten sollten deutlich effizienter ablaufen.
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Bis die Kepler am Start sind, dürften noch 1/2 Jahre verstreichen. Bis dahin sollte die Ausbeute von AMD so hoch sein, dass sie ohne weiteres den Chiptakt erhöhen können und so ohne Entwicklung ein konkurrenzfähiges Produkt am Start hätten. Sollte Nvidia erst in dreiviertel Jahr oder so Kepler rausbringen, steht schon die nächste AMD Generation am Start steht, die dann mit Kepler den Boden wischen sollte. Irgendwie hat es AMD geschafft, ähnlich wie Intel bei den Prozessoren immer einen gewissen Vorsprung in Effizienz und Generationen zu haben. Auch wenn die 7970 keine 2304 Shader Einheiten hat, wird es ganz ganz schwer für Nvidia, zumindest wieder der 9xxx Serie Parole zu bieten. Hoffe es aber. Hatte bisher fast immer nur Nvidia Karten, doch seit der 560 ti bin ich irgendwie enttäuscht, die kommen kaum mehr hinterher.:daumen2:
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Bis die Kepler am Start sind, dürften noch 1/2 Jahre verstreichen. Bis dahin sollte die Ausbeute von AMD so hoch sein, dass sie ohne weiteres den Chiptakt erhöhen können und so ohne Entwicklung ein konkurrenzfähiges Produkt am Start hätten. Sollte Nvidia erst in dreiviertel Jahr oder so Kepler rausbringen, steht schon die nächste AMD Generation am Start steht, die dann mit Kepler den Boden wischen sollte. Irgendwie hat es AMD geschafft, ähnlich wie Intel bei den Prozessoren immer einen gewissen Vorsprung in Effizienz und Generationen zu haben. Auch wenn die 7970 keine 2304 Shader Einheiten hat, wird es ganz ganz schwer für Nvidia, zumindest wieder der 9xxx Serie Parole zu bieten. Hoffe es aber. Hatte bisher fast immer nur Nvidia Karten, doch seit der 560 ti bin ich irgendwie enttäuscht, die kommen kaum mehr hinterher.:daumen2:
Mit Verlaub, woher nimmst du diesen Brei her?

1. 6-9 Monate für Kepler?! Da muss man ziemlich des Wahnsinns sein :D
2. Der Nachfolger deiner 560 Ti ( Die ich übrigens auch habe und mehr als glücklich damit bin ;) ) wird in den Gefildern um Februar rum wildern. Leider hat ja AMD ihre HD7950 auch in den Februar verschoben. 660/760 wird sich zwischen Tahiti Pro und XT einordnen.
3. AMD hatte die letzten Jahre hinweg nur sau mäßig Glück, dass Nvidia einfach so ein Allrounder Chip herstellen musste und relativ wenig im Vergleich zur Chipgröße an Performance für Graphics raushauen konnte. Allein deswegen konnte AMD gar einen so kleinen Chip oft gegen N High-End Produkte stellen. Nvidia wird leider deutlich aufgeholt haben. Ich mache mir echt Sorgen um AMD.
4. Ein Refresh kommt frühestens 1 Jahr danach und damit meine ich kein "bugfixing" wie bei dem Fermi. Es wird aber wohl Q1 2013 sein.

Big Kepler kommt wohl um die Region Juni/Juli .
 
Zuletzt bearbeitet:
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

@Tiz

Keplers Designing-Ziele waren Perf/Watt und erhöhte Rechenleistung. "Thermi" war eben ein großer Schritt in die Zukunft und den Chip gut skalieren zu lassen ist einfach schwer problemlos zu lösen. Kepler wird wohl stark aus den Erfahrungen profitiert haben und die Interconnect und Synchronisationsgeschichten sollten deutlich effizienter ablaufen.

Ja Nvidia hat ja schon bei der 580 von der Thermi Generation gut gelernt.

Aber ich denke kaum dass sie viel schneller als eine 7970 bei gleichem Stromverbrauch werden kann.

Um gut 15 % schneller zu werden als die 7970 (was die 680 sicher wird) muss Nvidia denke ich mal wieder den Hammer rausnehmen.

Eine um 20 % übertaktete 7970 braucht sicher auch mehr als @ stock :D

Fakt ist auch dass AMD mit dieser Architektur wieder etwas starkes hat das man in den nächsten zwei, drei Jahren gut ausbauen kann. Nvidia hat mit Fermi schon eine gute starke Architektur gebaut, sie müssen sie nur optimieren für Kepler.
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

7970 würde ich nicht mehr gegen so ein Ungetüm wie einen 680/780 stellen wollen. Performance Chip vs. Performance Chip. Und ich glaube Nvidia wird da sehr gut mithalten können.

Und wieso Hammer raushauen? 15% zur HD 7970 ist absolut keine Leistung ;) Zeigt ja die HD 7970 sehr oft selber :P
Das geht ganz sicher bei angemessen Mehrverbrauch und bei den Enthusiasten Produkten interessiert Stromverbrauch auch generell deutlich weniger.

Ich will mir aber zur HD 7970 kein OC-Potential ausmalen. Die Ergebnise weichen so extrem voneinander ab. Der Ausbeute bei TSMC scheint noch so stark zu schwanken und ich unterstelle AMD gerne das ihre Chips etwas selektiert sind und die Retail Produkte mehr Strom verbrauchen können und weniger OC-Potential haben, als viele Seiten erreicht haben. Wir haben ja auch so Gurken wie 1050 Mmhz oder 1030 mhz. Aber auch unsere Höheflüge wie 1125 Mhz (CB).
Irgendwo gab es noch einen lustigen Bericht, wo die Übertaktung einer HD 7970 ein besseres Perf/Watt Verhältnis erbracht hat, als @ Stock ;)

Entweder sind die Rechenwerke so gut designt worden oder die Fertigung hat sich messbar verbessert. Bevor Retail Produkte und Konkurrenz nicht am Markt erschienen sind, will ich mir über die unzähligen Parameter auch keinen Kopf zerbrechen. Aber das AMD wirklich eine passable Antwort braucht schon.
 
Zuletzt bearbeitet:
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Genau da hoffe ich, dass eine im Laufe der zeit besser werdende Fertigung (der 28nm Prozess ist ja noch in den Kinderschuhen) eine ordentliche Verbesserung bringt - und eine 7980 mit 1200MHz nicht mehr verbraucht wie eine 7970 mit 925MHz.

Dann hoffen wir das schon zu zweit :D. Gerade im Performance-Segment würden sich dann interessante Sachen machen lassen.

Den meisten Leuten die sich Highend karten kaufen ist der Strom verbrauch egal bei vielen Usern hier im Forum hätte die 7970 ruhig 40% mehr Stom verbrauchen können wenn sie dementsprechend mehr Leistung dann hat!

Mir hat mein Experiment mit der ATI HD 2900 PRO vor 3 Jahren gereicht.
Grafikkarten mit einem durchschnittlichen Verbrauch von über 120 Watt kommen mir nicht mehr in den Rechner ;).
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

7970 würde ich nicht mehr gegen so ein Ungetüm wie einen 680/780 stellen wollen. Performance Chip vs. Performance Chip. Und ich glaube Nvidia wird da sehr gut mithalten können.

Und wieso Hammer raushauen? 15% zur HD 7970 ist absolut keine Leistung ;) Zeigt ja die HD 7970 sehr oft selber :P
Das geht ganz sicher bei angemessen Mehrverbrauch und bei den Enthusiasten Produkten interessiert Stromverbrauch auch generell deutlich weniger.

Ich will mir aber zur HD 7970 kein OC-Potential ausmalen. Die Ergebnise weichen so extrem voneinander ab. Der Ausbeute bei TSMC scheint noch so stark zu schwanken und ich unterstelle AMD gerne das ihre Chips etwas selektiert sind und die Retail Produkte mehr Strom verbrauchen können und weniger OC-Potential haben, als viele Seiten erreicht haben. Wir haben ja auch so Gurken wie 1050 Mmhz oder 1030 mhz. Aber auch unsere Höheflüge wie 1125 Mhz (CB).
Irgendwo gab es noch einen lustigen Bericht, wo die Übertaktung einer HD 7970 ein besseres Perf/Watt Verhätnis erbracht hat, als @ Stock ;)

Entweder sind die Rechenwerke so gut designt worden oder die Fertigung hat sich messbar verbessert. Bevor Retail Produkte und Konkurrenz nicht am Markt erschienen sind, will ich mir über die unzähligen Parameter auch keinen Kopf zerbrechen. Aber das AMD wirklich eine passable Antwort braucht schon.

Genau, mich intressiert der Stromverbrauch z.B. gar nicht. ;)

Ich will nur das schnellste, aber keinen heißen, großen Monsterchip.

Doch, doch, die Übertaktungspotential liegt wesentlich höher als bei alten Generationen. Nenne mal Quellen wo man nur 1030 Mhz schaffte. Vielleicht hat AMD selektiert, aber ich glaube dass Sapphire besser informiert ist als wir und wenn die sagen sie können einen Chip verkaufen der 1,3 Ghz macht dann heißt das schon was.

PS: Nvidia kocht auch nur mit Wasser, erwarte keinen Überchip ;)

Obwohl er mir schon recht kommen würde :)
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Auf so scheiß Tabellen habe ich noch nie etwas gegeben und werde es auch in Zukunft nicht ;)
1,3Ghz und 2304-Shader Einheiten machen das Gerücht nicht gerade glaubwürdig. Von der Kepler Spitze erwarte ich gerade etwas mehr Abstand zu Tahiti, als wir mit Fermi zu Cayman gesehen haben. >20%

Catalyst-Control-Center hat bei allen Fällen limitiert*

ComputerBase 1125/3150*
Guru3D 1052/2900
Hardwareluxx 1045/2800
Hardware Canucks 1078/3107
HT4U 1070/3000 MHz
Hexus 1000/2900 ( 1075 Mhz Chiptakt beim nächsten Versuch.)
PC Games Hardware 1100/3150 (1050 Mhz Chiptakt dauer stabil.)
Neoseeker 1125/3150*
Tom's Hardware 1125/3150*
Overclockers 1125/3150*
TechPowerUp 1075/3430
Legit Reviews 1165/3250 ( Haben das Limit vom CCC aufgehoben und sind bei diesen Zahlen gelandet )
VR-Zone 1125/3000*
 
Zuletzt bearbeitet:
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Genau, mich intressiert der Stromverbrauch z.B. gar nicht. ;)
Ich will nur das schnellste, aber keinen heißen, großen Monsterchip.

Dir ist der Zusammehang zwischen Stromverbrauch und Abwärme/Hitze aber schon klar, oder :D?
Der kleinere Fertigungsprozess und die geringere Fläche erlauben zwar mehr Performance/Watt,
aber der Stromverbrauch steigt trotzdem seit Jahren, weil die Anforderungen an die Leistung nicht gleich bleiben.
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Ein 1er Golf D verbraucht in Vergleich zum heutigen 6er Golf D auch mehr Sprit und jucken tut's auch niemanden, da wir für dieses Mehr an Verbrauch auch mehr an Leistung kriegen.
Klar gibt's dann die Low-Segment-Modelle á la VW UP mit 3Liter Verbrauch usw., aber schau dir diese Büchsen an, da bist du froh wenn du einen LKW auf der Autobahn packst und deshalb muss jeder selbst wissen wieviel Watt er pro Performance/Ausstattung (nutzbar) haben will und Sachen zu kühlen sollte ja kein Problem sein, oder?

Ich hoffe und denke auch das Nvidia gut nachlegen wird. Diese Balkengrafiken etc. sind zwar Hirngespinste (Haben wir ja bei der 7970 gesehen - 6mal schneller und so.), aber geben doch meist die Tendenz an und wenn NV sich vornimmt mit der Performance-Reihe 1,5 mal über der 580GTX zu sein (Glaube so war hier mal eine NEWS.), dann glaube ich, das sie nur ganz knapp darunter/drüber ist und das reicht mir, weil ich dann für um die 250€ Leistung von derzeitigen ~450€ bekomme.
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Ein neuer Golf 6 mit Common Rail Einspritzung verbraucht in etwa das Gleiche wie ein Golf 1D mit vergleichbarer Leistung.
Ein 6er mit etwas mehr Leistung verbaucht auch nur geringfügig mehr, da die Druck- und Einspritzzeit/-mengenanpassung
nur marginal geändert weder muss.
Davon mal abgesehen, solltest du die Formulierung etwas ändern damit, das was du ausdücken möchtest, stimmt.

Ich halte einen Tahiti Chip mit 36CUs, repektive 2304 Shadereinheiten, nicht für unwahrscheinlich! nVidia wird mit Kepler
sicherlich auch einen Schritt nach vorne, der im Vergleich zur vorherigen Generation nicht klein ausfallen wird.
Die Grünen werden aus den alten GPU-Generationen gerlernt haben (GTX200, 400 und 500) Auch die Umstellung
aus 28nm wird ihren Teil zu einer hohen Leistung beitragen.
Haut nVidia mit der GTX 780 also einen sehr flotten Chip raus, kann AMD mit 2304 Shadern und mehr Chiptakt kontern,
sodass sie weider gleichauf liegen. Meine Annahme;)

MfG
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Dir ist der Zusammehang zwischen Stromverbrauch und Abwärme/Hitze aber schon klar, oder :D?
Der kleinere Fertigungsprozess und die geringere Fläche erlauben zwar mehr Performance/Watt,
aber der Stromverbrauch steigt trotzdem seit Jahren, weil die Anforderungen an die Leistung nicht gleich bleiben.

Klar weiß ich das ;)

Deswegn sagte ich ja dass ich keinen großen heißen Monsterchip alla 480 brauche :D

@Locuza:

Aber diese Versuche wurden alle mit der Standart Spannung gemacht... In den Regionen von 1,1 Ghz zu kommen damit ist schon nicht schlecht. Mit meiner 5870 brauche ich auch 1,2 V für die 1 Ghz :D

Von Kepler will ich einfach nur mindestens 15 % mehr als die 7970 aber ob sie das mit dem gleichen Stromverbrauch schafft ist eben zu bezweifeln.

Auch wenn eben der Stromverbrauch für Enthusiasten nicht zählt.

Versteh doch, die ganze Fermi Architektur ist nicht so auf wenig Stromverbrauch ausgelegt wie AMD Architekturen.

Aber wir werden alles sehen wenn Kepler launcht :)
Davor ist sowieso wieder Glaskugelzeit :ugly:
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Du darfst aber nicht mit der vergleichbaren Leistung rechnen, da du damals eine Grafikkarte sicherlich nicht auf soviel Takt ziehen konntest, ergo geht dieser Vergleich auch bei den Fahrzeugen nicht mit gleicher Motorleistung (Außer du veränderst den Motor etc. . Du weißt was ich meine.).
Und so ein UP verbraucht weniger Sprit und hat auch entsprechend weniger Leistung. Eine 420GTS sollte sicherlich auch wesentlich weniger Leistungsaufnahme und Leistung haben als die 480GTX und da ist der Vergleich mit dem Überholen auf der Autobahn.

Lange Rede, gar kein Sinn, falls AMD wirklich so ein As im Ärmel hat, wäre es sehr genial und ich könnte vllt. doch mal bei rot stehen bleiben, als immer nur bei grün zu laufen, aber ich denke eher nicht daran (Grün ist ja auch sicherer und so - Bildqualität ftw.).
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Klar weiß ich das ;)

Dann verstehe ich deine Aussage nicht.
Entweder das Schnellste (viel Strom) oder Langsamer (weniger Strom).
Unterschiede zwischen GTX 480 und GTX 580 seh' ich in der Leistung durchaus, der Verbrauch bewegt sich bei beiden auf sehr hohem Niveau.
Etwas leiser und Kühler ist die GTX 580 zwar, das hat aber mit dem Kühler und nicht mit dem Chip zu tun ;).

Die HD 6970 ist zwar sparsamer, aber langsamer. Trittst du sie mit OC auf Niveau einer GTX 580, schluckt sie ähnlich viel.

Edit: Fiktive HD 7970 mit mehr Takt und mehr Shadern. Entweder der Fertigungsprozess bessert sich deutlich, oder wir haben wieder einen Föhn mehr mit 250 Watt+ unter Last.
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Fiktive HD 7970 mit mehr Takt und mehr Shadern. Entweder der Fertigungsprozess bessert sich deutlich, oder wir haben wieder einen Föhn mehr mit 250 Watt+ unter Last.

Ist schon lustig wie 2´erlei maß gesetzt wird bei einer NV ist es ok wenn sie 220W schluckt und leistung bringt bei einer ATI wird gemeckert wenn sie das selbe macht!
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Mir hat mein Experiment mit der ATI HD 2900 PRO vor 3 Jahren gereicht.
Grafikkarten mit einem durchschnittlichen Verbrauch von über 120 Watt kommen mir nicht mehr in den Rechner ;).

Ich hatte vor Jahren mal 2x2900pro Crossfire im Rechner, was soll ich da sagen :ugly:

Ist schon lustig wie 2´erlei maß gesetzt wird bei einer NV ist es ok wenn sie 220W schluckt und leistung bringt bei einer ATI wird gemeckert wenn sie das selbe macht!

vorallem "wieder" sagt er... Als obs das dauernd bei ATI/AMD gab/gibt... Der einzige Fail der mir einfällt ist die 2900.
 
Zuletzt bearbeitet:
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Wir wissen ja wohl auch beide, dass sobald die Spannung angehoben wird, der Verbrauch sich eher quadratisch verhält und nicht einfach linear, wie bei der reinen Mhz Erhöhung.
Kepler wird ohne Probleme die 15% drauf hauen und das es Nvidia beim gleichen Verbrauch schafft, dass muss glaube ich niemand erwarten.
Und verstehen muss ich nur, dass man bei komplexen Architekturen nicht nicht einfach pauschalisieren darf und durch Weiterentwicklung durchaus Steine aus dem Weg räumen kann. Kepler wird auch kein einfacher 1 zu 1 Refresh vom Fermi. Ich wäre vorsichtig zu behaupten, dass die Architektur nicht auf niedrigen Stromverbrauch optimiert ist. Ich will jetzt aber die zahlreichen Gründe nicht wieder auflisten :P
Bei Nachfrage mache ich das aber gerne.

Ist schon lustig wie 2´erlei maß gesetzt wird bei einer NV ist es ok wenn sie 220W schluckt und leistung bringt bei einer ATI wird gemeckert wenn sie das selbe macht!
Da geselle ich mich zu den Leuten.
AMD hatte eine sehr gute Effizienz beim Cypress erreicht. Nvidia hat durch interne Probleme viel Ursprungspotential verloren und schon war AMD in einer guten Position. Mit dem Cayman Pro hat man ähnliches geschafft, der XT hat die Effizienz aber total zerrissen. Für den läppischen Zugewinn von Performance ist der Stromverbrauch nicht im gesunden Verhältnis gestiegen. Prügele ich ihn auf Nvidia Niveau, wird es noch schlechter und ich denke Nvidia wird bei vergleichbarer Leistung, bei sehr vielen Aufgaben besser dastehen. Durch GCN habe ich mir ja deutliche Verbesserungen erhofft, die gibt es ja auch natürlich, aber man sieht schön das AMD bei vielen Dingen nachholen musste und für den Graphics Bereich ähnlich weniger Leistung umgesetzt hat, wie auch die Fermi Architektur.
Es bleibt übrigens wieder viel zu wenig Leistung auf den Boden haften.
Wenn AMD auf vielen Gebieten vergleichbare Leistung, bei vergleichbarem Stromverbrauch bieten würde, dann würde ja wohl auch niemand sich beschweren. Ich weine eher um den Abstand der wohl immer etwas kleiner wird.
 
Zuletzt bearbeitet:
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Ist schon lustig wie 2´erlei maß gesetzt wird bei einer NV ist es ok wenn sie 220W schluckt und leistung bringt bei einer ATI wird gemeckert wenn sie das selbe macht!
Jetzt tust du mir unrecht; Mir schlucken alle aktuellen High-End Chips zu viel und ich hab' nie etwas anderes behauptet ;).

Ich hatte vor Jahren mal 2x2900pro Crossfire im Rechner, was soll ich da sagen :ugly:
Dann weißt du ja, was ich meine :).

vorallem "wieder" sagt er... Als obs das dauernd bei ATI/AMD gab/gibt... Der einzige Fail der mir einfällt ist die 2900.
Das wieder bezog sich auf die Grafikkarte als solche und nicht auf die Marke - es ist wirklich toll, wenn AMD und NVidia ganz lange Balken im Schwanzmark haben und sich die Fanboys dann nur noch aufgrund ihrens Lieblings-Logos trollen können, aber bitte nicht um jeden Preis.
Ganz nebenbei - HD 7970 und 6979 brauchen etwa 220 Watt. Jau, die 7970 geht also derzeit am effezientesten mit Strom um - bis man den Takt ordentlich erhöht und/oder den Chip vergrößert/Einheiten reaktiviert.
Loczua hat das am Cayman Pro und XT auch recht gut dargelegt (siehe Post über mir).
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

@fisch@namenssuche

Kannst du mir bitte dein Problem näher erläutern, weil das finde ich eigentlich ganz interessant, weil ich es nicht nachvollziehen kann :D
Wenn eine High-End Karte zu viel Strom verbraucht, dann kauft man sich wohl Sinngemäß eine Karte unter dieser Klasse?
Ein IHV ist eben kein Magic-Man welcher ohne größere Probleme ein Produkt auf den Markt werfen kann, wo die Leistung X zu dem Verbrauch Y erbracht wird. Weniger Leistung bedeutet dann, weniger Stromverbrauch und wenn dieser Stromverbrauch der Wunschvorstellung entspricht, dann kauft man sich einfach diese Karte, welche natürlich keine High-End Karte sein wird, sondern eben nur Performance Class.

Ich meine, im Grunde ist das Angebot so gestaffelt das für jeden etwas dabei sein sollte. Ich verstehe nicht wieso ( nicht explizit du ) Menschen sich ihren Wunsch immer so verzerren müssen, dass eine High-End Grafikkarte den Stromverbrauch einer Performance Klasse haben soll. Woher soll die exorbitante Effizienzsteigerung denn herkommen? Auch verstehe ich das rumgeweine von Karte X verbraucht zuviel Strom oder bietet zu wenig Leistung nicht. AMD hat ihren absoluten Stromverbrauch im Vergleich zum Cayman XT nicht erhöht und setzt sich gut ab, dann kritisieren Menschen den zu geringen Leistungszuwachs, aber das ist nunmal die Grenze der verbesserten Effizienz. Mehr holt AMD da nicht raus und wenn man mehr Leistung will, dann zu mehr Stromverbrauch--> OC-Modelle etc.
 
AW: Gerücht von AMD dementiert: Radeon HD 7970 doch keine 2.304 statt 2.048 Shader-Einheiten

Der Trend geht in Richtung Leistung um jeden Preis. Das erste mal, als eine Grafikkarte die 200 Watt-Grenze deutlich überboten hat, war das Gejammer groß (HD 2900).
Der nächste Kadidat war dann die GTX 480, dann die HD 6970, dann die GTX 580 (ich lasse die Dual-GPU Karten bewusst außen vor - es geht um die einzelnen Chips).
Mittlerweile haben sich anscheinend doch alle daran gewöhnt, dass die High-End-Grafikkarten halt einfach viel (und seit Jahre immer mehr) Strom schlucken ("Leistung um jeden Preis, aber bitte keinen heißen, großen Chip" - :huh: die Chips sind derzeit groß und heiß, werden dann doch gekauft).

Anschließend kommen die PCIE-3.0 Spec's, die immer noch mehr Strom zu Verfügung stellen.

Was ich als richtig wegweisend empfand, war die HD 5870. Der Stromverbrauch war im sinnvollen Rahmen und sie war eine ganze Zeit leistungsmäßig top. Oder ein paar Jahre zuvor die 8800 GTX (Als ATI-Fan hätte ich die trotzdem verdammt gerne gehabt).

Aber ich gebe an dieser Stelle klein bei, mir scheinen andere Sachen wichtiger sein, als den meisten Spielern ;)
(Ich besitze aus gewissen Gründen derzeit eine HD 5770; Optionen zum Aufrüsten: Keine. Die HD 6770 ist ein Rebranding, die spekulierte HD 7770 legt bei vergleichbarem Stromverbrauch 15 - 20 Prozent Leistung drauf. Wenn an den Gerüchten etwas dran ist, ist das ziemlich mau).
 
Zurück