Radeon HD 6970: Erste angebliche Bilder einer Referenzkarte

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Radeon HD 6970: Erste angebliche Bilder einer Referenzkarte gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Radeon HD 6970: Erste angebliche Bilder einer Referenzkarte
 
Wird mal wieder Zeit für einen Shrink und niedrigere Verbrauchswerte 1x 6-pin und 1x 8-pin bei einer Single-GPU Karte sind schon grenzwertig.

Gruß
 
BTW damit steht dann auch die größe der Karten fest.

~25,3 cm Gesamtlänge (ohne Slotblende), was ziemlich genau der Länge der 5870 mit ~26cm entspricht. Es ist also zu vermuten, das sie sogar genau gleich lang sind vom PCB sind, aber durch den neu gestalteten Abschluss geringfügig kürzer ist.

Ich habs mal maßstabsgetreu ausgemessen über die Pixel und die Länge des PCI-E Slots als Referenzgröße.

PS: Marc irgendwie hab ich das Gefühl, dass derjenige, der die Bilder gemacht hat, den gleichen Bodenbelag hat, wie ihr ;)
 
Eine HD 5870 ist laut unseren Messungen 28,2 cm lang. Und sofern mit Paint.Net nicht betrügt, ist es diese Karten in den News auch, zumindest ungefähr.
 
irgendwie sieht die ziemlich monströs aus. ich schätze mal, dass die 6950 auch so lang wird. das wird aber ganz schön knapp in meiner kiste...
 
Aktuellen Gerüchten zufolge ist der Cayman in Form der HD 6970 größer als der R600, wird erstmals 4D-VLIW-ALUs (statt 5Ds) beinhalten, eine deutlich verbesserte Tessellation-FFU (Fixed Function Unit), überarbeitete TMUs und wahrscheinlich mit 1.920 Shader-Einheiten antreten.
"Überarbeitete TMUs"....wenn ich so an Barts denke wird mir bei dem Satz ganz mulmig in der Magengegend... :ugly:

Mit hoher Wahrscheinlichkeit wird uns die AF-Qualität von Barts oder sogar noch schlechter erwarten. Derzeit gibt es genügend Gründe dem Marketing von AMD nicht mehr zu trauen. Erst bekommt der Performance-Chip "Barts" den Namen der vorherigen Mainstream-Karten - HD3870, 4870 und 5870! Und dann verarscht uns AMD noch aufs Übelste mit der AF-Qualität und hofft dass niemand die Cheats bemerkt :daumen2:

Wer nicht weiß worum es geht:

AMDs Radeon HD 5800/5900/6800 mit Rückschritten bei der Filterqualität | 3DCenter.org

Und hier noch einmal ein sehr anschaulicher Bildvergleich, indem man ganz deutlich erkennen kann, das HQ auf einer HD 6870 sogar mehr flimmert als Q:

AMD Radeon HD 6850 und HD 6870 Test - Bildqualität: Texturenflimmern (9/21) - TweakPC


Vielleicht reichte die negative Presse zum AF der HD 6XX0-Karten ja aus, sodass AMD mit Cayman doch wieder eine bessere AF-Qualität anbietet. Wenn nicht, dann hoffe ich dass AMD dafür die gleichen Früchte ernten darf wie seinerzeit Nvidia mit dem flimmernden G70 ;)


Die Taktraten sollen sich einem neuen Bericht zufolge auf 860 MHz Chiptakt belaufen, die TDP liegt angeblich bei über 255 Watt (GTX 480: nominell 250 Watt), welche durch 6+8-Pin bezogen wird. Das bestätigen nun auch erste Bilder einer vermeintlichen Referenzkarte der HD 6970. Als gesichert gelten mittlerweile die 2 GiByte VRAM. Ausgehend von der Länge der PCI-E-Pins dürfte die Karte rund 28 Zentimeter erreichen, dies entspricht etwa einer Radeon HD 5870.
Mit einer TDP von über 255 Watt, wird die HD 6970 mindestens genauso laut werden wie eine GTX 280, so etwas ist absolut inakzeptabel. Da die GTX 580 wohl auch wieder ohrenbetäubend laut sein wird, bin ich letzten endes doch froh, dass ich mich dazu durchgerungen habe mir eine leise Zotac GTX 460 AMP! zu bestellen. Die nächste High-End-Generation werde ich wohl bis zum nächsten Shrink überspringen.
 
Zuletzt bearbeitet:
@Dr. Cox:

Also ich finde es nicht unbedingt verarsche, wenn die Performance Klasse eingeführt wird. So fallen die „Krüppel“ 4830, 5830 usw. weg. :)
Das ganze macht Sinn und schafft noch bessere Übersicht.

Das die Bildqualität so abnimmt, könnte vielleicht auf diese Misch Architektur zurück zu führen sein. Ich würde das jetzt aber nicht so als Verschwörung hoch rechnen.


Schade das die neue Generation schon wieder so lang wird. :(
Ich bin sehr enttäuscht, was den gestiegenen Verbrauch angeht, das darf einfach nicht sein. Bei einer Antilles ist das völlig egal, aber eine Single GPU Karte, darf nicht so viel Strom fressen.
Hoffentlich wird sie dafür schneller als eine GTX 580, das wäre sonst echt peinlich, bei mehr verbrauch. :P
 
Also ich finde es nicht unbedingt verarsche, wenn die Performance Klasse eingeführt wird. So fallen die „Krüppel“ 4830, 5830 usw. weg. :)
Das ganze macht Sinn und schafft noch bessere Übersicht.

Es bleibt abzuwarten, wie sich die restliche Palette entwickelt, aber ich rechne nicht damit, das in diesem Bereich was wegfällt. Der Unterschied zwischen HD68x0 und HD57x0 ist nicht soooo viel größer, als zwischen anderen Performance-Karten verschiedener Generationen. Umgekehrt ist die HD54x0 nicht sonderlich weit vor den angekündigten IGPs von Sandy Bridge, keinesfalls vor Llano. Nach erfolgten Generationswechsel könnte die Palette nächstes Frühjahr also genauso aus Einsteiger, Mainstream, Performance und High-End bestehen, wie dieses Frühjahr (Dual-GPU Enthusiast in 40nm wohl eher nicht mehr :ugly:)
Neu ist nur, dass die Zählung dann 5&6,7,8 und 9 lautet, statt wie bislang 4,5&6,7 und 8 - und das die Einsteiger-Klasse nicht neu ist, sondern 1:1 der alte Mainstreambereich.

Das die Bildqualität so abnimmt, könnte vielleicht auf diese Misch Architektur zurück zu führen sein. Ich würde das jetzt aber nicht so als Verschwörung hoch rechnen.

Bildqualität sollte in erster Linie eine Treiberfrage sein. Keinesfalls hängt es mit der Architekturmischung zusammen. Die Recheneinheiten moderner GPUs sind flexibel genug, um beliebige Qualität abzuliefern und selbst wenn es stellenweise Limitierungen gibt, entstehen sie nicht, in dem unterschiedliche Einheiten unterschiedlichen Generationen entstammen.
Wenn eine Karte schlechtere Qualität abliefert, dann liegt das daran, dass sie so programmiert wurde - nicht daran, dass sie nicht anders könnte. Warum man das macht... - imho braucht man da echt keine Verschwörung, die Benchmarkbalken sind spätestens seit Radeon9000/GefoceFX Zeiten Grund genug gewesen.

Schade das die neue Generation schon wieder so lang wird. :(
Ich bin sehr enttäuscht, was den gestiegenen Verbrauch angeht, das darf einfach nicht sein. Bei einer Antilles ist das völlig egal, aber eine Single GPU Karte, darf nicht so viel Strom fressen.

Vor allen Dingen fragt man sich, wie Dual-GPU dann überhaupt noch klappen soll.
PCI-E 3 specs? (Triple-Slot, 450W)

Länge ist mir aber ehrlich gesagt egal. Ne echte Full-length-Karte würde bei mir sogar Pluspunke bekommen, weil sie sich an der Gehäusefront abstützt und nicht durchhängt, wie meine aktuelle 9800GTX+. Aber der Verbrauch ist einfach inakzeptabel.

Hoffentlich wird sie dafür schneller als eine GTX 580, das wäre sonst echt peinlich, bei mehr verbrauch. :P

Abwarten, was die 580 überhaupt schafft und verbraucht...
Aber ein enger Kampf wird es auf alle Fälle. AMD muss den Unterschied zwischen 5870 und 480 überspringen und vermutlich Effizienzverbesserungen vom Schlage Gf100->Gf104 kompensieren und dann auch noch ne Schippe oben drauf packen, um als leuchtender Sieger darzustehen. Und die HD68x0 sind jetzt wirklich nicht der ganz große Sprung, sondern eher ein Lückenfüller im Program.
 
Ich kann mir auch vorstellen das es knapper wird wie viele vermuten. Die GTX 480 ist ja schon deutlich schneller als die 5870, und die 580er wird auch noch einmal schneller als die alte.

Also sollte die neue AMD Karte an 50 % zulegen, damit das was wird, und hoffentlich machen die das mit dem AF wieder in Ordnung, es kann ja nicht angehen, das solche Dinge praktiziert werden. Für mich stand immer die Bildquali im Vordergrund, und zu X1950XTX Zeiten war ATI noch besser als Nvidia. Mit der 8800er Serie war es dann vorbei.
 
Wenn die 6970 wieder eine Dual GPU Karte ist, sind es de facto dann aber nur 1GB die man nutzen kann. Ich würde mir schon wünschen der Trend ginge zu 2GB bei einem GPU, damit man Downsampling gepaart mit HD Texturen auch ab Werk nutzen kann bei sehr hohen Auflösungen (>= 1080p).
 
ruyven_macaran schrieb:
Wenn eine Karte schlechtere Qualität abliefert, dann liegt das daran, dass sie so programmiert wurde - nicht daran, dass sie nicht anders könnte.
AMDs Dave Bauman bezeichnet das HQ-AF von Barts, welches etwas schlechter ist NVs Treiberstandard, als "native texturing". Was bedeuten würde, die TMUs können es schlicht nicht besser ... also nada mit Treiber, sondern eben eine bewusste Architekturentscheidung.
 
Wenn die 6970 wieder eine Dual GPU Karte ist, sind es de facto dann aber nur 1GB die man nutzen kann. Ich würde mir schon wünschen der Trend ginge zu 2GB bei einem GPU, damit man Downsampling gepaart mit HD Texturen auch ab Werk nutzen kann bei sehr hohen Auflösungen (>= 1080p).

Die 6970 wird die Nachfolgerin der 5870 also keine DualGPUKarte

Wenn eine Dual überhaupt kommt dann wahrscheinlich unter dem Namen 6990

siehe Bilder...
 
@JTRch die dual GPU karte soll wohl die HD6990 werden und auf zwei Cayman Pro basieren, ist aber alles noch spekulation ;)

die karte auf denn Bild ist aber eine SIngle GPU sieht man auch!
 
mal Benches 6970 vs 580 abwarten, evtl geht mein 480 in Rente dann ;)

Das wäre aus Fps-Sicht IMO sinnlos. Das Problem (d)einer GTX 480 ist nicht, das kolportierte Geschwindigkeitsniveau der GTX 580 zu erreichen (+15-20 Prozent). Die GTX 480 hat ganz andere Probleme, sofern sie im Referenzdesign vorliegt: Leistungsaufnahme, Lautstärke. Wie schnell die HD 6970 ist, kann man derzeit nur schätzen.

MfG,
Raff
 
he super da wird ja die 6990 richtig abgehen,hoffentl. gibts die schon zu Weihnachten werd mir dann 2 im crossfire kaufn...! will dann 1.6 Cs mit 870000 fps spielen mammi un Pappi machn das schon.... kann ja dann mein crossfiresystem mit 2x 5970radeons bei ebay verkaufn die bringens eh nicht mehr längst veraltet.:lol:
 
Zurück