Radeon HD 6970: Erste angebliche Bilder einer Referenzkarte

migg ZITAT: ... kann ja dann mein crossfiresystem mit 2x 5970radeons bei ebay verkaufn die bringens eh nicht mehr längst veraltet.

TRÄUMER:schief:
 
migg

solange es mamas und papas geld ist, kann man ruhig das geld verschwenden. du könntest ein bischen mehr rücksicht nehmen.
4 gpus skalieren grotten schlecht. die 3. gpu bringt kaum etwas und die 4. gpu garnichts.
du hast doch schon 2 ati 5970 verbaut, die sind nicht veraltet. die leistung ist mehr als ausreichend.
mit welcher cpu möchtest du 2 amd 6990 befeuern ?

ausserdem kommt die heftige stromrechnung, welches die eltern auch bezahlen dürfen. oh man.
 
Wenn da steht "will CS 1.6 mit 870000fps spielen mami und papi machen das schon" ist das für dich keine Ironie? :fresse:

@ Topic

Mir gefällt das Design durchaus. Hoffentlich ist das Final. :devil:
 
warum sparen die hersteller an den kühlern. so riesige highendkarten mit einer hohen TDP und solche billigkühler montiert.
kann ich nicht verstehen, wenn ich 400 euro oder 500 euro ausgebe, kann man als kunde auch mehr erwarten dürfen.
mag daher immer grafikkarten mit besonderen kühlern, die immer später erscheinen.
 
warum sparen die hersteller an den kühlern. so riesige highendkarten mit einer hohen TDP und solche billigkühler montiert.
kann ich nicht verstehen, wenn ich 400 euro oder 500 euro ausgebe, kann man als kunde auch mehr erwarten dürfen.
mag daher immer grafikkarten mit besonderen kühlern, die immer später erscheinen.


Das nennt man Gewinnoptimierung!
Gruß
Klatty
 
"Überarbeitete TMUs"....wenn ich so an Barts denke wird mir bei dem Satz ganz mulmig in der Magengegend... :ugly:

Mit hoher Wahrscheinlichkeit wird uns die AF-Qualität von Barts oder sogar noch schlechter erwarten. Derzeit gibt es genügend Gründe dem Marketing von AMD nicht mehr zu trauen. Erst bekommt der Performance-Chip "Barts" den Namen der vorherigen Mainstream-Karten - HD3870, 4870 und 5870! Und dann verarscht uns AMD noch aufs Übelste mit der AF-Qualität und hofft dass niemand die Cheats bemerkt :daumen2:

Wer nicht weiß worum es geht:

AMDs Radeon HD 5800/5900/6800 mit Rückschritten bei der Filterqualität | 3DCenter.org

Und hier noch einmal ein sehr anschaulicher Bildvergleich, indem man ganz deutlich erkennen kann, das HQ auf einer HD 6870 sogar mehr flimmert als Q:

AMD Radeon HD 6850 und HD 6870 Test - Bildqualität: Texturenflimmern (9/21) - TweakPC


Vielleicht reichte die negative Presse zum AF der HD 6XX0-Karten ja aus, sodass AMD mit Cayman doch wieder eine bessere AF-Qualität anbietet. Wenn nicht, dann hoffe ich dass AMD dafür die gleichen Früchte ernten darf wie seinerzeit Nvidia mit dem flimmernden G70 ;)


Mit einer TDP von über 255 Watt, wird die HD 6970 mindestens genauso laut werden wie eine GTX 280, so etwas ist absolut inakzeptabel. Da die GTX 580 wohl auch wieder ohrenbetäubend laut sein wird, bin ich letzten endes doch froh, dass ich mich dazu durchgerungen habe mir eine leise Zotac GTX 460 AMP! zu bestellen. Die nächste High-End-Generation werde ich wohl bis zum nächsten Shrink überspringen.


Du redest ständig und immer wieder die gleiche Scheissse, so langsam haben wohl hier alle deine Abneigung zu ATI/AMD mitbekommen :daumen2:.
werde glücklich mit Nvidia und verschone uns mal zur Abwechslung mit deinen "ATI/AMD bash Ergüssen"...Danke :klatsch:.
 
Du redest ständig und immer wieder die gleiche Scheissse, so langsam haben wohl hier alle deine Abneigung zu ATI/AMD mitbekommen :daumen2:.
werde glücklich mit Nvidia und verschone uns mal zur Abwechslung mit deinen "ATI/AMD bash Ergüssen"...Danke :klatsch:.
Der Typ erinnert mich an Lovesuckz aus dem 3dC Forum.
Wer HQ haben will stellt sich in den Treibern alles auf Hoch. Und auch WENN es Augenkrebs BQ sein sollte ist es immernoch die Entscheidung des Endverbrauchers und der Endverbraucher schreit im Moment nicht nach ÜBER NV BQ, was scheinbar zeigt, dass man als "normaler" PCler doch nicht so hart sieht wie es ununterbrochen gepredigt wird.
 
hi leute, hier nochmal ein statement zu graka amd/nvidia themen. wer quantität gewohnt ist dem wird der momentane zustand den amd im filter hat wohl verschmerzen können. alle anderen und damit meine ich auch mich , werden wenns ihr system es hergibt alles auf high stellen wollen, um sich dann an der wundervollen grafik zu ergötzen. unterm strich hat da nvidia halt einiges mehr zu bieten. ohne jetzt alle vorzüge aufzählen zu wollen muss man immer zugeben das jeder user ein anderen anspruch hat oder halt anders seine prioritäten setzt. von daher sind und bleiben solche diskussionen im kern eigentlich belanglos. LG
 
@ DiZER

Ich glaube Blediator16 will eher darauf hinaus, das das Thema AF bei Barts im Moment einfach viel zu übertrieben wird.
Dr.Cox bezieht sich wohl auf den Computerbase Test,der der aktuellen AMD Generation in einem Worst Case Szenario (HL2) einen minimal sichtbaren Unterschied zur NV Riege aufzeigt.

Dabei unterschlägt Dr.Cox eben auch das HL2 ein Härtefall ist,und sich so auf die restliche
Spielewelt nicht unbedingt übertragen lässt. Auch das hat Computerbase im Test klar gestellt. Daher wird jetzt hysterisch das AF schlecht geredet,basierend auf einem Test der genau ein einziges Spiel explizit behandelt.

Klar hat die AMD Riege beim AF momentan das Nachsehen, und die Kritik ist auch berechtigt.
Jedoch sollte man aus einer Mücke keinen Elefanten machen, und genau das hat die CB getan. Im normalen Spielealltag werden wohl 95% aller Spieler den Unterschied nicht mal bemerken.

Und auch mit aktuellen AMD Grafikkarten kannst du alles auf "High" stellen und dich an der wundervollen Grafik ergötzen. Du tust so als würden AMD Grafikkarten nur Grafikmatsch produzieren,da sollte man auf dem Boden der Tatsachen bleiben.

Beide Chipproduzenten haben für Spieler einiges zu bieten, sei es bei AMD die Eyefinity Technologie oder bei NV eben beispielsweise "3D Vision".
Das ist alles eine Frage der persönlichen Vorliebe. Deswegen ist der eine Hersteller nicht schlechter als der andere, nur eben anders.
 
Zuletzt bearbeitet:
@Phobos001

schön gesagt :)

ich zB. hatte nie Probleme mit meinen ATI karten.
Sie waren preiswert und schnell und hatten nie ein Problem.

Bei den Nvidia Karten hingegen war es so, dass ich damit eher Probleme hatte und die Performance für das Geld mau war. (und ja die treiber waren ordentlich entfernt und installiert)

das einzige was mich zu nvidia bringen könnte, wäre physx.
aber bei mafia II kamen dann so schöne tricks, wie das auch alles locker für die CPU zu berechnen war und es trotzdem perfekt aussah.
und da ich CUDA nicht brauche, bleib ich lieber bei AMD was Grafikkarten angeht, da die (bei mir) tadellos und schnell laufen (schnell = 1920x1200 + alle filter + max) und das mit einer alten grafikkarte^^
 
Du redest ständig und immer wieder die gleiche Scheissse, so langsam haben wohl hier alle deine Abneigung zu ATI/AMD mitbekommen :daumen2:.
werde glücklich mit Nvidia und verschone uns mal zur Abwechslung mit deinen "ATI/AMD bash Ergüssen"...Danke :klatsch:.

....sagte der User mit dem AMD-Sixpack als Avatar und dem chronischen Drang Fakten zu ignorieren, wenn es darum geht AMD zu verteidigen... :ugly::lol:

Wir sind hier in einem Hardwareforum und nicht in der Vorschule. Das heißt wir reden hier sachlich über Fakten und Tatsachen. Und nicht darüber welchen Hersteller man lieber mag, oder welcher der besser Hersteller ist. Wir sind hier nicht in einem Fußballstadion, sondern in einem Fachforum. Wenn du nicht in der Lage sein solltest sachlich über Fakten und Tatsachen zu diskutieren, dann brauchst du dich hier doch gar nicht beteiligen, niemand zwingt dich dazu.


@ DiZER
Ich glaube Blediator16 will eher darauf hinaus, das das Thema AF bei Barts im Moment einfach viel zu übertrieben wird.

Was soll daran übertrieben sein, solch einen Mangel in der AF-Qualität anzuprangern. Oder fandest du es etwa auch falsch, dass man seinerzeit die AF-Qualität des G70 angeprangert hat und deswegen seit dem G80 ein fast perfektes AF auf Nvidia-Karten hat?


@ DiZER
Dr.Cox bezieht sich wohl auf den Computerbase Test,der der aktuellen AMD Generation in einem Worst Case Szenario (HL2) einen minimal sichtbaren Unterschied zur NV Riege aufzeigt.

Also ich beziehe mich in erster Linie auf "3Dcenter", wo man das Flimmern zuerst entdeckt und nachgewiesen hat. Dass du behauptest, dass das Flimmern einer HD 6870 gegenüber einer aktuellen Nvidia-Karte nur "minimal sichtbar" ist, zeigt nur dass du dich mit dem Thema noch nicht ausführlich genug befasst hast. Ich habe hier eine GTX 280 und eine HD 4870 und konnte beide Karten direkt vergleichen. Man sieht in fast jedem Spiel das hoch aufgelöste Texturen benutzt einen deutlichen Unterschied zwischen beiden Karten. Wer behauptet er sieht kein Flimmern, dem fehlen entweder die objektiven Vergleichsmöglichkeiten zu Hause, oder er möchte nur AMDs offensichtliche "Cheaterei" - anders kann man es einfach nicht bezeichnen - verteidigen.


@ DiZER
Dabei unterschlägt Dr.Cox eben auch das HL2 ein Härtefall ist,und sich so auf die restliche
Spielewelt nicht unbedingt übertragen lässt. Auch das hat Computerbase im Test klar gestellt. Daher wird jetzt hysterisch das AF schlecht geredet,basierend auf einem Test der genau ein einziges Spiel explizit behandelt.

Hier wird nichts unterschlagen. Wir reden hier von mehrfach bewiesenen Fakten. Auch auf PCGH wird demnächst ein Artikel zu AF-Flimmern der HD 6870 erscheinen. Unterschlagung ist, wenn man die schlechte Filterqualität der HD 6870 nicht erwähnen würde.

Vielleicht solltest du dir noch einmal diese Videos hier anschauen:

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php


@ DiZER
Klar hat die AMD Riege beim AF momentan das Nachsehen, und die Kritik ist auch berechtigt.
Jedoch sollte man aus einer Mücke keinen Elefanten machen, und genau das hat die CB getan. Im normalen Spielealltag werden wohl 95% aller Spieler den Unterschied nicht mal bemerken.

Natürlich bemerkt man das AF-Flimmern, wenn man darauf hingewiesen wird, oder den Vergleich zu dem AF einer Nvidia-Karte hatte. Das ist wie mit einem Pixelfehler, erst wenn man weiß, dass er da ist, wo man suchen muss, oder wie es eigentlich aussehen müsste fällt es einem auf und springt einem ständig ins Auge. Da es viele ATI-User gibt, die aktuell keine Nvidia-Karte zu Hause haben, oder gar noch nie eine hatten (aus Prinzip vielleicht:ugly:), fehlt denen natürlich die Vergleichsmöglichkeit. Das heißt sie kennen kein anderes AF und halten vielleicht das Flimmern für normal, obwohl es nicht normal ist.
 
Zuletzt bearbeitet:
Ähm ja Cox, aber ich mein auch, das es inzwischen wirklich nervt, das du in JEDEM Topic es den CB Beitrag
ZEILENFÜLLEND

unterbringst. Zumal wie gesagt, bei der 68x0 sieht man es in den Filmen wirklich, aber man muss auch sagen, im normalen Spielbetrieb sieht man es bei weitem nicht so wie dort. Zumal ja wohl nur HL2 so stark davon betroffen ist.

Klar bei nVidia ist es besser, und für AMD wäre es auch wünschenswert, aber es ist jetzt kein Punkt, bei dem man so austicken kann wie du es jetzt die letzten Tage gemacht hast. Es ist gut zu wissen und in die Entscheidung mit einzubinden, das wars aber.

Wos dann aber langsam sinnfrei/lächerlich wird ist bei der 5k. Das sieht man zwar auf dem Video relativ schnell, aber im Spiel wirste das wirklich sehr sehr sehr sehr unwahrscheinlich wirklich mal bewusst wahrnehmen.

Da find ich die etwas lascheren Farben im Kontrast und Sättigung bei dem GTX Video genauso "schlimm" wie das Flimmern bei der 5k.

Was mir allerdings etwas sauer aufstößt und etwas parteiisch wirkt ist, das hier AMD wirklich in der Luft zerfetzt wird, man aber über die Winkelabhängigkeit im AF Seitens nVidia rein GARNICHTS hört. Wenn man einen Hersteller schon so extrem auseinander nimmt (wobeis bei der 68x0 zumindest in dem Setting schon gerechtfertigt ist, ob in anderen Games ist aber sehr zu bezweifeln), dann sollte man das mit dem anderen eben auch machen. Da hört man aber halt garnix zu, wobei man sicher auch Settings finden kann, wo mans halt GENAU sieht selbst in Games und nicht dem lustiegn Tunnel mit den Farbkreisen. Aber komischerweise wird da halt garkein Ton drüber verloren was mir inzwischen echt sauer aufstößt, weils halt parteiisch wirrkt.
 
Die Unterschiede bei der Winkel(un)abhängigkeit sieht man idR aber in 99% der Fälle nicht, das AF-Flimmern (und das Banding der HD5k) schon.
 
Mal eine Frage zum Anisotropen Filter:

Ist die Qualität des AF der 68xx jetzt vergleichbar mit dem der HD 48xx ?
(jeweils die Standardeinstellung )
 
Die Unterschiede bei der Winkel(un)abhängigkeit sieht man idR aber in 99% der Fälle nicht, das AF-Flimmern (und das Banding der HD5k) schon.

Ja, aber zumindest bei der 5k Serie siehste ja das Flimmern normal genauso wenig, wie die Winkelabhängigkeit bei nVidia, ich find das wird alles viel zu sehr aufgebauscht und dann auch noch einseitig. So heis gegessen wie das hier alles gekocht wird, wird es nicht.

Bei der 68x0 kann ich nicht sagen, obs einem öfters auffällt oder nicht. Ich kann mir da aber wirklich vorstellen, das man es schon selbst merken könnte in Spielen. Ob dem aber so ist, kann ich nicht sagen, da ich so eine Karte noch nicht vor mir hatte.

Wäre daher angebracht daran was zu ändern, und wenns diese Serie nicht mehr geht, dann auf jedenfall für die nächsten hinter die Löffel schreiben und dran arbeiten.

Wenns nicht auffällt kann man aber getrost damit leben. Ich mein hey bei nem 120 PS Auto regt sich ja auch keiner auf, wenns durch Serienstreuung auch öfters mal welche mit 118 gibt, weils halt absolut SCHEIS egal ist, und ohne Leistungsprüfstand nicht auffällt, und hier ist es in vielen Bereichen halt genauso und damit in meinen Augen totale Hysterie
 
Nun, ich sehe das Flimmern und mich stört es und Raff ebenfalls. Die Winkelunabhängigkeit AMDs im Vergleich zur fast Winkelunabhängigkeit NVs sieht selbst bei uns in der Praxis keiner. Die Winkelunabhängigkeit AMDs ist ein Papierargument, das Flimmern und Banding AMDs aber eine Praxisproblem. Daher wird es auch kritisiert und Cayman kann noch so schnell sein - ohne gescheites AF werden viele Bildqualität-Enthusiasten die GTX 580 bevorzugen.
 
Zurück