Radeon HD 6970: Erste angebliche Bilder einer Referenzkarte

Also das mit dem Banding ist mir auch schon mal aufgefallen, aber nicht dauerhaft oder so das es wirklich gestört hätte. Es war halt nur so ein: "Huch wasn da los, das sieht ja komisch aus"

Ich muss allerdings auch sagen, ja ich versteh verdammt auf ne hammer Grafik, aber das ist für mich nicht alles. Ich zieh mich nicht an allem hoch wie nochwas. Strategiespiele, die Landschaft in Flugsims etc müssen garnicht so perfekt aussehen wie in Shootern. Ich mein, mit 16 Farben gings damals ja auch noch, oder gar in Schwarz/Weiß, bzw sogar in Schwarz/grün bzw. rot

Bildqualität-Enthusiasten

Ich glaub das trifft ziemlich. Ich mein es gibt ja auch genug Leute die meinen das alle Boxen die unter nem Tausender kosten eh nur Brüllwüfel und was weiß ich noch alles sind. Von den Plattenspielern ab 10k Euro mal ganz zu schweigen, weil ja alles drunter nur bescheiden klingt. Ganz so extrem ist eh hier nicht, weil selbst normalsterbliche können es sehen, aber wie gesagt ich find es wird doch zu sehr hochgekockt, wodurch es halt doch schon wieder sehr subjektiv wird
 
im großen un ganzen stimm ich skysnake da zu. es is sicher ma intressant zu wissen und es zu leugnen wäre au ne richtig (hab die 20 verlinkungen von cox in diversen threads auch gesehn un begutachtet ^^). aber sein wir ehrlich: wer keine vegleichsmöglichkeit hat, den juckt das nen scheis ^^ hat cox ja selbst zugegeben. auf seinen verlinkten vergleichsvideos sieht mans sehr schön, aber obs mir aufgefallen wäre, wenn nich das "perfekte" af direkt als vergleich dagewesen wäre... ich bezweifle es ^^
 
Das Filmmern stört mich nicht so, es gibt wichtigere Dinge. Ich hatte schon mehr nVidias als AMDs, und der Unterschied beim Umstieg ist mir auch nicht so sehr aufgefallen, allerdings bemerke ich es.

Das Banding ist mir erst einmal aufgefallen.
 
i aber sein wir ehrlich: wer keine vegleichsmöglichkeit hat, den juckt das nen scheis ^^

Und das rechtfertigt deiner Meinung nach die schlechtere AF-Qualität? Klar, man kann sich auch selber die "Hucke" voll lügen und behaupten man sieht es nicht, oder es stört einen nicht, an der schlechteren AF-Qualität ändert es jedoch nicht, sie ist auch weiterhin da :ugly:

Wenn jetzt aber alle Druck machen, dann bekommen auch ATI-User wieder eine bessere AF-Qualität. Solange dies jedoch nicht passiert ist man als qualitätsbewusster Spieler leider dazu gezwungen immer eine Nvidia-Karte zu kaufen. Ich würde auch gerne einmal wieder eine ATI-Karte kaufen, doch so lange einige AMD-Fans sich und andere belügen, nur um AMD in einem besseren Licht da stehen zu lassen wird das wohl nichts, schade :(


hat cox ja selbst zugegeben. auf seinen verlinkten vergleichsvideos sieht mans sehr schön, aber obs mir aufgefallen wäre, wenn nich das "perfekte" af direkt als vergleich dagewesen wäre... ich bezweifle es ^^

Ich habe nichts "zugegeben", ich habe lediglich gesagt, dass es viele Leute als normal erachten, weil sie einfach nichts besseres kennen. Das ist zwar traurig, entspricht aber leider der Wahrheit.
 
Zuletzt bearbeitet:
Cox sorry, editier bitte den Vergleich raus, der ist erniedrigend. Die Leute suchen sich das zumeist nicht raus, und dir steht nicht zu über diese zu urteilen oder sonst wie zu defamieren.
 
Diffamieren war das Wort das du suchtest.

Ich hab das ATI-Flimmern mangels ATI-Karte noch nicht gesehen.
Kann mich allerdings erinnern, wie seinerzeit beim Ur-Stalker hauptsächlich
die Vegetation brutalst geflimmert hat. Ist dann entweder durch Patch oder
neue NV-Treiber korrigiert worden.
War in Bewegung schon unangenehm. Da ich ab und zu mal stehen bleibe und mir einfach nur die Gegend anschaue, während ich überlege wie es weitergeht und/oder an der Kippe ziehe, und es dann wirklich übelst auffällt,
wollte ich seinerzeit das Spiel schon fast vorzeitig abbrechen und auf einen
Patch warten.
Falls das etwa mit dem ATI-Flimmern vergleichbar ist, dann wäre das für mich jedenfalls ein absoluter Kaufhinderungsgrund, da muß ich Coxie auch mal recht geben.

@skysnake: Witzig, ich hab den guten Doktor Cox ne Zeitlang für einen
NVidia-Basher gehalten. Man sieht wohl wirklich immer das was man sehen will.
 
Und das rechtfertigt deiner Meinung nach die schlechtere AF-Qualität? Klar, man kann sich auch selber die "Hucke" voll lügen und behaupten man sieht es nicht, oder es stört einen nicht, an der schlechteren AF-Qualität ändert es jedoch nicht, sie ist auch weiterhin da :ugly:

Wenn jetzt aber alle Druck machen, dann bekommen auch ATI-User wieder eine bessere AF-Qualität. Solange dies jedoch nicht passiert ist man als qualitätsbewusster Spieler leider dazu gezwungen immer eine Nvidia-Karte zu kaufen. Ich würde auch gerne einmal wieder eine ATI-Karte kaufen, doch so lange einige AMD-Fans sich und andere belügen, nur um AMD in einem besseren Licht da stehen zu lassen wird das wohl nichts, schade :(




Ich habe nichts "zugegeben", ich habe lediglich gesagt, dass es viele Leute als normal erachten, weil sie einfach nichts besseres kennen. Das ist zwar traurig, entspricht aber leider der Wahrheit.



Ach Mister Cox schon wieder :schief: Wer macht dich zu großen Anführer zur Verbesserung der AMD Filterqually :huh: Ich denke, das es noch mehr Mündige User gibt, die sich selber ein Bild machen können und sogar eine AMD Karte besitzen, als dein dauerndes Geflame über AMD.
Ich denke du bist der letzt den man braucht um zu beurteilen wie gut oder schlecht das AF bei den neuen Karten ist.
Dazu kommt noch das du deine Vermutungen über die 69XX versuchst als Fakten zu verkaufen. Du weist nicht mehr als alle anderen User hier.
Also lehn dich zurück und warte es ab. wenn deine Annahmen stimmen, so kannst du sagen ....siehste, das habe ich doch gesagt......:daumen:
Aber so lange kannst du uns hier bitte mit deinem Geflame in jedem Tread der 69XX verschohnen. Mich nervt das tierisch und am meisten deine Überheblichkeit dabei. Für dein EGO: DU BIST DER TOLLSTe UND HAST DAS BeSTe. :daumen:
@ Top: wir werden sehen, noch ist nichte 100%ig. Erst officiele Tests abwarten. Dann kann man immer noch mekern. Ich hoffe das der Stromverbrauch (real) nicht so hoch ausfällt. Aber mal sehen.
 
Zuletzt bearbeitet:
Ich hoffe dass die neue AMD Karte und die GTX 580 von Nvidia ebenbürtig sind, denn so kann keiner den Preis bestimmen und wir können uns auf günstige Karten freuen.
 
Günstige Karten? Wenn man davon ausgeht dass die GTX 580 mindestens 500 € kosten wird kann man getrost davon ausgehen dass eine HD 6970 ca. 450 kosten wird (ich erwarte dass sie so um die 10-15% schwächer als die GTX 580 sein wird, analog zu HD 5870 vs GTX 480). Das würde ich jetzt nicht als günstige Preise bezeichnen. Sie sind in meinen Augen einfach nur überzogen.

Ok, ich gehör jetzt zu den Leuten die eigentlich nicht bereit sind mehr als 200 € für eine Graka auszugeben, 250 € im Extremfall vielleicht. Sicher kann man einwenden dass die ganze Geschichte ein Hobby ist, da ich (und vermutlich die meisten anderen heir im Forum auch) noch andere Hobbys habe, zum Teil wesentlich kostenintensiver, kann ich es teilweise nicht nachvollziehen dass so viele Leute bereit sind diese horrenden Summen zu bezahlen.
 
Ich glaub das trifft ziemlich. Ich mein es gibt ja auch genug Leute die meinen das alle Boxen die unter nem Tausender kosten eh nur Brüllwüfel und was weiß ich noch alles sind. Von den Plattenspielern ab 10k Euro mal ganz zu schweigen, weil ja alles drunter nur bescheiden klingt. Ganz so extrem ist eh hier nicht, weil selbst normalsterbliche können es sehen, aber wie gesagt ich find es wird doch zu sehr hochgekockt, wodurch es halt doch schon wieder sehr subjektiv wird

Das Problem ist halt, dass es einige Spiele gibt, in denen es wirklich jeder sieht und in denen es auch die meisten stört. Das mögen derzeit sehr wenige sein - aber was nützt das, wenn das nächste Lieblingsspiel in die gleiche Kerbe schlägt? Wenn man mit dem Klang günstiger Boxen zufrieden ist, dann kann man sich sicher sein, dass man das auch in 10 Jahren noch sein wird, wenn sich der Musikgeschmack nicht grundlegend ändert. Wenn man heute eine HD6 kauft und nächsten Monat ein Toptitel erscheint, den man unbedingt spielen möchte und in diesem die gleiche Bild"qualtiät" wie in HL² auftritt, dann hat man Altplastik im Rechner stecken, das einem rein gar nichts bringt.
(vergleiche auch Treiberoptimierungen: Nett, wenn Nvidia über mehrere Monate hinweg 10% Mehrleistung in einigen Toptiteln rauskitzelt - aber was nützt einem das, wenn man im 7 Monat was spielen will, was nicht auf der "zu optimierender Benchmark"-Liste steht? Imho kommt es bei Grafikkarten nicht darauf an, was sie im Durchschnitt leisten, sondern was sie mindestens bringen.)
 
@skysnake: Witzig, ich hab den guten Doktor Cox ne Zeitlang für einen
NVidia-Basher gehalten. Man sieht wohl wirklich immer das was man sehen will.

Richtig, sobald man sachliche und berechtigte Kritik an dem Produkt eines Herstellers ausübt, glauben manche User halt, dass man ihre Ehre gekränkt hat, weil man es gewagt hat etwas negatives gegen eine Produkt ihres Lieblingsherstellers gesagt zu haben. So kommt das auch zustande, dass ich von allen Fanboys - egal ob AMD oder Nvidia - angeflamt werde. Als ich die GTX 480 kritisiert habe wurde ich als ATI-Fanboy beschimpft und jetzt kritisiere ich das schlechte AF von "Barts" und werde nun als Nvidia-Fanboy beschimpft. Die Kiddis können sich auch echt nicht entscheiden, was ich nun bin... :ugly:


Wer macht dich zu großen Anführer zur Verbesserung der AMD Filterqually :huh:

Das weiß ich auch nicht, verrate du es mir. Ich wusste bis vor kurzem noch nicht einmal dass ich der "Anführer" von irgend etwas bin.
Aber dank dir weiß ich nun das ich ein "Anführer zur Verbesserung der AMD Filterqualität" bin... :ugly:


Ich denke, das es noch mehr Mündige User gibt, die sich selber ein Bild machen können und sogar eine AMD Karte besitzen, als dein dauerndes Geflame über AMD.

Wieso über AMD? Eigentlich kritisiere ich nur ein Produkt von AMD und nicht die ganze Firma. Vielleicht solltest du in Zukunft nicht nur die polemischen Äußerungen weglassen, sondern auch einmal etwas besser differenzieren ;)

Nun ich besitze sogar eine ATI und eine Nvidia-Karte, was mich in die glückliche Lage versetzt beide Karten miteinander zu vergleichen.

Bewiesene Tatsachen anderen Leute in einem Fachforum nahe zu bringen, damit sie aus den Informationen einen nutzen bei ihrer nächsten Kaufentscheidung ziehen können ist wohl eine der grundlegenden Aufgaben eines solchen Forums. Geflame ist da doch dann schon viel eher dein Fachgebiet, in welchem du natürlich hervorragende Kompetenzen vorzeigen kannst.


Ich denke du bist der letzt den man braucht um zu beurteilen wie gut oder schlecht das AF bei den neuen Karten ist.

Stimmt, da hast du recht, da reicht dann wieder eine AMD-Folie, die erklärt, dass das AF besser geworden ist, so wie bei "Barts" :ugly:

Oder aber auch ein User mit einem ATI-Emblem als Avatar, der behauptet AMD-Karten würden nicht flimmern :ugly:


Dazu kommt noch das du deine Vermutungen über die 69XX versuchst als Fakten zu verkaufen.

Deine Behauptung ist wie so oft falsch. Fakt ist, dass alle ATI-Karten seit dem R600 bei hochauflösenden Texturen deutlich mehr flimmern als Nvidia-Karten seit dem G80. Dass Cayman auch eine minderwertige AF-Qualität anbieten könnte ist nur eine Vermutung, die sich allerdings mit hoher Wahrscheinlichkeit bewahrheiten könnte. Und ich bin da nicht der einzige der das vermutet ;)


Du weist nicht mehr als alle anderen User hier.
Also lehn dich zurück und warte es ab. wenn deine Annahmen stimmen, so kannst du sagen ....siehste, das habe ich doch gesagt......:daumen:
Aber so lange kannst du uns hier bitte mit deinem Geflame in jedem Tread der 69XX verschohnen. Mich nervt das tierisch und am meisten deine Überheblichkeit dabei. Für dein EGO: DU BIST DER TOLLSTe UND HAST DAS BeSTe. :daumen:

Ich weiß zwar nicht wie es bei dir ist, aber ich brauche mein Ego nicht in einem Forum aufzupolieren ;)
 
Zuletzt bearbeitet:
Cox, man sollte aber immer die Relationen beibehalten.

Bei der 68x0 kann ich wie gesagt nicht sagen, wie extrem es wird in games, bei der 58x0 gabs die Sache aber auch mit dem Banding etc ganz kurz bevor die 6k Serie kam und da wars schon leicht Grenzdebiel. Man hat so lange für gebraucht um das vernünftig zeigbar zu machen, aber es soll doch nen Grund sein, das man ne AMD praktisch nur mit ner Beiszange anfassen kann. Das ist einfach lächerlich.

Gut bei der 68x0 isses schon deutlich mehr, das sieht man, andererseits sagen auch wieder andere, ja hier kann man noch was einstellen dann isses etwas besser. Kann sein muss aber nicht. Man muss einfach schauen wies sonst noch so aussieht. Aus EINEM game kann man ne Karte nicht so krass in den Boden stampfen. Da fehlt einfach das Verhältnis, das es angemessen wäre. Festhalten und den Leuten kann man es, aber so derart unter die Nase reiben und dabei ziemlich überzogene Vergleiche benutzen muss man wirklich nicht.

Statt: Kein normaler MEnsch kann es ertragen dieses abartig krasse piep piep Geflimmere zu ertragen, und wers kann ist Blind auf beiden Augen.
Sondern: Ein extrem Optik bewusster (das gleiche wie Audiophiler Musik hörer der sich die 50k Anlage ins Zimmer stellt ;) ) wird das Flimmern als sehr störend sehen. Für normale User kann es teilweise bei Games wie xy ebenfalls gelegentlich dazu kommen das sie das Flimmern bemerken.

So macht das Sinn und nicht anders, weils nur nen gebasche ist. KEIN normaler User setzt sich vor er zockt hin liest zich Foren zur Bildqualität an und schaut dann ob er nicht irgendwo irgendwelche Bildfehler findet. Der setzt sich einfach davor, daddelt und freut sich an der schnellen "guten"(darüber kann man jetzt wieder streiten) Optik und das wars.

Jetzt kommt sicher wieder: Ja der hat aber keinen Vergleich und bla und überhaupt...

Ja UND genau das ist doch der springende Punkt. Solange er se nicht SIEHT von alleine, oder nachdem er es gelesen hat durch Zufall, dann ist die Welt in Ordnung und das "Problem" ist kein Problem für Ihn.

Weist (ja dummes Auto beispiel...) bei nem Auto sagt doch auch keiner: Hey Hersteller xy hat bei nem Test gezeigt das x% der Autos 1-5 PS weniger haben als im Fahrzeugbrief steht. Den kann man nicht mehr kaufen, weil wenn ich 120 PS kauf dann will ich die. Mit 119 (als Extrembeispiel) kannste die KArre ja nicht mehr gebrauchen, das kannste ja keinem zumuten..... flame motz flame...

Und das ist bei Autos öfters so, aber KEIN Mensch merkt jetzt ob die Karre 5 PS mehr oder weniger hat als sie soll. Ist auch total fürn Arsch. Ganz ehrlich. Bei ner ähnlichen Situation (wie ich finde) hier wird aber nen Aufriss gemacht als ob die Welt unter geht.

Und Cox, bei der 400er Serie von nVidia haste genauso ins andere Extrem umgeschlagen. Das war auch nen bischen too much, wobeis da noch halbwegs ging. Da waren die "Probleme" meiner Ansicht nach aber auch größer. Einfach so mal ATX in den Wind schiesen und 50 Watt mehr verbrauchen als man darf UND angibt, dann die beschnittene DP LEistung und noch dazu die gebrochenen Versprechungen zu Effizienz. Das waren schon ziemliche knaller die halt auch recht leicht mitzubekommen sind.

Trotzdem ist es an sich keine schlechte Karte und hat z.B. in Sachen Tesselation wirklich einiges drauf. War aber halt alles auf biegen und brechen drauf angelegt AMD zu versägen. Man hätte sich lieber mit Platz zwei begnügen sollen und gut ist. Mal zweiter zu sein ist in meinen Augen kein Weltuntergang.
 
Jetzt schneidest du dir aber deine eigene Argumentation ab:
Der Verbrauch der GTX480 in Anwendungen (d.h. da, wo es für User zählt) liegt innerhalb der Norm (und in Furmark&Co sprengt ATI afaik seit HD3-Zeiten das Budget), die DP-Leistung spielt für niemanden in der Zielgruppe eine Rolle und die Effizienz... - jeder zweite hier vertritt die Ansicht "solange es leise bleibt: OK", noch mehr reicht "solange es idle leise bleibt" und einigen ist es komplett egal.
Wenn man diese Punkte als "ziemliche Knaller" bezeichnen möchte, dann sind Banding und Flimmern sicherlich nichts vernachlässigbar. (Zumal hohen Stromverbrauch durch gute Netzteile und hohe Abwärme durch gute Kühlung unspürbar machen kann. Aber wenn die Bildqualität unzureichend ist, dann wars das)


P.S.: Was dagegen imho tatsächlich wurscht ist, ist die Tesselationsleistung. Denn bislang sind Spiele mit guter Grafik i.d.R. weder CPU noch PCI-E limitiert und woher die Polygone kommen, mit der die Shader überfordert sind, ist somit egal.
 
DP ist mir z.B. extrem wichtig, da ich halt nicht nur auf der Karte daddeln will und ich in den nächsten Jahren wohl selbst immer mehr Programm auf die GPU bringen will, bzw wohl auch meine Diplomarbeit in dem Bereich schreiben will.

Dein Argument mit dem "guten" Netzteil zeigt, das du nicht verstanden hast, was ich meine. Wenn man als Firma ankündigt, ich bringt das 1Liter Auto auf die Straße und beim Verkaufsstart kommt dann raus das es doch 3 Liter frisst, dann isses egal, wie gut das Ding sonst ist, ein Grundlegendes Versprechen ist gebrochen worden.

Bei Fermi hat nVidia extremst vor release auf die Effizients gesetzt, davon aber rein garnichts gehalten. Klar als normaler User hau ich mir halt nen wie du sagst "gutes" NT rein, damit sorg ich aber nur das mein System stabil läuft. Verbrauchen tut die Karte deswegen nicht, denn mit dem gleichen NT wäre ne sparsamere Karte eben auch nochmal sparsamer als mit nem "schlechteren" NT.

Fermi war expliziet als Karte für wissenschaftliche Anwendungen angekündigt, und so mancher Cluster wurde auf die Versprechungen von nVidia hin geplant (ja sowas dauert etwas länger..) und am Ende hat man nicht das bekommen was man erwartet hat. Zwar immer noch besser als andere Sachen, daher wurde es auch eingesetzt, aber bei weitem nicht das was man erwartet hat, und Stromverbrauch + Kühlung sind in dem Bereich mit die größten Kostenfaktoren, wohlgemerkt da kosten die Karten mehr als das 4 fache von den Consumer Karten.

Da machts auch nen riesen Unterschied ob bei 20-100 Karten jeder Karte 50 Watt mehr zieht oder nicht. Da kanns dann nämlich passieren, das du deine Stromversorgung nochmal umstellen darfst, die vermehrte Abwärme sorgt dann wenns dumm läuft dafür das deine Kühlung nicht mehr ausreicht und einzelne Stellen zu warm werden etc etc. Je größer das System wird, desto mehr kann dich ein erhöhter Strombedarf in Schwierigkeiten stürzen.

Also von daher bleib ich dabei, das die gebrochenen Versprechungen schon ziemliche Knaller waren, auch wenn sie bei den meisten Nutzern nicht so extrem auftreten, außer halt das Problem, dass das alte NT halt nicht ausreicht.
 
Ich will die Schwächen der Fermi nicht kleinreden - aber du sprachst bislang nicht von Fermi bzw. den Fermi-basierten Produkten, die im vorraus beworben wurden.
Du sprachst von der Geforce400 Serie und davon, was Spieler stört.
Da muss ich sagen: Was AMD als "quality" verspricht, hält dieses Versprechen nicht ein, was Nvidia als "GTX480" versprochen hat, tut es dagegen in weiten Teilen (da wurde nämlich nie von Effizienz geschwärmt). Was AMD an Schwächen liefert, kann der Nutzer nicht kompensieren, was Nvidia an Schwächen liefert, dagegen nahezu vollständig (bis auf die Stromaufnahme, aber die nehmen die meisten Heimnutzer eben wieder nicht war)

-> Wer sich über die GTX480 aufregen möchte, der sollte vor Blick auf die HD68x0 sicherstellen, das ein Arzt in der Nähe ist.

(man kann die Sache alternativ natürlich auch sachlich betrachten und gar nicht von Knallern und Katastrophen sprechen. Aber das wäre natürlich langweilig :ugly: )
 
Es ist lustig wie einige User z.B. Doktor Cox nvidia verteidigen und immer wieder das AF- Problem dazu zur Hilfe nehmen. Sie sprechen von Objektivität, vergessen dabei aber Kritik am eigenen favorisierten Produkt.
Wie da wären:

  1. Hoher Stromverbrauch
  2. zum Teil laut
  3. GTX 460 Latency- Problem mit älteren Chipsätzen (P35 und P45)
  4. DXVA (mpeg2) verursacht Augenkrebs ( Sat TV-Fussball: verfälschte Farben und Artefakte um die Spieler herum )
  5. Die ca. 20 Spiele die hardwarebeschleunigt Physix unterstützen sind in ca. 7 Jahren wohl als Gegenargument zu bezeichnen.
  6. brechende Lötstellen und Treiber welche die Graka butzeln
Es wäre schön, wenn alle User mal über den Tellerrand der 3D Umgebung blicken würden, denn z.B bei DXVA hat bei meinem Vergleich (Formatunterstützung und deren Qualität) eindeutig ATI die Nase vorn.
 
Zurück