PCGH.de: Neue Catalyst-Treiber unterschlagen Grafikdetails

Oha, ab morgen früh müssen ATI Karten Besitzer ganz tapfer sein. :schief:
Schmeißt schonmal vorsorglich ne Valium ein. ;)

Fassen wir doch schonmal zusammen:

1. Bitte liebe Geforce Kinder denkt an die sichtbaren Shader Replacements in Crysis bei Nvidia Karten, bevor ihr losbasht.

2. Ja das ATI AF ist im Vergleich zum 99% winkelunabhängigen Nvidia Pendant optisch schlechter.

3. Dafür finde ich das AA bei ATI schöner als das von Nvidia (egal ob mit oder ohne Gamma Korrektur).

4. AI off und High Quality als Standard beim Benchen schaffen keine gleichen Verhältnisse. AI off bei ATI bedeutet dass viele Shader Replacements gleich mit deaktiviert werden. High Quality bei Nvidia bedeutet nur sauber gefilterte Texturen.

5. AI ist eine dämliche Erfindung und lässt dem User zuwenig Möglichkeiten.

6. Probleme mit AA unter DX9 in der UE3 könnten tatsächlich ein Bug sein. Immerhin handelt es sich nunmal um einen "Hack" der das AA ermöglicht. Man bedenke, dass die Engine es offiziell nur unter DX10 unterstützt. Vielleicht sind die Shader deaktiviert worden, weil es sonst Bildfehler gäbe. Nichts desto trotz natürlich ein untragbarer Zustand und Nvidia bekommt es ja anscheinend auch hin.
 
Aber nichts vergessen bitte:

1. Gibt es die auch noch in den aktuellesten Treibern (+Begründung)? Screenshots/Links? Würde mich freuen....
Nur in Crysis?

2. Nicht nur die Winkel, sondern auch der trilineare Filter und das dezent geringere Flimmern darf erwähnt werden. Ups, erwähnte da gerade jemand 64x AF (und allgmein schärfere Texturen) z. B. unter 4x4 SSAA? :wow:

3. Diesen Unterschied sucht man mit der Lupe - und findet ihn trotzdem nur schwerlich. Die absolute optische Dominanz der NV SSAA oder SSAA+MSAA Mischmodi ist jedoch über jeden Zweifel erhaben! Wer da noch behauptet das AA von ATI wäre allgmein besser, obwohl ATI nichts vergleichbares bietet und zudem in AA und AF Kompatibilität hinterherhinkt, weiss schlichtweg nicht wovon er spricht. Will ich dir speziell aber nicht vorwerfen, ist einfach ein immer wieder gerne wiederholter Irrglaube (oder Halbwahrheit), nur weil bei den vergleichbaren Modi einige Pixel bei ATI besser "sitzen" :schief: . Wer einmal ein SSAA geglättetes Bild ohne Pixel-/Textur-/Shaderflimmern und besser aufgelösten Details gesehen hat, will nie mehr zurück. Leider kostet das u. U. viel Leistung, aber das ist es wert. Naja, dem 08/15 Gamer wird das ziemlich egal sein, für mich ist es kaufentscheidend.

6. Hoffen wir es und warten gespannt auf zukünftige Berichte dieser Art...
 
Zuletzt bearbeitet:
Also zunächst ist es sehr bescheiden das AMD-ATI das nicht selbst publiziert das der neue
catalyst einen fehler enthält wenn auch vieleicht unabsichtlich was ich mir aber nicht vorstellen kann den dann wären die total unfähig!
Ausserdem habe ich im freundeskreis feststellen müssen das effekte andscheinend geschmaksache
sind also kan mann nicht pauschal sagen was besser aussieht.
Und die aussage über 08/15 Spieler ist in diesem forum vollkomen überflüssig denen
ist das bestimmt nicht egal wenn ihnen für den vollen preis den sie für das produkt bezahlt haben
nicht alles zur verfügung steht.
 
:lol:Ich sehe keine Unterschiede auf den Bildern. NULL. :lol:Mal wieder ein Hammersbericht.

Und der eine mit seinem Freundeskreis wo sich alle beschweren wegen Details: Sind deine Freunde Grafikkarten?:lol:
 
Ja klar, ATI baut auf mehr FPS mit einer HD4870 bei UT3. Klar ist das ein Cheat, ist ja auch von nöten, sonst würd das Spiel ja gar nicht laufen. :lol:

Also in meinen Augen ist es ein Bug und nix anderes, denn warum sollte ATI mit der neuen Karte, die es nunmal wirklich nicht nötig hat "bei UT3" mehr FPS zu schaffen so einen Cheat bauen. Ob du jetzt 100FPS oder 110FPS hast ist mir mal so ganz egal. Alles flüssige über 40 ist ausreichend.

Passieren tut das nunmal vor allem deshalb, da die Treiber ja eigentlich immer (aber von beiden) in einem Beta Status ausgeliefert werden. Sieht man ja auch daran, dass es heute normal ist einen pro Monat rauszuhauen. Früher waren die Treiber besser haben aber auch länger gebraucht.
 
:lol:Ich sehe keine Unterschiede auf den Bildern. NULL. :lol:Mal wieder ein Hammersbericht.

Und der eine mit seinem Freundeskreis wo sich alle beschweren wegen Details: Sind deine Freunde Grafikkarten?:lol:

Ich weiß ja net so genau was die Smileys da jetz bedeuten sollen, aber Unterschiede... Hmm... Vielleicht mal das Wasser angucken? Wenn du da keine Unterschiede siehst... Hmm... Augenarzt?
 
Die Unterschiede bei dem Wasserfall sind ja schon recht deutlich.

Ein vergleich zwischen AI on/off wäre mal nicht schlecht.
 
AW: PCGH.de: Neue Catalyst-Treiber unterschlagen Grafikdetails in UT3

ist nichts neues, wer Bildqualität will kommt seit der 8800GTX nicht mehr an einer GeForce vorbei. Gerade in der AF Qualität hat AMD doch seher viel aufzuhohlen.

Genauso gut könnte man jetzt sagen wer Bildqualität will kommt an ATI nicht vorbei, weil Nvidia ganz schön aufholen muss was AA angeht. Gerade in AA-Qualität hat Nvidia doch sehr viel aufzuholen. :schief:


Siehst du wie unobjektiv dein Post klingt? Dass du was die Grafikkartenhersteller angeht alles andere als objektiv bist weis ich schon ziemlich lange, allerdings wäre es trotzdem wesentlich besser dich mit deinen unqualifizierten und Fanboy-Krieg heraufbeschwörenden Aussagen bitte zurück zu halten ;) Glaubst du du schaffst das?

@PCGH:
Schön dass ihr dieses Problem aufgedeckt habt :daumen:
Negativ ist nur leider immer wieder, dass bei solchen Meldungen immer wieder die Fanboys der Gegenseite aus ihren Löchern gekrochen kommen und ihre geistigen Blähungen von sich geben, aber das wird man wohl nie verhindern können :ugly:

MfG Korn86
 
also seit der geforce 8 nimmt sich die bildqualität von ati/nvidia nicht viel. vorher war ati immer ziemich viel besser, aber seit der geforce 8 ist das nur noch minimal.

mhh zum thema. gewollt oder nicht, das ist die frage :D
 
Und wiedermal gehen die Grundsatzdiskusionen weiter, obwohl das ja nichts mit dem Thema zu tun hat...
Ich denke mal man sollte schon abwarten was AMD/ATI da als offizielle Begründung angibt. Auf jeden Fall super das PCGH sowas berichtet. Ich denke aber kaum dass die sowas als "Optimierung" einsetzen, alleine schon weil es doch auffällt. Solche Sachen kann man ja auch an Stellen einsetzen, wo man sie nicht gleich so offensichtlich sieht, oder?
Naja, abwarten und Kaffee trinken würde ich sagen.
 
Auch ich glaub hier mehr an nen Bug als an einen ''Cheat'', wie es so schön im Titel meiner Browserleiste stand...
Wenn man hier an Details sparen will, wird man das wohl kaum an den Wasserverzerrungen machen. Da gibts genug andere Optimierungen.
Und mein Gott, das ist ein Spiel, das - zumindest in meinem Freundesbereich - gar nicht erfolgreich war (bin der einzige, der das gelegentlich mal spielt)
 
Ähm... bin ich eigentlich der einzige, der findet, dass das Wasser (zumindest) auf den Bildern ohne Verzerrung besser aussieht, als mit?
 
Ähm... bin ich eigentlich der einzige, der findet, dass das Wasser (zumindest) auf den Bildern ohne Verzerrung besser aussieht, als mit?

Darum geht's aber nicht. Wenn dem Spieler Effekte nicht gefallen, kann er sie im spieleigenen Menü abstellen. Dass der Treiber eigenmächtig Details weglässt, ist prinzipiell nicht gutzuheißen.

MfG,
Raff
 
Ich finde erstens, dass es mit dem "Cheat" besser aussieht als ohne und zweitens ist es doch lächerlich wenn hier über die Grafikqualität diskutiert wird und AMD teilweise unterstellt wird zu cheaten, während das Spiel einen Hack braucht um Kantenglättung zu aktivieren lol und ihr bei anderen Tests bei Nvidia Grafikkarten freiwillig auf Easymode Grafik schaltet, also Standarteinstellungen aufgrund eurer Umfrage, damit die etwas schneller werden obwohl die Qualität so noch schlechter ist als bei den Radeons...
 
Aber nichts vergessen bitte:

1. Gibt es die auch noch in den aktuellesten Treibern (+Begründung)? Screenshots/Links? Würde mich freuen....
Nur in Crysis?
Die Replacements kommen durch Patch 1.1 zustande, nicht durch den Treiber, also mit freundlicher Unterstützung von Crytek. Deshalb bringt der Patch bei ATI Karten auch praktisch keine Performanceverbesserungen. Ich hab's sowohl mit einer Geforce 8 als auch mit einer HD4000 getestet.

3. Diesen Unterschied sucht man mit der Lupe - und findet ihn trotzdem nur schwerlich.
Ich sehe ihn so deutlich, wie den des AF. Ist mir beim ersten gestarteten Spiel sofort aufgefallen. Besonders bei 2x und 4x.

Die absolute optische Dominanz der NV SSAA oder SSAA+MSAA Mischmodi ist jedoch über jeden Zweifel erhaben! Wer da noch behauptet das AA von ATI wäre allgmein besser, obwohl ATI nichts vergleichbares bietet und zudem in AA und AF Kompatibilität hinterherhinkt, weiss schlichtweg nicht wovon er spricht.
Jetzt weiß ich nicht was ich davon halten soll. Den Unterschied bei den normalen 2x - 8x Modi siehst du nicht, aber andererseits lobst du das SSAA. Da kann ich jetzt wiederum sagen, dass ich es aufgrund der Performance sowieso nie nutzen konnte und wollte.

Leider kostet das u. U. viel Leistung, aber das ist es wert. Naja, dem 08/15 Gamer wird das ziemlich egal sein, für mich ist es kaufentscheidend.
Was hat das bitte mit 08/15 Gamer zu tun?

Ich seh's eher so, dass 4xAA mit einer HD4000 deutlich besser aussieht, als mit einer Geforce und das ist eine Einstellung, die auch in der Praxis nutzbar ist. Was interessiert mich eine Einstellung für die ich wiederum Details reduzieren müsste bzw. für die ich ein absolut unwirtschaftliches und aus ökologischer Sicht unverantwortliches SLi System brauche?! Bin ich weil ich mir über sowas Gedanken mache nicht mehr Hardcore genug? Dafür ist AF sichtbar schlechter, aber damit kann ich ebenso leben, wie mit dem schlechteren AA bei der Geforce. Perfekte Treiber haben beide Hersteller nicht.
 
Zuletzt bearbeitet:
Es ist doch mies mit solchen Tricks zu arbeiten! Ich hoffe Intel mischt hier den Markt bald auf!

Und welchen Catalyst Treiber würdet Ihr empfehlen nun, den 8.6er?
 
Ich finde erstens, dass es mit dem "Cheat" besser aussieht als ohne und zweitens ist es doch lächerlich wenn hier über die Grafikqualität diskutiert wird und AMD teilweise unterstellt wird zu cheaten, während das Spiel einen Hack braucht um Kantenglättung zu aktivieren lol und ihr bei anderen Tests bei Nvidia Grafikkarten freiwillig auf Easymode Grafik schaltet, also Standarteinstellungen aufgrund eurer Umfrage, damit die etwas schneller werden obwohl die Qualität so noch schlechter ist als bei den Radeons...

Richtig, jeder meiner Freunde einschließlich mir ist aufgefallen dass die Texturen bei ATI etwas schärfer als die bei meiner alten 8800GTS sind, selbst wenn die 8800GTS im Treiber auf HQ steht und für mich flimmern beide Karten gleich stark, sowohl meine HD4870 als auch die 8800GTS. Dass das AF bei Nvidia besser ist gleicht ATI durch ein besseres AA aus. Insgesamt wirkt das Bild auf einer HD4870 subjektiv etwas schärfer als auf der 8800GTS und das sehen meine Freunde, sowie mein Bruder genauso.

Vielleicht ist das auch nur rein subjektiv von einem zum anderen unterschiedlich, der eine findet die eher verschwommenen Texturen bei Nvidia besser und der andere die etwas schärferen bei ATI, also kein Grund darüber zu streiten ;)

Ich glaube jedenfalls nicht dass es eine Optimierung ist, das ist eher eine Fehler, Nvidia hatte zu Anfang in Crysis mit irgend einem Treiber auch solche Probleme, das kann also jedem passieren. Insgesamt muss man jedoch sagen, dass die Nvidia-Treiber nicht ganz so viele Bugs beinhalten wie ATIs Treiber ;)

@Perv: Die von dir aufgezählten AA-Modie sind ja gut und schön, jedoch für den Praxiseinsatz total ungeeignet. Ich weiß dass du auf einem kleinen Röhrenmonitor spielst, damit du diese AA-Modies nutzen kannst, aber in 1680X1050 sind diese Modie unmöglich anzuwenden, jedenfalls nicht in aktuellen Spielen ;)

Darum musst du verstehen dass wenn jemand sagt dass das AA bei ATI besser aussieht eher die Modi gemeint sind die im Treiber anwählbar sind und die man bei Spielen auch wirklich nutzen kann ohne dass man gleich eine Dia-Show bekommt und da ist bereits das 4XAA von ATI rein subjektiv schöner als das 8XAA von Nvidia. Und da ATI-Karten von 4XAA auf 8XAA in den meisten Spielen nur sehr wenig Leistung verlieren, das Bild aber tatsächlich noch optisch aufgewertet werden kann im Gegensatz zum 8XAA von Nvidia, kann man schon sagen dass das AA von ATI insgesamt besser ist ;)

Darum geht's aber nicht. Wenn dem Spieler Effekte nicht gefallen, kann er sie im spieleigenen Menü abstellen. Dass der Treiber eigenmächtig Details weglässt, ist prinzipiell nicht gutzuheißen.

Gut ist das auch nicht, deshalb freut mich dass, das ihr das aufgedeckt habt :daumen:


MfG Korn86
 
Zuletzt bearbeitet:
Zurück