AMDs "Wundertreiber": Performance-Vergleich in 50 Spielen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMDs "Wundertreiber": Performance-Vergleich in 50 Spielen

Der Youtube-Kanal Hardware Unboxed hat sich die Performance von AMDs neuem Preview-Grafiktreiber in 50 Spielen angesehen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMDs "Wundertreiber": Performance-Vergleich in 50 Spielen
 
Die Frage ist halt immer, ob AMD anfangs zu wenig Zeit in Treiberioptimierung gesteckt hat, oder aber länger am Ball bleibt und noch mehr aus der Hardware herauskitzelt, während NVidia sich dann später nicht mehr so die Arbeit macht und somit dann auch den Kauf neuer Hardware forciert, denn jeder Prozentpunkt Differenz zeigt sich ja auch in Benches mit neuer Hardware und mindert oder stärkt dessen Kaufinteresse?
Jedenfalsl ist beides für den Käufer wünschenswert: bestemögliche Performance schon gleich zu Beginn des Kaufes und langfristige Unterstützung und Optimierung für Titel, die man sich vielleicht auch später erst kauft, weil man nicht so viel Geld hat um sich teure Hardware und teure Spiele kaufen zu können.
Watch Dogs Legion z.B. werde ich wohl nicht mehr dieses Jahr spielen, zudem fehlt mir noch die passende Karte dazu. Also hat AMD hier schon mal für mich einen positiven Eindruck hinterlassen.
 
Ich find es eher traurig, dass sowas eher Jahre immer braucht, noch dazu es bei vielen Games wohl auch Einbußen gibt.
oder bei nvidia wäre das auch möglich, aber sie scheren sich einen dreck darum, weil sie wie bxbender andeutet, einfach nur neue hardware verkaufen wollen und die "alten" käufer daher nicht mehr so intensiv unterstützen, wie es möglich wäre.
 
Warum nennt AMD diesen Treiber Preview? Kommt da noch eine finale Treiberversion raus??
zitat aus dem artikel:
Ein vollwertiger Release des Treibers ist zwar inzwischen noch nicht erfolgt,

also wird man den treiber noch endgültig fertigstellen müssen, gibt so aber schonmal einen sehr (guten) deutlichen ausblick darauf, was einem mit dem finalen erwartet.
 
Die Frage ist halt immer, ob AMD anfangs zu wenig Zeit in Treiberioptimierung gesteckt hat, oder aber länger am Ball bleibt und noch mehr aus der Hardware herauskitzelt
Erfahrungsgemäß ist die Wahrheit wohl beides, AMD hat quasi schon historische Probleme mit Releasetreibern, während Nvidia hieraus sehr sehr oft den Nimbus des besseren und schnelleren Hersteller bezogen hat. Denn wirkliche Nachtests finden oft nicht statt und dann sieht man (vor allem früher, als die Printmagazine noch deutlich professioneller waren als die ersten Online Plattformen) sich die Benchmarklisten an und sah, dass NV 5% vorne lag, obwohl AMD oftmals mit jeder Treibergeneration deutlich mehr rausgeholt hat als NV und man daher am Ende oftmals vorne lag!


Gamestar hat das 2017 Mal ein wenig angeschaut, im Fazit finde ich die folgende Aussage nicht ganz dumm

Man sollte somit sagen, dass obwohl GPUs altern, die Treiber mit der Zeit reifen. Und zur Erinnerung; nur, weil AMD hier wohl die Leistung über die Zeit steigern konnte, heißt das nicht, nVidia würde irgendwie schlechter werden. Viel mehr schafft es AMD nicht die komplette Leistung ihrer Grafikkarten zu entfesseln und startet mit suboptimalen Day-One-Treibern.

GTX760 gegen HD7870 z.B, da wurden aus 14% Rückstand 16% Vorsprung
 
und da haben viele grüne doch immer über "fine wine" gespottet. amd belehrt sie eines besseren. sehr schön! :)

In wie fern?

Wir reden von 2-3%, das ist jetzt nicht so die Welt. Der Punkt bei dem "fine Wine" war, dass man Karten mit unterschiedlicher VRAM Menge verglichen hat. namentlich die GTX 670/680 2GB mit den HD 7900ern mit 3GB und die GTX 780 (Ti) 3GB mit der R9 290X 4GB. Klar, dass die AMD Karten auf Dauer weggezogen sind. Das funktioniert auch umgekehrt, die Furx X hat heute gegen die GTX 980Ti keine Chance mehr 6GB gegen 4GB sei dank. Wenn man die seltenen 4GB Modelle genommen hat, dann ist der Vergleich GTX 680 gegen HD 7970 auch anders ausgefallen.

Da AMD ja die blöde Angewohnheit hat, den Karten schon nach teilweise 5 Jahren treibermäßig konsequent den Saft abzudrehen, sind Nvidiakarten für Langzeitnutzer (wie mich) die deutlich bessere Wahl. Man sollte nur auf viel VRAM achten und noch die 5-10 Jahre Garantie mitnehmen, dann steht dem Langzeitglück nichts mehr im Weg.
 
Jetzt ist Ihre Meinung gefragt zu AMDs "Wundertreiber": Performance-Vergleich in 50 Spielen
Es ist und bleibt schwierig. Ich habe AMD Karten immer von Seiten der reinen Hardware gegenüber Nvidiakarten weit überlegen eingestuft. Die Treiber sind aber elementar, und genau da punktet der Platzhirsch, insbesondere mit Unterstützung während der Entwicklungszeit für Spieleschmieden. Ich sehe das zwiespältigt, weil diese Unterstützung exklusiv nur Nvidiakarten beschleunigt.

Was Treiber ausmachen kann jeder sofort erkennen, der profissionelle Karten, die von der Hardware nichts anderes als Spielekarten sind, aber ganr andere Treiber nutzen, erleben. Und genauso ist es hier. AMD ist langsamer und muss nachziehen. Sie machen es aber, und sehe ich z.B. das GTX 980 und R9-390 heute machen, dann braucht es bei AMD einfach. Es siond darum gerade auf dem Gebrauchsmarkt bevorzugte karten
 
In wie fern?

Wir reden von 2-3%, das ist jetzt nicht so die Welt. Der Punkt bei dem "fine Wine" war, dass man Karten mit unterschiedlicher VRAM Menge verglichen hat. namentlich die GTX 670/680 2GB mit den HD 7900ern mit 3GB und die GTX 780 (Ti) 3GB mit der R9 290X 4GB. Klar, dass die AMD Karten auf Dauer weggezogen sind. Das funktioniert auch umgekehrt, die Furx X hat heute gegen die GTX 980Ti keine Chance mehr 6GB gegen 4GB sei dank. Wenn man die seltenen 4GB Modelle genommen hat, dann ist der Vergleich GTX 680 gegen HD 7970 auch anders ausgefallen.

Da AMD ja die blöde Angewohnheit hat, den Karten schon nach teilweise 5 Jahren treibermäßig konsequent den Saft abzudrehen, sind Nvidiakarten für Langzeitnutzer (wie mich) die deutlich bessere Wahl. Man sollte nur auf viel VRAM achten und noch die 5-10 Jahre Garantie mitnehmen, dann steht dem Langzeitglück nichts mehr im Weg.
sehr interessant, dass du als leser der pcgh ernsthaft vram = leistung setzt und dabei vermutlich ausschließlich benches in ultra-einstellungen berücksichtigst (da spielt der vram schon aufgrund der texturen natürlich eine rolle). ;) ist halt ein wenig realitätsfern, aber gut.

und wie im artikel schon angegeben, entspricht der treiber in etwa dem sprung auf eine refresh-generation, das ist in meinen augen sehr wohl bemerkenswert.

(ach ja, nicht nur amd dreht den karten irgendwann die treiberunterstützung ab. ;) )
 
Erfahrungsgemäß ist die Wahrheit wohl beides, AMD hat quasi schon historische Probleme mit Releasetreibern, während Nvidia hieraus sehr sehr oft den Nimbus des besseren und schnelleren Hersteller bezogen hat.

Diese Unterschiede wurden aber recht schnell (2 Wochen) ausgebügelt. In dem Test ist ja ausdrücklich die Rede davon, dass die Leistung der alten Spiele gleichgeblieben ist.

Gamestar hat das 2017 Mal ein wenig angeschaut, im Fazit finde ich die folgende Aussage nicht ganz dumm

Ich finde den ganzen Test dämlich. Sie haben herausgefunden, dass ein großer VRAM langfristig seine Vorteile ausspielen kann. Warum haben sie keine GTX 980Ti mit der Fury X verglichen? Ich vermute mal, weil das wohl ihre Schlussfolgerung zu Nichte gemacht hätte.

Bei der GTX 1060 zu RX 480 steht auch nicht da, welche Speicherkonfiguration gewählt wurde. Es gibt die Karten mit 3und 6GB sowie 4 und 8GB. Je nachdem, wie man vergleicht, kommt etwas anderes raus. Bei einer RX 480 4GB gegen eine GTX 1060 dürfte AMD wohl klar den kürzeren ziehen. Bei einer RX 480 8GB gegen eine GTX 1060 3Gb kommt eine Katastrophe für Nvidia raus. Ich vermute mal, dass sie die 6GB Version der GTX 1060 und die 8GB Version der RX 480 genommen haben. Von daher ist es klar, wie es ausgeht.

sehr interessant, dass du als leser der pcgh ernsthaft vram = leistung setzt und dabei vermutlich ausschließlich benches in ultra-einstellungen berücksichtigst (da spielt der vram schon aufgrund der texturen natürlich eine rolle). ;) ist halt ein wenig realitätsfern, aber gut.

1: getestet wird üblicherweise in Ultra und das wurde auch bei den "fine Wine" Tests so gemacht
2: die meisten Leute drehen ihre Details hoch und nicht runter. Von daher ist das absolut praxisnah.
3: selbst wenn man konsequent in Niedrigsten Details unterwegs ist, kann ein größerer VRAM seine Vorteile ausspielen, es dauert dann nur länger (wobei das bei den 2GB Karten spätestens 2015 soweit war).

Irgendwie sieht es nach roter Brille aus.

(ach ja, nicht nur amd dreht den karten irgendwann die treiberunterstützung ab. ;) )

Wir reden hier von mindestens 5 Jahren bei AMD (wobei den HD 6000ern und 4000ern schon nach 4 Jahren der Saft abgedreht wurde) und mindestens 8 Jahren bei Nvidia. Das sind 3 Jahre mehr oder 60% des AMD Zeitraums. Obendrein kann man bei Nvidia, mit Tricks, noch die neuen Treiber bei alten Karten installieren, AMD unterbindet das konsequent.

Wenn man seine Karte sehr lange nutzen möchte, dann ist Nvidia da die deutlich bessere Wahl.
 
1: getestet wird üblicherweise in Ultra und das wurde auch bei den "fine Wine" Tests so gemacht
2: die meisten Leute drehen ihre Details hoch und nicht runter. Von daher ist das absolut praxisnah.
3: selbst wenn man konsequent in Niedrigsten Details unterwegs ist, kann ein größerer VRAM seine Vorteile ausspielen, es dauert dann nur länger (wobei das bei den 2GB Karten spätestens 2015 soweit war).

Irgendwie sieht es nach roter Brille aus.
alte karten in ultra zu testen ergibt schlicht keinen sinn, daraus kann man nicht ableiten welche der beiden karten in praxisnahen (!) einstellungen die bessere leistung liefert. ob ich in ultra mit einer alten karte 15 oder 17 fps erreiche interessiert mich nicht, da es so eh schlicht unspielbar ist.

und nein, die meisten leute drehen die details nicht in unspielbare bereiche hoch, sondern reduzieren sie lieber um ein spiel überhaupt ansatzweise vernünftig spielen zu können. wenn du lieber mit 16 fps statt 60 spielst, dann schließ bitte von dir nicht auf andere.

es gibt zig spiele, die man auch heute noch absolut einwandfrei mit 2gb-karten spielen kann, wie gesagt muss man nur gewillt sein einstellungen zu reduzieren. selbst das ff7remake kann man z.b. mit einer 750ti noch sauber (auch über längere zeiträume am stück) spielen, obwohl die karte nicht mal ansatzweise den offiziellen mindestanforderungen entspricht. (<- selbst getestet)

irgendwie sieht es nach grüner brille aus.
Obendrein kann man bei Nvidia, mit Tricks, noch die neuen Treiber bei alten Karten installieren, AMD unterbindet das konsequent.

"mit tricks" - also nicht offiziell unterstützt, als pluspunkt anzuführen, wirkt gelinde gesagt etwas verzweifelt.
(zudem bekommst du so vielleicht einen treiber zum laufen, aber spezifische verbesserungen für die nicht mehr unterstützten karten, enthält er logischerweise dennoch nicht.)
 
Zuletzt bearbeitet von einem Moderator:
Ich finde den ganzen Test dämlich. Sie haben herausgefunden, dass ein großer VRAM langfristig seine Vorteile ausspielen kann.
Ich glaube nicht daran, dass der VRAM in seiner Ausbaustufe hier den Unterschied macht, wenn dieser begrenzt ist der Unterschied deutlich markanter.

Aber selbst wenn es so wäre, würde dieses auch auf die heutigen Generationen zutreffen, bis auf die 3090Ti sind alle NVs deutlich schlechter im Ausbau (den 4GB Krüppel Mal ausgeklammert)
 
Bitter nötig, so war die RTX 3070 in 4K im Neuesten Vergleich 19% schneller, sind es nun nur noch 17%.
Full HD 9%, WQHD 11%.Finewine sieht anders aus.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
alte karten in ultra zu testen ergibt schlicht keinen sinn, daraus kann man nicht ableiten welche der beiden karten in praxisnahen (!) einstellungen die bessere leistung liefert.

Runtergedreht wird erst, wenn es nichtmehr flüssig läuft und da geht Karten mit mehr VRAM nunmal deutlich (!) später die Luft aus.

ob ich in ultra mit einer alten karte 15 oder 17 fps erreiche interessiert mich nicht, da es so eh schlicht unspielbar ist.

Davon reden wir nicht. Die HD 7970 ist in FC 5 auf sehr hoch mit 60 FPS unterwegs, die GTX 680 2GB bricht relativ stark ein. Das ist dein "fine Wine", der nicht soviel mit AMD oder Nvidia zu tun hat, sondern mit der Menge des VRAM. Bei der GTX 980Ti gegen die Fury X ergibt sich das gegenteilige Bild.

und nein, die meisten leute drehen die details nicht in unspielbare bereiche hoch, sondern reduzieren sie lieber um ein spiel überhaupt ansatzweise vernünftig spielen zu können. wenn du lieber mit 16 fps statt 60 spielst, dann schließ bitte von dir nicht auf andere.

Die meisten reduzieren erst, wenn es ruckelt oder nicht sonderlich. Die einzigen, die das nicht machen, sind die "High FPS Gamer", da wird dann auch gerne mal auf niedrig gedreht.

Im übrigen verstehe ich nicht, was du willst. Die "fine Wine" Tests wurden alle in Ultra gemacht, dreht man die Details runter entlastet dies die Karten mit weniger VRAM. Was willst du also noch mit dem "fine Wine", wenn dich der Effekt angeblich nicht interessiert?

es gibt zig spiele, die man auch heute noch absolut einwandfrei mit 2gb-karten spielen kann, wie gesagt muss man nur gewillt sein einstellungen zu reduzieren.

Ich kann dir aus eigener Erfahrung sagen, dass das nicht der Fall ist. Zwischen meiner GTX 670 2GB und der HD 7970 3GB liegen heute Welten, wegen des VRAMs. Das bessere ist des guten ärgster Feind und beim VRAM trifft das langfristig zu.

Der einzige Punkt, wie meine GTX 670 doch noch einen Stich machen kann, sind die Treiber. Ich kann (mit Tricks) noch die neuen Treiber aufspielen. Damit macht z.B. meine GTX 670 die HD 7970 in AoE 4 fertig, die richtigen Einstellungen vorausgesetzt.

selbst das ff7remake kann man z.b. mit einer 750ti noch sauber (auch über längere zeiträume am stück) spielen, obwohl die karte nicht mal ansatzweise den offiziellen mindestanforderungen entspricht. (<- selbst getestet)

Sicher, das ein oder andere geht noch, das habe ich auch nie bezweifelt, aber mit eine Karte, die mehr VRAM hat, ist man eben deutlich besser unterwegs.

irgendwie sieht es nach grüner brille aus.

Für mich zählen die Fakten:

1: ich nutze meine Karten gerne länger.
2: durch die geringere Fortschrittsgeschwindigkeit kann man die Karte heute länger nutzen.
3: Nvidia unterstützt sine Karten deutlich (!!!) länger und man kann die neueren Treiber noch mit Tricks aufspielen.
4: auf AMD Karten gibt es maximal 4 Jahre Garantie, 3 wenn man die Garantiebetrüger von Gigabyte außen vor läßt und Nvidiakarten haben maximal 10 Jahre.

Meine Präferenz ist damit klar. Was nicht bedeutet, dass ich mir keine AMD Karte kaufen würde, nur muß dafür etwas mehr passieren. Dieses Jahr hat AMD seine Chance vertan, mich als Kunden zu gewinnen, da die im AMD Drop meine Adresse nicht genommen haben. Aber eventuell klappt es ja nächstes Jahr mit einem Spielebundle.

Das ist nur meine persönliche Betrachtung. Wer weiß, dass er seine Karte sowieso nach zwei Jahren wechseln wird, für den sind meine Kriterien sowieso nicht wichtig.

Ich glaube nicht daran, dass der VRAM in seiner Ausbaustufe hier den Unterschied macht, wenn dieser begrenzt ist der Unterschied deutlich markanter.

War mal früher so, da ist man dann um 90% eingebrochen. Heutige Spieleengins können mit dem Mangel aktiv umgehen und reduzieren dynamisch die Details. Die Probleme sind immer noch da, jedoch nicht so deutlich.

Aber selbst wenn es so wäre, würde dieses auch auf die heutigen Generationen zutreffen, bis auf die 3090Ti sind alle NVs deutlich schlechter im Ausbau (den 4GB Krüppel Mal ausgeklammert)

Dreimal darfst du raten, was in Zukunft passieren wird. In 5 Jahren dürfte die RTX 3080 gegen die RX 6800XT keine Chance mehr haben, 10 gegen 16GB VRAM sei dank. Wobei das nur für die Rasterleistung gilt, beim Raytracing hat die RTX 3080 die Nase vorne.

Genauso wird die RTX 3090 die RX 6900XT dann fertig machen.
 
Zurück