The Witcher 3: Wer hat Schuld an der schlechten Hairworks-Performance mit Radeons?

Da die wenigen proprietären Mittel von AMD hier mal wieder angesprochen werden: "die machen das doch auch" sollte man vielleicht auch darauf hinweisen, dass viele Spieleentwickler eine umfangreiche Überarbeitung von DX 11 gefordert hatten, MS jedoch einfach nicht darauf reagierte. Also setzte sich einer dieser Spieleentwickler hin und begann eine bessere, weil resourcenschonende APU zu entwicklen. Sie versuchten auch andere Unternehmen ins Boot zu holen aber weder nV noch Intel wollten das (Angst vor einem einkalkulierbaren Risko, da schon von Anfang an abzusehen war, dass diese APU nicht lange überlebt und somit nur Geld kostet?). Nur AMD hat das unterstützt. Und letztendlich hat das erst MS dazu gebracht, sich endlich die Fehler mit DX 11 einzugestehen und einen anständigen Nachfolger zu entwickeln. Wobei auch viel Vorarbeit von Dice/AMD mit einfloß.
Mantle hat die Entwicklung für uns alle voran gebracht. Jetzt sind wir den über 10 Jahre durchgeschliffenen Schrott endlich los, der DX 11 (und auch vorangegangene DX-Versionen) ausbremste. Mantle wird in Form von Vulkan weiterleben und damit auch offen. Ein gewaltiger Schritt für alle Spieler, von dem sich AMDs Konkurrenz gedrückt hatte, obwohl sie spielend das Geld dafür zur Verfügung gehabt hätten. Eher als AMD!

Was bleibt ist Trueaudio, etwas das sich nett anhört aber bisher nur ein einziges Mal genutzt wurde und dort auch nur schlecht implementiert war. Daher weitestgehend sinnlos und kann somit vernachlässigt werden.

Dagegen hat uns als Spieler nichts, dass nV an proprietärem Müll entwickelt hat, irgendwie weitergebracht. Vor allem PhysX ist ein hervorragendes Beispiel dafür, wie nVs GW die Entwicklung der Computerspiele eher ausbremst, denn vorantreibt.
PhysX ist grundsätzlich genial. Die mit Abstand beste und umfangreichste Physikbibliothek, die existiert und ohne großen Aufwand in ein Spiel zu implementieren. Warum soll das jetzt irgendwas ausbremsen? Im Grunde genommen ist es doch nur ein hübsches, optisches Zubrot, das im Grunde genommen niemand wirklich zwingend braucht...
Das Problem ist, dass eben keine Spiele entwickelt werden, in denen Physik irgendeinen tiefgreifenden Einfluss auf das Spielerlebnis hat. Mir fallen gerade 2 Spiele ein, die umfangreiche Mechaniken mit Physik beinhalten. Half Life und Dark Messiah. Aber warum sollte das nVs Schuld sein? Weil die mächtigste Physikbibliothek der Welt über 80% aller Spieler komplett ausschließt (Multiplattform) und man diese eben nicht verwenden kann. Die kleinen Alternativen sind komplizierter und beinhalten nicht annähernd die Möglichkeiten, die PhysX bieten kann. Der Aufwand ein wirklich aufwendiges Physiksystem zu integrieren ist einfach zu groß, als dass sich ein Entwickler darum kümmern wollte (obwohl Entsprechendes eigentlich schon existiert aber eben für den wichtigeren Teil der Kundschaft, den Konsolennutzern weil deutlich mehr, nicht anwendbar ist).
So bleibt Physik auch in Zukunft nur hübscher, volumetrischer Rauch und etwas hübschere Zerstörung, von Sachen, die auch so zerstört worden wären, nur halt nicht so "hübsch" -.-

Wäre PhysX offen und somit für jeden, auch auf Konsolen anwendbar, hätten wir mehr Spiele mit interessanten Mechaniken. Aber nV bleibt lieber proprietär und bremst das Erlebnis für alle, damit ein winziger Teil der Spielerschaft etwas hübschere Spiele hat und sich darauf etwas einbilden kann...
 
Hairworks ist natürlich das einzige Argument pro Witcher 3. Ohne dieses Feature macht es doch gar keinen Sinn das Game zu spielen.
Wahnsinn...
 
Sie haben aber Mantle verwendet in BF4, darüber regst du dich nicht auf? :schief:

Ich bin selber ein Besitzer einer AMD, deswegen schmeckt mir Gameworks auch ganz und gar nicht, aber man sollte nicht mit zweierlei Maß messen. Gut Mantle war zumindest nur ein Vorteil für AMD und kein Nachteil für Nvidia, aber es war genauso ein exklusives propietäres Ding.

Tatsächlich hat mich Mantle natürlich erstmal geärgert, ich kann das ja schließlich als Besitzer einer gtx 670 Karte nicht verwenden. Allerdings bot Mantle, genauso wie PhysX am Anfang, einen Mehrwert, der durch andere APIs schlicht nicht erreichbar war. Und obwohl AMD ihr Versprechen den Quellcode von Mantle zu veröffentlichen nicht eingehalten hat, so haben sie immerhin erkannt dass die Schnittstelle mit dem Aufkommen von DirectX 12 und Vulkan ihre Berechtigung verliert. TressFX hingegen ist Open Source, und lief nach einigen Treiberpatches ja letztenendes auf beiden Seiten ähnlich gut.

Wenn GameWorks Open Source wäre, und die Performance auf AMD Karten nicht besser würde, dann wäre ich auch nicht mehr auf nVidia sauer. So riecht der Braten gewaltig, und deshalb wird GameWorks und nVidia boykottiert.
 
Boykottaufrufe hier im Forum oder bei anderen Seiten bringen aber nicht viel, wie man am aktuellen Marktanteil von AMD sehen kann.
Noch vor 2 Jahren sah es wenigstens im GPU-Bereich noch halbwegs gut zwischen Nvidia und AMD aus.
Aber wenn jetzt schon bei dGPUs mehr als doppelt so viel Nvidia-Karten verkauft werden,
verstehe ich langsam einige Analysten, wenn sie AMD höchstens bis zum Jahr 2020 Zeit geben.
Die letzte Zahl aus dem 3dcenter war 45% Marktanteil bei dGPUs von Nvidia.
Die Aktie wird als toxisch beschrieben, und dass der Point of no Return schon längst erreicht ist.
Als Anleger würde ich denken, um Gottes Willen, blos nicht diese Aktie kaufen.
 
Mantle hat die Entwicklung für uns alle voran gebracht. Jetzt sind wir den über 10 Jahre durchgeschliffenen Schrott endlich los, der DX 11 (und auch vorangegangene DX-Versionen) ausbremste.
Das ist jetzt etwas Hyperbole.
DX ist nicht seit 10 Jahren Schrott.
Vor 10 Jahren wären viele Teile von DX12 schwer bis unmöglich umzusetzen gewesen.
Dagegen hat uns als Spieler nichts, dass nV an proprietärem Müll entwickelt hat, irgendwie weitergebracht
G-Sync hat zu FreeSync schneller geführt, nicht unähnlich wie MS auf das Gas gedrückt hat mit DX12, als Mantle erschien.

Das Problem ist, dass eben keine Spiele entwickelt werden, in denen Physik irgendeinen tiefgreifenden Einfluss auf das Spielerlebnis hat. Mir fallen gerade 2 Spiele ein, die umfangreiche Mechaniken mit Physik beinhalten. Half Life und Dark Messiah.
Weil du das mit der klassischen PC-Architektur, mit PCIe als Mainboard Kommunikationsmittel leider nicht schaffst.
Die Latenz ist zu hoch, um die Daten wieder an die CPU zu schicken.
Half-Life und Dark Messiah haben alles brav über die CPU berechnet, könnte man weiterhin alles tun.

Wäre PhysX offen und somit für jeden, auch auf Konsolen anwendbar, hätten wir mehr Spiele mit interessanten Mechaniken. Aber nV bleibt lieber proprietär und bremst das Erlebnis für alle, damit ein winziger Teil der Spielerschaft etwas hübschere Spiele hat und sich darauf etwas einbilden kann...
Havok könnte sich mehr in die Richtung entwickeln, tun sie leider nicht.
AMD könnte etwas machen, tun sie leider nicht.
Im Falle einer Physik-Middleware ist die Situation leider traurig.

Und obwohl AMD ihr Versprechen den Quellcode von Mantle zu veröffentlichen nicht eingehalten hat, so haben sie immerhin erkannt dass die Schnittstelle mit dem Aufkommen von DirectX 12 und Vulkan ihre Berechtigung verliert.
AMD hat kein Mantle-SDK herausgebracht, die Dokumentation zur Spec dagegen schon.
Mantle hatte keine Chance gegen DX12, man hat dann noch das maximale aus Mantle herausgeholt, indem es als Basis für einen neuen Standard verwendet wurde.
Es hat einfach keinen Sinn gemacht ein SDK noch heraus zu bringen.
 
....
Wer sich aber mit Sprichwörtern nicht auskennt, sollte diese wiederum nicht benutzen und selbst den Rand halten.

Keine Angst, ich kenne das richtige Sprichwort mit den Steinchen...... ;):P

Wollte es aber nicht zu ernst nehmen, denn es kommt hier im Forum häufiger vor, dass über andere
geurteilt wird und danach ähnliche oder die gleichen Fehler gemacht werden. :nicken:


Ich drücke AMD auf jeden Fall die Daumen und hoffe, die 390er GPU Serie wird der Hammer. :daumen:
 
Äpfel Birnen Vergleich. Die Tesselation zu begrenzen und den Code auf AMD zu optimieren sind ja wohl 2 ganz unterschiedliche paar Schuhe. CD Project hat doch bestätigt, dass der Code nicht auf AMD optimiert werden kann, also was bitte saugt der sich gerade aus den Fingern. Eine Black Box bleibt eine Black Box und es ist bekannt dass AMD keine Einsicht auf den Code bekommt. Der Workaround hat nichts aber auch gar nichts mit einer Codeoptimierung seitens des Treibers zu tun. Schlimm das sowas wieder einmal unreflektiert übernommen wird. Journalismus at its best. Ihr seit doch nur auf die Klicks aus.

AMD Tress FX in einem TWIMTBP titel der mit Nvidia Grafikkarten gebundlet wird hält er wirklich für möglich? Wie naiv ist der Mann?

Die Frage ist wie viel Black Box Gameworks wirklich ist. Laut Nvidia hat das Entwicklerstudio vollen Zugriff auf den Quellcode und können die Bibliotheken auf ihre Bedürfnisse anpassen und optimieren. Durch eine enge Zusammenarbeit sollte es so möglich sein die Bibliotheken auch für AMD Grafikkarten zu optimieren, ohne das AMD direkten Zugriff auf den Quellcode hat.

Den Workaround hätte AMD aber so in ihren Treiber erstmal so übernehmen können. Es wird ja einfach nur ein kleinerer Tesselierungsfaktor erzwungen. Was dieser Typ vom Forbes Magazine sagt ist zwar nicht alles richtig aber man muss sich schon die Frage stellen warum AMD sagt das Gameworks erst 2 Monate vor Release implementiert wurde, wenn es doch bereits 2014 gezeigt wurde. Da fällt einem direkt wieder die Sache mit Project Cars ein wo der Entwickler sagt das AMD zwar behauptet eng mit denen zusammengearbeitet zu haben, es aber nur sehr wenig Kontakt zwischen den beiden Parteien gab.

Man weiß nicht wem man glauben soll. Weder Nvidia, CD Projekt noch AMD kann man zu 100% glauben. Jeder kann einfach irgendwas behaupten was niemand nachprüfen kann. Am Ende muss man einfach sagen das Gameworks von Nvidia ist und es irgendwo verständlich ist wenn es auf Nvidia Karten besser läuft. Tress FX läuft auf AMD Karten auch besser, selbst nach den Optimierungen durch Nvidia und die Entwickler.
 
GameWorks Effekte sind immer eine BlackBox, aber es besteht die Möglichkeit eine Source-Lizenz zu beziehen.
For free gibt es aber keinen Zugang und CD Project hat keine Source Lizenz.

Mangels Radeon kann ich es nicht testen, aber vielleicht hat AMD mit TW3 das erste Spiel-Profil, wo sie den Tess-Faktor tatsächlich herunterregeln?
AMD wundert sich nicht, dass GameWorks zwei Monate davor kam, sie wussten wie jeder andere auch, dass es kommt.
Sie sehen es als problematisch das man halt dennoch so spät finalen Code mit allen Effekten bekommt.

Hier muss man aber auch sagen, dass Nvidia Tomb Raider Code mit TressFX scheinbar auch verdammt spät bekommen hat.
Aber es ist offen, der Entwickler kann es verbessern und Nvidia kann sich die Code Samples anschauen.

Es ist und kann ja verständlich sein, dass Nvidias Sachen besser auf ihrer Hardware laufen, aber Nvidia soll es einfach nicht so künstlich missbrauchen.
 
AMD soll erstmal anfangen wieder WHQL-Treiber zu machen bevor sie anfangen andere zu beschimpfen. Das Nvidia Sachen auf Nvidia Karten besser läuft wie auf AMD ist klar irgendwas muss ja jeder haben und ich muss sagen so große Probleme macht das jetzt auch nicht das Hairworks ka was manche für Probleme damit haben. Kann hier auf der alten Mühle alles auf Ultra Stellen bei TW3 und habe noch 20 FPS wenn man nen gescheiten Rechner hat bekommt man das so oder so hin das es sauber läuft. Da jetzt aber viele mit 4k anfangen ist es klar wo es hinausläuft, weil da macht es dann denke wirklich stress mit AMD-Karten. Dazu fällt mir e nur eines ein, die PC-Welt ist noch nicht ganz bereit für 4k, da muss erst noch bessere Hardware her bevor mal alle Games auf 4K Laufen wie se sollen...
Naja meine meinung eben.
 
Dann zeig mir doch einen besseren Test wenn du einen hast anstatt rum zu trollen.
Hast du nicht? Dann ist mein Test immer noch Aussagekräftiger als gar keiner.

Aber Hauptsache mal nen dummen Spruch abgelassen anstatt irgendwas zu untermauern.



Dafür benutzen sie Mantle, was ja so open wie die DDR ist/war.

Da ist unser Lieblingssong wieder GoldenMic ... warte, kommt gleich ... nur ein Vorschlag: Ich tattowiere mir AMD auf die linke A*rschbacke - und Du Dir NVIDIA auf die rechte? OK? Das Foto können wir hier hochladen, nur so als Spaß :-) https://www.youtube.com/watch?v=1p9ur7TpH34
 
AMDs "Versagen" WHQL Treiber in letzter Zeit zu veröffentlichen, raubt ihnen aber nicht das Recht, Kritik, solange sie begründbar ist, an Nvidias Schachzügen zu äußern.
Mein persönliches Hauptproblem, ist auch eig. nur HairWorks und vielleicht Nvidias GodRays, danach kommt für mich selber, nur die closed source Sache.
Bei Hairworks wäre es so leicht für Nvidia, dass Feature brauchbar zu gestalten.
Da muss man sich nur die Radeon-Leute anschauen.
Zack TessFaktor x16 und MSAA auf x4 und schon kostet es nicht 30-50%, sondern 10-20%.
 
Da ist unser Lieblingssong wieder GoldenMic ... warte, kommt gleich ... nur ein Vorschlag: Ich tattowiere mir AMD auf die linke A*rschbacke - und Du Dir NVIDIA auf die rechte? OK? Das Foto können wir hier hochladen, nur so als Spaß :-) https://www.youtube.com/watch?v=1p9ur7TpH34


Recht herzlichen Dank dafür, das sich nun neben Metallica und Konsorten solche deutschen Vollpfosten in den Youtube "könnte was für dich sein" Möglichkeiten finden...


Es gibt Dinge bei denen man nicht scherzt, und wenn ihr beide nur Schwarz oder Weiß (rot oder grün) zu denken in der Lage seit, dann ist euch nichtmehr zu helfen.
 
Der GameWorks Code wurde 2 Monate vor relase geändert, davor war seitens GameWorks keine Probleme,
zumindest auf AMD Hardware, zu erkennen.

WHQL Treiber sagen nichts über die Treiberquallität an sich aus, MS überprüft/stellt sicher,
dass sich der Treiber ordnungsgemäß/MSgemäß in das System einhängt/installiert. Mehr kann/macht MS nicht.

-> Es war ein Nvidia WHQL Treiber der die NV Hardware überhitzen lies.

PS: Anregung an PCGamesHardware, nennt euch doch PCGamesNvidia. Würde im moment deutlich besser zu euch passen.

mfg
 
Zuletzt bearbeitet:
Zack TessFaktor x16 und MSAA auf x4 und schon kostet es nicht 30-50%, sondern 10-20%.
Man stelle sich das Geheule vor, wenn AMD die bessere Leistung mit reduzierten Details erkauft hätte. Mehr aus Prinzipgründen, als dass es sichtbar gewesen wäre...
Finde daher die Aussage vom Forbes-Heini auch ziemlich witzig, der zwischen Detailreduktion und Optimierung irgendwie nicht so richtig unterscheiden mag. :D
 
Man stelle sich das Geheule vor, wenn AMD die bessere Leistung mit reduzierten Details erkauft hätte. Mehr aus Prinzipgründen, als dass es sichtbar gewesen wäre...
Finde daher die Aussage vom Forbes-Heini auch ziemlich witzig, der zwischen Detailreduktion und Optimierung irgendwie nicht so richtig unterscheiden mag. :D

Reduzierter Rechenaufwand != reduzierte Details! Man könnte auch 32xMSAA verwenden(geht das überhaupt?), aber man hat nicht wirklich mehr sichtbare Kantenglättungals mit 8x. Ab einem gewissen Punkt kostet es nur mehr Leistung hat kann keinen bzw einen verschwindend niedrigen Mehrwert. Und dieser Punkt scheint bei Hairworks x16 zu sein , höher sieht man keinen bis kaum einen Unterschied mehr. Aber nicht x64, wie es Nvidia einsetzt.
 
Reduzierter Rechenaufwand != reduzierte Detais!
Darum schrieb ich, dass eher prinzipiell reklamiert wird, als das es gross sichtbar wär. ;)
Der Ermessungsgrad, was dargestellt wird und was nicht, liegt imo nie beim GPU-Hersteller, sondern beim Entwickler oder User (salopp gesagt).
Obiges Prozedere ist ja vielmehr ein Workaround als echte Problemlösung. Hätte AMD direkt diesen Weg eingeschlagen, ohne entsprechend zu kommunizieren, hätte ihnen das vermutlich nur schlechte Publicity gebracht.
 
Ganz ehrlich: was soll das Geschrei nach ständig neuen Treibern?

Wenn ein System läuft, dann läuft's! Jeder, der nach ständig neuen Treibern schreit sollte lieber zur Konsole wechseln. Ich, der seinen Rechner NICHT nur zum Zocken benutzt, drücke mich um jeden neuen Treiber, solange ich keine extreme Fehldarstellung oder absolut unbrauchbare Performance bekomme.

Ich wäre froh wenn Treiber nur dann erscheinen, wenn sie auch nötig sind (so wie es AMD scheinbar gerade handhabt). Und selbst wenn warte ich mindestens fünf Tage nach Veröffentlichung eines neuen Treibers ab und lese stundenlang diverse Foren, um zu schauen, ob es mit dem neuen Treiber Probleme gibt. Alles natürlich nicht ohne ein Image meiner Systempartition zu erstellen (ich brauche meinen Knecht wirklich). Mich persönlich haben die "Todes"-Treiber von Nvidia nicht getroffen, einen engen Spielpartner aber schon.

Und insgesamt kann ich trotzdem behaupten: so viele Probleme mit Nvidia-Treibern, die ich in den letzten drei Jahren hatte, kann AMD kaum toppen.
Klar liegt es auch an der Anwendung, und evtl meiner Konfiguration, aber zufriedenstellend war das garnicht.

Und bloß weil Nvidia zu jedem größeren Spiel, wo Gameworks zum Einsatz kommt, jetzt neue "Game-Ready"-Treiber veröffentlicht heißt das noch lange erstmal GARNICHTS.

Um es verständlich rüber zu bringen: Nvidia MUSS diesen "es läuft erstmal überall"-Gameworks-Code per "GR"-Treiber überschreiben, damit sie zum Release eines Titels mit optimiertem Code erstmal gut dastehen.
Ja, genau dann wenn über den Titel berichtet wird. Genau dann, wenn GAMER neue Hardware kaufen. Was danach passiert ist oft irrelevant. Die Reviews sind im Netz. Selbst wenn AMD durch aufwendiges Re-Engineering (Closed Source) die Performance auf ein ähnliches Niveau hieven kann... später, es interessiert kaum jemanden mehr. Schon garnicht die "besonders lauten".

Damit ich jetzt nicht komplett gegen Nvidia schieße: ja, ich hab ein Problem auf meinem Zweitrechner mit AMD GraKa. Ein uraltes Game in VGA Auflösung startet nicht in Fullscreen auf dem Hauptmonitor(1680:1050; schaltet sich ab), auf dem zweiten Monitor (andere Auflösung: 1280x1024) aber komischerweise problemlos.

Achja: Ich habe jetzt schon mehrmals einen MSAA-Bug auf Nvidia unter DX9 ab mindestens 334.xx hier im Forum angesprochen. Gab noch keine einzige Reaktion. Schweigt ihr nur, wenn es um Nvidia geht?

Auf dem Zweitsystem mit AMD gibt es nämlich in genau diesen Spielen keine MSAA-Fehler.
 
Zuletzt bearbeitet:
Zurück