b0s
PCGH-Community-Veteran(in)
AW: PCGH.de: Far Cry 2 & Direct X 10.1: offizielles Entwickler-Statement bei PCGH
Das hast du falsch verstanden oder ich hab mich missverständlich ausgedrückt. Ich meinte nicht, dass aktuelle Spiele jetzt von DX10.1 profitieren, sondern, dass dann (in einem oder mehr Jahren) aktuelle Spiele von DX10.1 Features gegenüber DX10 profitieren könnten.
Achso die 3D Center auswertung ist Quatsch Warum sagt mir das nicht gleich jemand, dann bräuchte ich den Artikel ja gar nicht einzubringen?
Wie man beim lesen oder überfliegen des Artikels hätte merken können, ist weder die 8800GTX noch die 2900XT darin enthalten, deswegen geht deine Aussage etwas am Stichpunkt vorbei. Mir ging es darum das Verhältnis der Langlebigkeit der Nvidia und ATI GraKas aufzuzeigen und in Verbindung mit dem heutigen Stand zu bringen. Daher stimme ich mit deinem Statement nicht überein.
Natürlich kann man die Leistungsanforderungen der zukünftigen Spiele nicht prognostizieren, doch das konnte man auch vor 5 Jahren noch nicht. Was wir darüber nun wissen ist also Erfahrung. Undsolange es kein Stichhaltiges Indiz gibt, welches dem entgegensteht gibt es keinen Grund an der Gültigkeit der Erfahrung für die Zukunft zu zweifeln.
Dass jene Karte, die bei Release vorne liegt die beste Halbwertszeit haben soll ergibt für mich keinen Sinn, da sich Belastungsschwerpunkte im Laufe der Spieleentwicklung verändern und die Karten im Nachhinein möglicherweise unterschiedlich guten Treibersupport genießen. Welche/r (weiteren) Faktor/en in den letzten Jahren letzendlich ausschlaggebend war/en weiß ich nicht, doch 3D Center zeigt, dass es zugunsten ATi ausgefallen ist.
Mit Renderpfaden kenne ich mich nicht besonders gut aus, jedoch glaube ich nicht, dass der diskutierte Effekt einmal in DX10.1 für ATi und einmal in DX10.1 für Nvidia geschrieben würde, sondern lediglich einmal in DX10.1 und dann in beiden Renderpfaden zum Einsatz kommt. Daher schätze ich nach wie vor, dass die DX10 Effektumsetzung ein mehr an Programmieraufwand war.
Aktuelle Spiele laufen also alle schneller auf DX10.1 Hardware?????? Das wird ja immer schöner hier
Es gibt kaum Vorteile durch DX10, DX10.1 wird so gut wie gar nicht unterstützt, und bei FC2 gibt es auch keinen Unterschied zwischen beiden Herstellern, also wie kommst Du nur auf soetwas???
Also diese 3dcenter Auswertung ist doch quatsch. Die beste Halbwertszeit hatte wohl eher zuletzt eine 8800GTX (und davor dann die x1900 Serie). Oder würdest Du z. B. behaupten die 2900XT war eine gute Karte die man lange nutzen konnte/kann? Wohl kaum. Außerdem kann man soetwas kaum auf zukünftige karten prognostizieren, das ändert sich doch mit jeder Hardwaregeneration. Keiner weiß wie die Softwareanforderungen zukünftiger Spiele wirklich im Detail aussehen, das kann man eher grob erahnen und der Hersteller dessen Architektur halt am besten passt, hat Glück gehabt. Ich würde eher sagen, die beste Halbwertszeit hat die Karte die bei Release vorne liegt, denn man muss dann erstmal davon ausgehen, dass dieser Leistungsvorteil erhalten bleibt!
Wer sagt denn, dass die in FC2 verwendeten Features nicht genauso gut auf zukünftigen Karten beider Hersteller laufen sollen?? Oder glaubst Du wirklich ernsthaft, die Funktionen des Nvidia Renderpfades laufen ausschließlich auf den aktuell erhältlichen Grafikkarten und sind zu zukünftigen Karten inkompatibel?? So ein Quatsch.
Letztlich bekommt doch sowieso jeder Hersteller seinen eigenen Renderpfad, also kann man hier kaum von besonderem Aufwand sprechen.
Das hast du falsch verstanden oder ich hab mich missverständlich ausgedrückt. Ich meinte nicht, dass aktuelle Spiele jetzt von DX10.1 profitieren, sondern, dass dann (in einem oder mehr Jahren) aktuelle Spiele von DX10.1 Features gegenüber DX10 profitieren könnten.
Achso die 3D Center auswertung ist Quatsch Warum sagt mir das nicht gleich jemand, dann bräuchte ich den Artikel ja gar nicht einzubringen?
Wie man beim lesen oder überfliegen des Artikels hätte merken können, ist weder die 8800GTX noch die 2900XT darin enthalten, deswegen geht deine Aussage etwas am Stichpunkt vorbei. Mir ging es darum das Verhältnis der Langlebigkeit der Nvidia und ATI GraKas aufzuzeigen und in Verbindung mit dem heutigen Stand zu bringen. Daher stimme ich mit deinem Statement nicht überein.
Natürlich kann man die Leistungsanforderungen der zukünftigen Spiele nicht prognostizieren, doch das konnte man auch vor 5 Jahren noch nicht. Was wir darüber nun wissen ist also Erfahrung. Undsolange es kein Stichhaltiges Indiz gibt, welches dem entgegensteht gibt es keinen Grund an der Gültigkeit der Erfahrung für die Zukunft zu zweifeln.
Dass jene Karte, die bei Release vorne liegt die beste Halbwertszeit haben soll ergibt für mich keinen Sinn, da sich Belastungsschwerpunkte im Laufe der Spieleentwicklung verändern und die Karten im Nachhinein möglicherweise unterschiedlich guten Treibersupport genießen. Welche/r (weiteren) Faktor/en in den letzten Jahren letzendlich ausschlaggebend war/en weiß ich nicht, doch 3D Center zeigt, dass es zugunsten ATi ausgefallen ist.
Mit Renderpfaden kenne ich mich nicht besonders gut aus, jedoch glaube ich nicht, dass der diskutierte Effekt einmal in DX10.1 für ATi und einmal in DX10.1 für Nvidia geschrieben würde, sondern lediglich einmal in DX10.1 und dann in beiden Renderpfaden zum Einsatz kommt. Daher schätze ich nach wie vor, dass die DX10 Effektumsetzung ein mehr an Programmieraufwand war.