PCGH.de: Far Cry 2 & Direct X 10.1: offizielles Entwickler-Statement bei PCGH

AW: PCGH.de: Far Cry 2 & Direct X 10.1: offizielles Entwickler-Statement bei PCGH

Aktuelle Spiele laufen also alle schneller auf DX10.1 Hardware?????? Das wird ja immer schöner hier :ugly:
Es gibt kaum Vorteile durch DX10, DX10.1 wird so gut wie gar nicht unterstützt, und bei FC2 gibt es auch keinen Unterschied zwischen beiden Herstellern, also wie kommst Du nur auf soetwas???

Also diese 3dcenter Auswertung ist doch quatsch. Die beste Halbwertszeit hatte wohl eher zuletzt eine 8800GTX (und davor dann die x1900 Serie). Oder würdest Du z. B. behaupten die 2900XT war eine gute Karte die man lange nutzen konnte/kann? Wohl kaum. Außerdem kann man soetwas kaum auf zukünftige karten prognostizieren, das ändert sich doch mit jeder Hardwaregeneration. Keiner weiß wie die Softwareanforderungen zukünftiger Spiele wirklich im Detail aussehen, das kann man eher grob erahnen und der Hersteller dessen Architektur halt am besten passt, hat Glück gehabt. Ich würde eher sagen, die beste Halbwertszeit hat die Karte die bei Release vorne liegt, denn man muss dann erstmal davon ausgehen, dass dieser Leistungsvorteil erhalten bleibt!


Wer sagt denn, dass die in FC2 verwendeten Features nicht genauso gut auf zukünftigen Karten beider Hersteller laufen sollen?? Oder glaubst Du wirklich ernsthaft, die Funktionen des Nvidia Renderpfades laufen ausschließlich auf den aktuell erhältlichen Grafikkarten und sind zu zukünftigen Karten inkompatibel?? So ein Quatsch.
Letztlich bekommt doch sowieso jeder Hersteller seinen eigenen Renderpfad, also kann man hier kaum von besonderem Aufwand sprechen.

Das hast du falsch verstanden oder ich hab mich missverständlich ausgedrückt. Ich meinte nicht, dass aktuelle Spiele jetzt von DX10.1 profitieren, sondern, dass dann (in einem oder mehr Jahren) aktuelle Spiele von DX10.1 Features gegenüber DX10 profitieren könnten.

Achso die 3D Center auswertung ist Quatsch :ugly: Warum sagt mir das nicht gleich jemand, dann bräuchte ich den Artikel ja gar nicht einzubringen?
Wie man beim lesen oder überfliegen des Artikels hätte merken können, ist weder die 8800GTX noch die 2900XT darin enthalten, deswegen geht deine Aussage etwas am Stichpunkt vorbei. Mir ging es darum das Verhältnis der Langlebigkeit der Nvidia und ATI GraKas aufzuzeigen und in Verbindung mit dem heutigen Stand zu bringen. Daher stimme ich mit deinem Statement nicht überein.
Natürlich kann man die Leistungsanforderungen der zukünftigen Spiele nicht prognostizieren, doch das konnte man auch vor 5 Jahren noch nicht. Was wir darüber nun wissen ist also Erfahrung. Undsolange es kein Stichhaltiges Indiz gibt, welches dem entgegensteht gibt es keinen Grund an der Gültigkeit der Erfahrung für die Zukunft zu zweifeln.

Dass jene Karte, die bei Release vorne liegt die beste Halbwertszeit haben soll ergibt für mich keinen Sinn, da sich Belastungsschwerpunkte im Laufe der Spieleentwicklung verändern und die Karten im Nachhinein möglicherweise unterschiedlich guten Treibersupport genießen. Welche/r (weiteren) Faktor/en in den letzten Jahren letzendlich ausschlaggebend war/en weiß ich nicht, doch 3D Center zeigt, dass es zugunsten ATi ausgefallen ist.

Mit Renderpfaden kenne ich mich nicht besonders gut aus, jedoch glaube ich nicht, dass der diskutierte Effekt einmal in DX10.1 für ATi und einmal in DX10.1 für Nvidia geschrieben würde, sondern lediglich einmal in DX10.1 und dann in beiden Renderpfaden zum Einsatz kommt. Daher schätze ich nach wie vor, dass die DX10 Effektumsetzung ein mehr an Programmieraufwand war.
 
AW: PCGH.de: Far Cry 2 & Direct X 10.1: offizielles Entwickler-Statement bei PCGH

Achso die 3D Center auswertung ist Quatsch :ugly: Warum sagt mir das nicht gleich jemand, dann bräuchte ich den Artikel ja gar nicht einzubringen?
Wie man beim lesen oder überfliegen des Artikels hätte merken können, ist weder die 8800GTX noch die 2900XT darin enthalten, deswegen geht deine Aussage etwas am Stichpunkt vorbei.
Klar ist es Quatsch. Nur weils es beim 3dcenter steht, heißt das noch lange nicht, dass es stimmen muss. Z. B. deren News der letzten Jahre zeigen das besonders gut, da stand oft mehr Quatsch als Warheit, die dann meist schon wenige Tage später wieder revidiert wurde ;)
Man kann doch nicht einfach von der (auch noch fernen) Vergangenheit so mir nichts dir nichts verlässliche Aussagen über die Zukunft treffen. Als wenn sich nichts verändert, niemand dazulernt oder seine Strategien überdenkt usw usw. So ein Blödsinn. Und grade die 8800GTX und 2900XT sind hier zwei ganz ausschlaggebende Kaliber. Habe mir diesen Artikel deshalb auch gar nicht erst angesehen. Betrachtet man nur die letzten beiden Jahre, müsste man sogar ganz deutlich zu NV tendieren.

Dass jene Karte, die bei Release vorne liegt die beste Halbwertszeit haben soll ergibt für mich keinen Sinn, da sich Belastungsschwerpunkte im Laufe der Spieleentwicklung verändern und die Karten im Nachhinein möglicherweise unterschiedlich guten Treibersupport genießen.
Ein Hersteller der bei Vorstellung seiner Generation deutlich vorne liegt, wird nicht so einfach von der Konkurrenz überholt. Man muss schon von sehr positiven Entwicklungen ausgehen (Warscheinlichkeit nimmt ab) damit das passiert, insofern geht man erstmal davon aus, das derjenige der vorne liegt auch dort bleibt. Zwar auch alles reichlich spekulativ, jedenfalls ist das noch warscheinlicher als nach 3dc Vorbild ins Vergangenheitsorakel zu schauen.

Mit Renderpfaden kenne ich mich nicht besonders gut aus, jedoch glaube ich nicht, dass der diskutierte Effekt einmal in DX10.1 für ATi und einmal in DX10.1 für Nvidia geschrieben würde, sondern lediglich einmal in DX10.1 und dann in beiden Renderpfaden zum Einsatz kommt. Daher schätze ich nach wie vor, dass die DX10 Effektumsetzung ein mehr an Programmieraufwand war.
Nun ich bin auch kein Programmierer, aber ich denke es steckt da wesentlich mehr Anpassungsaufwand für den jeweiligen Hersteller dahinter als Du vermutest. Insofern finde ich es gar nicht sonderlich bedeutend, wenn hier geschrieben wird, dass man für Nvidia einen etwas anderen Weg gegangen ist. Ich finde es toll, dass sich ein Entwickler Mühe gibt es allen recht zu machen!
Und es ist doch wohl glasklar, dass der Aufwand und damit die finanzielle Investition nicht so groß sein konnte, sonst hätten die es lieber gelassen!!
Das ist nämlich auch genau der Grund, warum sich so wenig im DX10 Sektor tut: Die Hersteller sehen hier (noch) keinen Sinn im Verhältnis zum (finanziellen) Aufwand und das sagen sie auch immer wieder!!
Fazit: Wenn der Entwickler hier für NV zusätzlich optimiert hat, dann war das absolut kein großes Ding, sondern eher etwas was man im Zuge normaler Programmanpassung "nebenbei" erledigen kann! Nur weil hier ein guter Kompromiss gefunden wurde, heißt es noch lange nicht, dass sich Ubisoft dafür gleich ein Bein ausreißen musste.
Man sollte dies dem Entwickler einfach nur in jeder Hinsicht positiv anrechnen!!
Es gibt doch wirklich genug Schrottspiele in denen es keine AA Funktionalität gibt (grade bei ATI-Karten) oder man fleissig mit tweaking Tools nach den richtigen Hacks/Settings suchen muss...
 
Zuletzt bearbeitet:
AW: PCGH.de: Far Cry 2 & Direct X 10.1: offizielles Entwickler-Statement bei PCGH

soweit ich informiert bin hat ubisoft mit nvidia zusammengearbeitet!
soviel ich aber selbst sehen kann, mein system ist nicht des neueste, aber
ich habe keinerlei performance problem, alles auf der höchsten stufe mit
e6850, 4 gig ram allerdings unter XP, graka 8800 gtx!

das selbe ist mit amd-karten, also ich weis nicht wo das problem ist!
seht ihr im zocken einen unterschied?

im gefecht? oder wo ist der bemerkbar? in einem screenshot ja!
im spiel selbst nicht! oder sehr selten

der unterschied wird offensichtlich auf der xbox, da wiederum zum pcvergleich
welches system? vista ja mit 8800 gtx, kenne in der ferne ein paar sträucher mehr, ansosnt nix!

der unterschied ist, der pc ist keine spielekonsole, ansonst finde ich es
grafisch wie auch im spiel gegenüber der xbox 360 absolut gleichwertig!

also nicht jammern was wie direct x 10.1 oder 10.0, auch 9.0c ist sehr wohl spielfähig und genauso attraktiv im grafikbereich

ich kenne wenig unterschiede, und habe sehr wohl vergleiche gesehen!


entweder ein gutes spiel das spass macht, oder konsole und um 10 - 15 euro mehr bezahlen und dann is die grafik super, aber doch das spiel mist?

der spielspass soll immer im vordergrund sein!
 
AW: PCGH.de: Far Cry 2 & Direct X 10.1: offizielles Entwickler-Statement bei PCGH

Hey hab das gleiche System wie du cpu auf 3,2ghz wenn ich auto fahre kommen kurze ruckler bzw hänger aber nur wenn ich auto fahre nutze allerdings auch vista achte mal darauf ob das bei dir auch so ist.

soweit ich informiert bin hat ubisoft mit nvidia zusammengearbeitet!
soviel ich aber selbst sehen kann, mein system ist nicht des neueste, aber
ich habe keinerlei performance problem, alles auf der höchsten stufe mit
e6850, 4 gig ram allerdings unter XP, graka 8800 gtx!

das selbe ist mit amd-karten, also ich weis nicht wo das problem ist!
seht ihr im zocken einen unterschied?

im gefecht? oder wo ist der bemerkbar? in einem screenshot ja!
im spiel selbst nicht! oder sehr selten

der unterschied wird offensichtlich auf der xbox, da wiederum zum pcvergleich
welches system? vista ja mit 8800 gtx, kenne in der ferne ein paar sträucher mehr, ansosnt nix!

der unterschied ist, der pc ist keine spielekonsole, ansonst finde ich es
grafisch wie auch im spiel gegenüber der xbox 360 absolut gleichwertig!

also nicht jammern was wie direct x 10.1 oder 10.0, auch 9.0c ist sehr wohl spielfähig und genauso attraktiv im grafikbereich

ich kenne wenig unterschiede, und habe sehr wohl vergleiche gesehen!


entweder ein gutes spiel das spass macht, oder konsole und um 10 - 15 euro mehr bezahlen und dann is die grafik super, aber doch das spiel mist?

der spielspass soll immer im vordergrund sein!
 
Zurück