The Witcher 3 - Wild Hunt: Nvidia-Tech-Demo zwingt Titan in die Knie

Total übertrieben.
1. Wird das Spiel an sich nicht "NVidia only" sein, sondern wenn, dann nur ein Feature, ein winziger Teilaspekt des Spiels.
2. Und wenn, dann steht noch nicht fest, das es über PhysX läuft. ZUmindest steht davon nichts im Artikel.
3. Ist noch garnicht klar, das das wirklich so ins Spiel kommt. Es ist schließlich erstmal nur eine Tech-Demo. Zumindest steh das so im Artikel.
4. Ist Grafik nicht alles. Gameplay ist viel wichtiger.

Als Radeon-Nutzer landet The Witcher 3 auf der Festplatte. Ein Boykott wegen so einer Kleinigkeit, halte ich für völlig übertrieben. Aber es stimmt, in Zeiten von DirectX oder OpenGL/AL/CL haben Standards, die von nur einem Hersteller genutzt werden können, nichts mehr verloren.
 
Zuletzt bearbeitet:
Physx wird man vermutlich einstellen können Low-Med-High.
Außerdem läuft Physx auch über die CPU und Low sollte für einen aktuellen Intel kein Problem darstellen.
Somit bekommen auch Radeon Nutzer diese Haarsimulation.

Die Ultra Einstellung bleibt jedoch den High-End Nvidia GPUs vorbehalten - Wie auch schon in Metro LL und etlichen weiteren Spielen.
Irgendwas muss man den SLI Usern ja auftischen :D.
Schließlich verkaufen sich Gaming PCs im Hochpreissegment (1000€+) noch nie so gut wie heute.

in Zeiten von DirectX oder OpenGC/AL/CL haben Standards, die von nur einem Hersteller genutzt werden können, nichts mehr verloren.

Ehhh ... Cuda belegt auf der Uni bereits ein eigenes Fach.
Diese halbfertigen hingeschi**enen Standards wie OpenCL hat selbst schon Apple über Bord geworfen obwohl die zu den OpenCL Pionieren gehören.
Nur weil sich AMD keine Cuda Lizenz leisten kann heißt das noch lange nichts.
Sony hat sich die Lizenz ja "geleistet" für ihre PS4.
Die PS4 unterstützt Apex/Physx.

http://www.3dcenter.org/dateien/abb...ps-fuer-Desktop-Grafikkarten-2002-Q2-2013.png
 
Zuletzt bearbeitet:
Ehhh ... Cuda belegt auf der Uni bereits ein eigenes Fach.
Diese halbfertigen hingeschi**enen Standards wie OpenCL hat selbst schon Apple über Bord geworfen obwohl die zu den OpenCL Pionieren gehören.
Nur weil sich AMD keine Cuda Lizenz leisten kann heißt das noch lange nichts.
Sony hat sich die Lizenz ja "geleistet" für ihre PS4.
Die PS4 unterstützt Apex/Physx.
CUDA belegt seit Jahren Fächern und hat das Feld sehr lange Zeit dominiert, wenn es um GPU-Compute ging.
OCL als das zu bezeichnen was du getan hast, mein Gott.

Und Sony hat sich wann eine "CUDA LIZENZ" geleistet?
Niemals, genau richtig.
 
Und Sony hat sich wann eine "CUDA LIZENZ" geleistet?
Niemals, genau richtig.

Sicher hat Sony sich die geleistet - Lies mal die News.
"Nvidia hat die Unterstützung der PhysX- und APEX-Software-Development-Kits für Xbox One und Playstation 4 bestätigt."

Das war neben Gaikai (Nvidia Grid) einer der besten Deals die Nvidia aus den Next Konsolen raus holen konnte.
 
Sicher hat Sony sich die geleistet - Lies mal die News.
:schief:

APEX und PhysX werden von der PS4 per x86 Solver offiziell supportet, eine CUDA GPU Schnittstelle gibt es nicht, ist ja nicht so als ob man erst einmal Schweine Aufwand betreiben müssten das auf die AMD GPUs anzupassen, falls die Hölle mal zufriert und Nvidia das öffnen würde.
 
Total übertrieben.
Nö. Wer Physx auf low oder medium spielen muss, weil er keine Nvidia Grafikarte hat, kann den Mist auch gleich komplett ausschalten - da gibts kaum einen Unterschied.

Ich werde als Radeon-Nutzer benachteiligt, und ich möchte auch nicht auf Nvidia umsteigen. Wenn das CD Projekt egal ist, dann brauchen sie auch mein Geld nicht. Fertig.

Wie auch schon in Metro LL und etlichen weiteren Spielen.
Eher einige wenige - zum Glück. Nicht jeder Entwickler macht den gleichen Fehler wie CD Projekt.
 
:schief:

APEX und PhysX werden von der PS4 per x86 Solver offiziell supportet, eine CUDA GPU Schnittstelle gibt es nicht, ist ja nicht so als ob man erst einmal Schweine Aufwand betreiben müssten das auf die AMD GPUs anzupassen, falls die Hölle mal zufriert und Nvidia das öffnen würde.

Du benötigst dennoch eine kostenpflichtige LIZENZ!
Und wenn es am Toaster laufen würde - Das tut nichts zur Sache.

Eher einige wenige - zum Glück. Nicht jeder Entwickler macht den gleichen Fehler wie CD Projekt.

So viele gute gibt es nicht, das ist schon richtig.
Aber in Batman sieht Physx ziemlich gut aus und läuft auch sehr gut.
In Witcher 3 übertreiben es die Entwickler wohl ein wenig.
Wobei ich noch nicht gesehen habe wie die Haarsimulation auf "Low" aussieht und wie viel Leistung benötigt wird.
 
Nö. Wer Physx auf low oder medium spielen muss, weil er keine Nvidia Grafikarte hat, kann den Mist auch gleich komplett ausschalten - da gibts kaum einen Unterschied.

Ich werde als Radeon-Nutzer benachteiligt, und ich möchte auch nicht auf Nvidia umsteigen. Wenn das CD Projekt egal ist, dann brauchen sie auch mein Geld nicht. Fertig.
Immer noch total übertrieben das Spiel deswegen zu boykottieren. Ich hab PhysX noch nie aktiviert, da brauch ich auch kein "low" oder "medium" und ich habe nicht das Gefühl, was verpaßt zu haben oder benachteiligt zu werden. Aber PhysX interessiert auch nen schei*dreck. Wie gesagt, das Gameplay ist viel wichtiger. Und da wird The Witcher 3 hoffentlich nicht enttäuschen.
Außerdem, wie ich bereits schrieb: Steht noch nicht fest, ob das a) wirklich über PhysX läuft und b) überhaupt ins Spiel kommt.
Ich bleibe also dabei: Ohne alle Informationen zu kennen, ein Spiel zu boykottieren: total übertrieben.

Ehhh ... Cuda belegt auf der Uni bereits ein eigenes Fach.
Diese halbfertigen hingeschi**enen Standards wie OpenCL hat selbst schon Apple über Bord geworfen obwohl die zu den OpenCL Pionieren gehören.
Nur weil sich AMD keine Cuda Lizenz leisten kann heißt das noch lange nichts.
Sony hat sich die Lizenz ja "geleistet" für ihre PS4.
Die PS4 unterstützt Apex/Physx.

http://www.3dcenter.org/dateien/abb...ps-fuer-Desktop-Grafikkarten-2002-Q2-2013.png
Oh, nein! Welch geniales Argument. Weil CUDA ein Fach an der Uni ist, macht es CUDA als proprietären Standard ja so viel besser.
Ich hab nichts gegen CUDA oder PhysX an sich. Aber ich hab was gegen proprietäre Standards. Darum geht es mir.
Ich weiß, das OpenCL nicht so toll ist, zumindest dem Namen nach im Vergleich zu OpenGL/AL, aber was noch nicht ist, kann ja noch werden.
Und Apple hat auch Flash bei den iPhones über Bord geworfen. Und? Ist Flash damit jetzt ausgestorben?
OpenCL wird weiterentwickelt und besser werden und ist als offener Standard damit weit unterstützungswürdiger.
Und AMD kann sich wohl schon eine CUDA-Lizenz leisten, will es aber nicht.
 
Zuletzt bearbeitet:
Ehhh ... Cuda belegt auf der Uni bereits ein eigenes Fach.
Ohne OpenCL? Wo denn? An der Nvidia Universität? :schief:

Diese halbfertigen hingeschi**enen Standards wie OpenCL hat selbst schon Apple über Bord geworfen obwohl die zu den OpenCL Pionieren gehören.
:schief:

Höre doch auf solchen Unsinn zu schreiben.

Nur weil sich AMD keine Cuda Lizenz leisten kann
Setze mal deine grünen Scheuklappen ab. AMD unterstützt einfach keine proprietären Standards, und das ist auch gut so.

Sony hat sich die Lizenz ja "geleistet" für ihre PS4.
Die PS4 unterstützt Apex/Physx.
Pfff. Nvidia hat die Lizenz Kostenlos zur Verfügung gestellt (die Spiel-Entwickler müssen zahlen). Warum das so ist dürfte wohl klar sein.
 
ich frage mich nur wann kommt endlich mal eine grafikkarte die so was mal auf full hd wie zb mit dem fell etc und die ganzen anderen dingen die da zugehören flüssig und ohne probleme darstellen kann hallo wir sind im jahr 2013 da muss doch mehr drin und machbar sein oder sitzen wir noch in fünf jahren mit solchen lahmen grafik dingern rum:huh:
 
Nun, ich denke im fertigen Spiel wird es nicht so drastisch mit dem Performance wie hier. Wenn man eine Techdemo zeigt, holt man doch möglichst alles raus was geht - soll ja schließlich die Möglichkeiten aufzeigen. Das ist wie mit Ultra Details: kostet meistens unglaublich viel Leistung, sieht aber im Vergleich zur Einstellung Hoch oder Sehr Hoch nicht wesentlich besser aus.
Am Ende wird man einen Mittelweg gehen der gut aussieht und in Sachen Leistung zumutbar ist. Zwar wird das Feature sicherlich Highend Hardware fordern aber dafür ist The Witcher spätestens seit Teil 2 zu Recht bekannt dafür ;)
 
Ich war damals vom ersten Batman und seinem PhysX begeistert weil es der Atmosphäre beitrug,
aber mit den letzten PhysX Spiele und im besondern Metro-LL hat Nividia gezeigt das sie auch nur mit Wasser kochen und
das auch noch schlecht, weil sie es anbrennen lassen. :ugly:

Ja ich muss auch sagen, wenn ich zwischen AMD und Nvidia entscheiden müsste, wäre Physix definitiv kein allzu großer Beweggrund für Nvidia.
Sicherlich gibt es wie bei Borderlands 2 ein paar wenige interessante Sachen, aber die sind viel zu wenig vorhanden als wenn ich sie unbedingt dann bräuchte.
Lieber eine nicht proparitäre Schnittstelle die alle verwenden können.
PhysX kann deutlich mehr als in den Spielen gezeigt wird. Die Spieleentwickler können halt nicht das Potential voll ausnutzen weil das Spiel ja auch auf AMD Karten laufen muß. Daher wird PhysX bis jetzt nur für Sachen genutzt die halt Nett anzusehen sind, aber wenn sie nicht genutzt werden ist es auch nicht so schlimm.
Stellt euch vor was los wäre wenn z.b. pCars die komplette Fahrzeugphysik von PhysX berechnen lassen würde und somit nur nVidia Nutzer das Spiel nutzen könnten.
 
Ehhh ... Cuda belegt auf der Uni bereits ein eigenes Fach.
Diese halbfertigen hingeschi**enen Standards wie OpenCL hat selbst schon Apple über Bord geworfen obwohl die zu den OpenCL Pionieren gehören.
Nur weil sich AMD keine Cuda Lizenz leisten kann heißt das noch lange nichts.
Sony hat sich die Lizenz ja "geleistet" für ihre PS4.
Die PS4 unterstützt Apex/Physx.

http://www.3dcenter.org/dateien/abb...ps-fuer-Desktop-Grafikkarten-2002-Q2-2013.png

Selten so viel Blödsinn in so wenigen Zeilen Text gelesen :-_-:
 
Stellt euch vor was los wäre wenn z.b. pCars die komplette Fahrzeugphysik von PhysX berechnen lassen würde und somit nur nVidia Nutzer das Spiel nutzen könnten.

... was wiederum das Spiel zum Flop werden liesse und wieder zum Ausgangspunkt führt; nämlich dass proprietäre Lösungen fürn Popo sind. ;)

Die Situation als Ganzes ist einfach wirklich unbefriedigend wenn man bedenkt, wie revolutionär sich eine gute Physik auf das Gameplay auswirken könnte - Valve mit HL2 und Crytek mit Crysis haben das imo eindrucksvoll bewiesen.
Würde man sich bei GPU-Physik endlich auch mal auf einen Nenner einigen können, wäre das ein imo ein riesiger Schritt für die gesamte Spielebranche.

Aktuell bremst aber Nvidia mit Physx alles aus und AMD hat keine Ressourcen und Mittel, selbst einen Standard voranzutreiben. Das Resultat ist jahrelange Stagnation...
 
... was wiederum das Spiel zum Flop werden liesse und wieder zum Ausgangspunkt führt; nämlich dass proprietäre Lösungen fürn Popo sind. ;)

Die Situation als Ganzes ist einfach wirklich unbefriedigend wenn man bedenkt, wie revolutionär sich eine gute Physik auf das Gameplay auswirken könnte - Valve mit HL2 und Crytek mit Crysis haben das imo eindrucksvoll bewiesen.
Würde man sich bei GPU-Physik endlich auch mal auf einen Nenner einigen können, wäre das ein imo ein riesiger Schritt für die gesamte Spielebranche.

Aktuell bremst aber Nvidia mit Physx alles aus und AMD hat keine Ressourcen und Mittel, selbst einen Standard voranzutreiben. Das Resultat ist jahrelange Stagnation...

/sign

Die Situation geht soweit das ich bei Physik eigtl. eher an abschalten denke da das viel zu viel Leistung frisst und meiner Meinung nach besser vorrangehen könnte...
 
Ich war damals vom ersten Batman und seinem PhysX begeistert weil es der Atmosphäre beitrug,
aber mit den letzten PhysX Spiele und im besondern Metro-LL hat Nividia gezeigt das sie auch nur mit Wasser kochen und
das auch noch schlecht, weil sie es anbrennen lassen. :ugly:

Ja ich muss auch sagen, wenn ich zwischen AMD und Nvidia entscheiden müsste, wäre Physix definitiv kein allzu großer Beweggrund für Nvidia.
Sicherlich gibt es wie bei Borderlands 2 ein paar wenige interessante Sachen, aber die sind viel zu wenig vorhanden als wenn ich sie unbedingt dann bräuchte.
Lieber eine nicht proparitäre Schnittstelle die alle verwenden können.

... was wiederum das Spiel zum Flop werden liesse und wieder zum Ausgangspunkt führt; nämlich dass proprietäre Lösungen fürn Popo sind. ;)

Die Situation als Ganzes ist einfach wirklich unbefriedigend wenn man bedenkt, wie revolutionär sich eine gute Physik auf das Gameplay auswirken könnte - Valve mit HL2 und Crytek mit Crysis haben das imo eindrucksvoll bewiesen.
Würde man sich bei GPU-Physik endlich auch mal auf einen Nenner einigen können, wäre das ein imo ein riesiger Schritt für die gesamte Spielebranche.

Aktuell bremst aber Nvidia mit Physx alles aus und AMD hat keine Ressourcen und Mittel, selbst einen Standard voranzutreiben. Das Resultat ist jahrelange Stagnation...
Du darfst aber nicht vergessen das nVidia damals wollte das auch Ati PhysX nutzt. Die haben aber abgelehnt. Wir hätten also einen Standard wenn Ati damals nicht so blöd gewesen wäre.
 
Wieso blöd? GPU Physx hat sich bis heute nicht durchgesetzt und das bleibt auch so dank ps4, xbox one. das baut keiner freiwillig von sich aus ein wenn nvidia das nicht Sponsoren würde gäbe es keinen der das implementieren würde. Da lobe Physik Engines die nicht proprietär sind und wo die Physik deshalb auch für das Gameplay genutzt werden kann.
 
Zuletzt bearbeitet:
Du darfst aber nicht vergessen das nVidia damals wollte das auch Ati PhysX nutzt. Die haben aber abgelehnt. Wir hätten also einen Standard wenn Ati damals nicht so blöd gewesen wäre.
Was denkst du, wie die Situation im GPU-Markt für AMD aussehen würde, wenn man einen Standard branchenweit durchboxt, nur damit man nachher völlig vom Lizenzgeber und damit dem Wohlwollen seiner Hochwohlgeboren Jen-Hsung Huang abhängig ist? :ugly:
AMD hätte imo nichts Dümmeres machen können.
 
Zurück