Battlefield 5 im Blindtest: Bemerkt man Raytracing?

Versucht haben sie es allemal, wie erfolgreich sie sind, ist eine andere Frage.
Das habe ich nie bestritten ;)

Das ist so aber auch nicht richtig. Diese Bibliotheken sind doch jetzt z.T. Bestandteile in den Engines oder - like UE, Unity. Also eigentlich sind das Bestandteile von Gameworks. Dort ist auch z.B. VisualFX drin usw.usf. Und ich glaube das wird schon ganz gerne benutzt.
PhysX ist zum Teil Bestandteil der UE4 oder Unity Engine, das ist richtig. Jedoch nur CPU PhysX, die GPU beschleunigte Variante ist meines Wissens nach nicht enthalten.
 
Für mich persönlich ist das Verhältnis bzw. die Differenz von "gut" zu "schlecht" dargestellten Elementen der gezeigten Szenerie für eine überzeugendes Immersionsgefühl am wichtigsten.

Ich finde es wesentlich "unstimmiger", wenn einzelne Darstellungsmethoden "fast an Realismus grenzen" (z. B. RT, Rauch, etc.) und somit die Spitze des derzeit möglichen darstellen, die Vegetation, Texturen oder andere Elemente dann aber noch den Stand von 2005 widerspiegeln. Man sollte sich lieber auf die Dinge konzentrieren, welche noch weiter weg vom Realismus stehen, als z.B. Reflexionen/RT (auch wenn nur gefaked) und nicht die Methoden bzw. Techniken, welche jetzt schon ziemlich gut aussehen noch ein kleines Stückchen besser machen, dies macht die Schere zwischen toll dargestellten Elementen und mies dargestellten Elementen nur noch größer und konterkarieren das von mir erwähnte Immersionsgefühl zusätzlich...
 
Zuletzt bearbeitet:
Ergo: Ärgerlich ist die Situation nur für zwei Arten von Käufern: Die einen, die sich mit Turing einen größeren Leistungssprung in Sachen FPS erhofft hatten und zweitens diejenigen, die mit einer Preis/Leistungsverschiebung wie zum Pascalrelease gerechnet haben. Für alle anderen ist die Situation doch ganz entspannt :-)

Ergo: Fast alle? :ugly:

Ich finde es wesentlich "unstimmiger", wenn einzelne Darstellungsmethoden "fast an Realismus grenzen" (z. B. RT, Rauch, etc.) und somit die Spitze des derzeit möglichen darstellen, die Vegetation, Texturen oder andere Elemente dann aber noch den Stand von 2005 widerspiegeln. Man sollte sich lieber auf die Dinge konzentrieren, welche noch weiter weg vom Realismus stehen, als z.B. Reflexionen/RT (auf wenn nur gefaked) und nicht die Methoden bzw. Techniken, welche jetzt schon ziemlich gut aussehen noch ein kleines Stückchen besser machen, dies macht die Schere zwischen toll dargestellten Elementen und mies dargestellten Elementen nur noch größer und konterkarieren das von mir erwähnte Immersionsgefühl zusätzlich...

This. Ich kann mich nicht erinnern wann mich in letzter Zeit je ein Effekt, eine Spiegelung oder ein Schatten gestört hätten. Viel mehr stören mich das LoD und Kantenflimmern. Und das sind Sachen die man nur mit brachialer Rohleistung in den Griff bekommt.
 
Beim Vergleich dachte ich, das die rechte Seite RTX wäre, aber nö links wurde dann RTX ON eingeblendet.
Ehrlich gesagt sieht mir das mit RTX verschwommener und nicht detailgetreu aus.
Ohne RTX sieht es scharf und detailgetreu aus.
RTX scheint noch nicht wirklich was zu taugen.:schief:
Beim Amiga hat´s damals besser ausgesehen...:D
 
PhysX ist zum Teil Bestandteil der UE4 oder Unity Engine, das ist richtig. Jedoch nur CPU PhysX, die GPU beschleunigte Variante ist meines Wissens nach nicht enthalten.
Nein.

UE4 einhält seit März 2012 PhysX und etwas später wurde allen UE4-Entwicklern auch der C ++ Quellcode für die CPU-basierte Implementierung (PhysX 3.3.3)= (vollständig+Kleidung usw.) auf GitHub zur Verfügung gestellt. Damit hat auch die gesamte Community Zugriff auf den "vollständigen" Quellcode für UE4. Änderungen durch nVidia fließen permanent ein. Offizielles Tim Sweeney Statement.

Wenn eine nVidia Karte im Rechner steckt, übernimmt es vermutlich Cuda.
 
Wenn eine nVidia Karte im Rechner steckt, übernimmt es vermutlich Cuda.
Abgesehen von der Partikelsimulation läuft in der UE4 die komplette Physik über die CPU.

Die GPU-Partikelsimulation ist verhältnismäßig anspruchslos und leicht umzusetzen und läuft auf jeder GPU (AMD, Intel, Nvidia).
 
Dumme Frage, kann man mit einer GTX10... im Spiel RT aktivieren oder funktioniert das nur mit der RTX?

Es würde mich interessieren wieviel Fps eine GTX1080(ti) in 1080p mit low RT schaffen würde.
 
Wenn ich überlege wie damals die ersten XBOX 360 Spiele aussahen und die letzten, das war schon beeindruckend was die daraus gekitzelt haben.


Die ersten 360 Games mussten noch mit 720p und AA laufen weil es Vorgabe war. Später hat man dann Sub-720p mit keinen stabilen 30fps ohne AA bekommen weil die Entwickler die Optik mit mehr Effekten auf dem Bildschirm gefüllt haben.
Man opferte eher das Eine für was Anderes.^^
Natürluch gabe es aber auch hier und da bessere Engine.

Ich finde es nur amüsant wie man sich an einem Game hier öfers aufhängt bei dem RT nur bei Spiegelungen wirklich zum Einsatz kommt. Dann nur nachträglich in eine bestehende Engine eingefügt wurde.
Bei anderen Spielen kann es bei Beleuchtung usw scvon ganz anders aussehen. Vermutlich wird es vermehrt Titel geben die locker 1440p schaffen.

Wer da erwartet dass es selbst in UHD schlüssig läuft, was selbst ohne RT schon nicht leicht zu stemmen ist, der ist wohl 2-3 Jahre zu früh dran. Sowas wird noch dauern und auch vermutlich Engine benötigen die von Anfang an darauf ausgelegt sind.

Muss ja nicht bei allem gleich mitmachen. Paar Leute braucht es schon damit sich sowas entwickelt.
Aber Preis/Leistung bestimmt halt Jeder selber.
 
Ganz ehrlich: Ich hatte bis zum Ende keine Ahnung, wo Raytracing ist. Weil es auf der linken Seite ruckelte habe ich es aber dort vermutet und auch recht bekommen.

Mir ist auch aufgefallen, dass die eine Spiegelung rechts etwas schlechter aussah. Aber dafür musste ich schon genau hinsehen und hätte nicht sagen können, ob das ein Hinweis auf Raytracing oder normale Spiegelungen ist - schließlich wurde ja bekanntgegeben, dass Raytracing noch Bugs hat und es zu Grafikfehlern in Spiegelungen kommen kann.

Je mehr ich Vergleichsvideos ansehe, bestätigt sich meine Meinung darüber: Wenn man alle Screen Space Reflections durch Raytracing ersetzen könnte und es kaum Leistung kostet, also sagen wir mal, wenn ich von 100 FPS dann noch 90 hätte, dann würde ich das vielleicht sogar machen. Aber das wird wahrscheinlich in den nächsten 10 Jahren noch nicht möglich sein.

Ich hoffe auch nicht, dass AMD oder Nvidia noch solche Karten rausbringen. Das kann erst mal in der Schublade bleiben, bis die Zeit reif ist. Bis jetzt ist es alles Anti-Werbung für Raytracing gewesen, was eigentlich gar nicht so schlecht wäre, wenn man technisch schon so entwickelt wäre, dass man es vernünftig nutzen kann. Wäre schade, wenn es dadurch langfristig untergeht.

Dumme Frage, kann man mit einer GTX10... im Spiel RT aktivieren oder funktioniert das nur mit der RTX?
Du kennst doch Nvidia ;) - Ein neues Feature musst Du mit einer neuen Karte bezahlen... Sicherlich hat man auch mit EA usw. fleißig "zusammengearbeitet".
Natürlich spricht nichts dagegen, Raytracing so zu implementieren, dass es auch auf anderen Karten läuft. Aber ich befürchte, dass bis auf Vega keine Karte spielbare Raten zusammenbekommen könnte, und selbst da wären es wahrscheinlich auch noch um einiges weniger, als mit den RTX-Karten, weil Vega zwar eine hohe FP16-Leistung hat, aber angeblich der besondere Aufbau der Tensor Cores Raytracing besonders beschleunigt und den hat Vega nicht - Nvidia hat ja den ja auch nicht in die Unified Shader integrieren können, wie AMD bei Vega und wegen der verschwendeten Chipfläche sind die RTX-Karten auch nochmal teuerer als sie sowieso wären.
 
Zuletzt bearbeitet:
Was fuer ein Stuss du hast schon geschnallt das die Schnittstelle von MS jedem Vendor offen steht genau wie spaeter unter Vulkan

.

Und viel Spass beim Berechnen auf der CPU falls du darauf anspielst , darfst dich dann 2080 mal anmelden dafuer, wenn der "Quantencomputer "ne API fuer bereithaelt
76.gif

Du bist schon son Quantencomputer. Nvidia hat uns angelogen, mehr als einmal und wer einmal lügt, dem glaubt man nicht.

http://www.pcgameshardware.de/Spiel...ng-Beschleunigung-Prozessor-Moeglich-1265693/


Falls du es noch nicht mitbekommen hast: GPU-PhysX ist ziemlich bedeutungslos geworden. Es erscheinen aufs Jahr gesehen nur noch ganz wenige Titel die davon Gebrauch machen, gar kein Vergleich zur Xbox 360/PS3 Ära in der es wirklich viele Titel mit GPU-PhysX gab. Schöne Partikeleffekte oder schöner Rauch lassen sich inzwischen auch gut ohne PhysX realisieren. Bei Hairworks verhält es sich ähnlich, seine großen Auftritte hatte es nur in Witcher 3 und FF XV ansonsten kam es kaum zum Einsatz. Bleibt nur noch Raytracing, das ist offizieller Bestandteil von DX12 und keine Blackbox wie all die Gameworks Effekte.

Letztendlich sehe ich also nicht wo Nvidia erneut versuchen will die Spielerschaft zu spalten. Hauptsache du hast mal wieder gegen Nvidia gestänkert :schief:

Du sagst es ja schon, NVIDIA macht Marketing mit Features die kaum der Rede Wert (bissel Rauch, wackelnde Haare) sind, um zum Kauf einer neuen Nvidia Grafikkarte anzuspornen und letztlich stellt sich raus, dass die Performance stark einbricht, es keine Relevanz für das Spiel ansich hat und letzten Endes keine Verbreitung findet, aus genannten Gründen oder dann doch von der CPU berechnet wird.

Das dennoch so viele Leute darauf reinfallen (ein SLI System sollte man sich damals aufbauen, damit es ein wenig Rauch bei Batman zu sehen gab, tooooolllll) und ihren Strom und ihr Geld verbraten, für Features, die keine sind (siehe Hitman) und dass auch noch mit diesen Abhängigkeiten. :wall:

Aber die Leute könne ja gern ihr Battlefield mit 60fps im stotter DX12 in FullHD spielen. Da muss man ja schon beim Schreiben lachen. Ist nur zu hoffen, dass diejenigen nicht neueste Monitore auf dem Tisch habt, sonst ist das Ärgernis doppelt groß.
 
Du bist schon son Quantencomputer. Nvidia hat uns angelogen, mehr als einmal und wer einmal lügt, dem glaubt man nicht.

http://www.pcgameshardware.de/Spiel...ng-Beschleunigung-Prozessor-Moeglich-1265693/


Auf Nachfrage der japanischen Website 4Gamer.net hat Adam Kozak, Mitarbeiter in AMDs Marketing, bestätigt, dass Raytracing in Spielen, laut Entwicklern der Frostbite Engine, auch von Prozessoren beschleunigt werden kann.

Ich dachte der Hook ist gegangen worden, da kommt schon der nächste Marketing Schaumschläger ,mit seinen Geschichten um die Ecke;)

Daniel Pohl was hast du die ganzen Jahre falsch gemacht bei Intel "du Lusche", was AMD jetzt mit dem Mundwerk eines Marketingfuzzis lößen wird:D
 
Zuletzt bearbeitet:
Also Kaufargument sieht anders aus, in der Preisklasse... Oder hat EA zuwenig Unterschied eingebaut..who knows.
Das schöne ist - das BF5 -egal wie - gut aussieht :) Auch auf einer Vega ;)
 
Ich verstehe nucht wie manche
Da hat er schon recht ,nur wie sie sich die falschen Erwartungen dann zurechtbiegen, um gegen RT in den Krieg zu ziehen ist unter aller Sau
denken, dass die User gegen Raytracing selbst sind.
Die meisten würden sich sofort auf vollständiges Echtzeitraytracing stürzen.

Der Grund für den Unmut ist:
der Preis
der Leistungsverlust
wenige/ein Titel erst Monate nach dem Start -
doesnt just work
nur wenig (Spiegelungen) wird geraytraced
teilweise stark sichtbares denoising
aber nicht die Technik selbst.


Oder Nvidia legt sogar ne dedizierte RT Karte auf, wenn genügend auf den Zug aufgesprungen sind...

Das würde ich tatsächlich besser finden.
 
Das sich welche diese überteuerten Karten kaufen hätte ich ehrlich gesagt nicht gedacht, ich finde diese Preispolitik echt gruselig.
Die Grafikkarten sind so Teuer wie ein ganzer Rechner und das wegen ein Gimmick ? Sollten die Preise jetzt bei jeder neuen Generation so extrem ansteigen werde ich wohl viele Jahre auf meiner GTX 1070 Sitzen bleiben nicht weil mir das Geld fehlt sondern weil mein Verstand noch da ist zuviel Geld...
 
Der Grund für den Unmut ist:
der Preis
der Leistungsverlust
wenige/ein Titel erst Monate nach dem Start -
doesnt just work
nur wenig (Spiegelungen) wird geraytraced
teilweise stark sichtbares denoising
aber nicht die Technik selbst.

Ich vermute es ist nur der Preis verbunden mit der für viele zu geringen Leistungssteigerung.

Dass ein Feature die FPS tötet oder nicht in Perfektion auf den Markt kommt, hat bisher noch nie jemanden gestört.
 
Scully, egal wie du es berechnen lässt, es muss ein Bild aus zwei Recheneinheiten verbunden werden, da bisher keine reinen RT-Grafikengines existieren.
Es ist hier sogar so, das du einen doppelten Durchlauf der Frames hättest.
Anders sieht das aus, wenn es Gameengienes rein auf RT Basis gibt, die ohen eine RT Karte nicht laufen, dann hat die "Rasterizierungs-GPU" aber Freizeit und Idled rum ;)
 
Zurück