Battlefield 5: Die Grafik-Optionen der Open-Beta auf dem PC

Deine Verschwörungstheorien zu Async Compute sind echt putzig.
Wenn du auf einer nicht Hyperthreading fähigen CPU mit 4 Kernen 8 Threads laufen lässt, verschluckt die sich auch...

Async Compute ist Hyperthreading für GPUs.
Dein unwissen und das dazu passen aufgeblähte Ego sind nur traurig.
nein, Async Compute ist nicht wie Hyperthreading sondern eher das Gegenteil - den bei hyperthreading is es der Scheduler der mehrere Threads auf dem selben Kern ausführt wenn es die instruktionen zulassen.
Async Compute ist das Gegenteil - es wird der erste Thread zwangsbeendet und ein Zweiter zwischengeschoben - Softwaregesteuert und wirkt damit GEGEN den scheduler.
 
Irgendwie ist das Spiel bei mir so.... unscharf. Dabei habe ich alle Einstellungen auf Ultra, nen 1080p Monitor und Resolution Scaling auf 125%.

Weiß jemand woran das liegt?

Ich würde ja gerne das TAA ausstellen. Ich kann aber leider nur zwischen "niedrig" und "hoch" wechseln -.-.

Und MSAA gibts wohl nicht mehr?
 
Irgendwie ist das Spiel bei mir so.... unscharf. Dabei habe ich alle Einstellungen auf Ultra, nen 1080p Monitor und Resolution Scaling auf 125%.

Weiß jemand woran das liegt?

Ich würde ja gerne das TAA ausstellen. Ich kann aber leider nur zwischen "niedrig" und "hoch" wechseln -.-.

Und MSAA gibts wohl nicht mehr?

Ich würd mal sagen - nimm die Resolution-scaling raus. Oder auf 150% rauf. Mit 125% ist man in nem schlechten bereich wo es nichts bringt oder teils schlechter macht.
 
Async Compute ist das Gegenteil - es wird der erste Thread zwangsbeendet und ein Zweiter zwischengeschoben - Softwaregesteuert und wirkt damit GEGEN den scheduler.

Das ist so nur Teils korrekt. Das kommt in erster Linie auf die GPU an. Nvidia arbeitet das bei Maxwell und etwas besser aber auch noch nicht perfekt bei Pascal tatsächlich so in etwa ab.
Bei GCN funktioniert das aber zb "parallel". Da wird kein workload unterbrochen und dann etwas anderes eingeschoben.

Beispielgrafikquelle: anandtech.com
 

Anhänge

  • pastedImage_5.png
    pastedImage_5.png
    79,9 KB · Aufrufe: 54
Zuletzt bearbeitet:
Irgendwie ist das Spiel bei mir so.... unscharf. Dabei habe ich alle Einstellungen auf Ultra, nen 1080p Monitor und Resolution Scaling auf 125%.

Weiß jemand woran das liegt?

Ich würde ja gerne das TAA ausstellen. Ich kann aber leider nur zwischen "niedrig" und "hoch" wechseln -.-.

Und MSAA gibts wohl nicht mehr?


MSAA gibts schon lange nicht mehr. TAA auf low bringt nix, da es einfach nur schlechter ist, aber nicht schärfer.

Würde erstmal die Chromatic Aberration ausschalten. Das macht das Bild sehr unscharf. Spätestens In Kombination mit Resolution Scale sollte das Bild dann auf jeden Fall sehr scharf sein.
 
Das ist so nur Teils korrekt. Das kommt in erster Linie auf die GPU an. Nvidia arbeitet das bei Maxwell und etwas besser aber auch noch nicht perfekt bei Pascal tatsächlich so in etwa ab.
Bei GCN funktioniert das aber zb "parallel". Da wird kein workload unterbrochen und dann etwas anderes eingeschoben.

Da geht es um asynchrone Shader - das ist zwar ähnlich, aber nicht das selbe wie ansynchronous compute. Aber auch dort wrden die Aufgaben der Shader (im falle von peremptive und Quickresponse) unterbrochen - einmal teils, einmal vollständig).
 
Da geht es um asynchrone Shader - das ist zwar ähnlich, aber nicht das selbe wie ansynchronous compute. Aber auch dort wrden die Aufgaben der Shader (im falle von peremptive und Quickresponse) unterbrochen - einmal teils, einmal vollständig).
Logic-Lession: Wenn etwas unterbrochen werden würde, dann wäre es nicht "async", sondern "sync" (neu sortiert ist immernoch sync, jede andere Definition wäre reichlich sinnlos).

Der Sinn der Technik ist ja gerade, dass nichts unterbrochen werden muss und man freie Ressourcen "nebenbei" nutzen kann. GCN kann das auch so. Nvidia halt... not so much.
 
Zuletzt bearbeitet:
Dein unwissen und das dazu passen aufgeblähte Ego sind nur traurig.
nein, Async Compute ist nicht wie Hyperthreading sondern eher das Gegenteil - den bei hyperthreading is es der Scheduler der mehrere Threads auf dem selben Kern ausführt wenn es die instruktionen zulassen.
Async Compute ist das Gegenteil - es wird der erste Thread zwangsbeendet und ein Zweiter zwischengeschoben - Softwaregesteuert und wirkt damit GEGEN den scheduler.

Die Aussage stimmt nur für Nvidia:
Weil: Ihre GPU ist nicht Hyperthreading fähig.
Also muss der Thread abgebrochen und ein anderer eingeschoben werden.

Edit:
Da geht es um asynchrone Shader - das ist zwar ähnlich, aber nicht das selbe wie ansynchronous compute. Aber auch dort wrden die Aufgaben der Shader (im falle von peremptive und Quickresponse) unterbrochen - einmal teils, einmal vollständig).

Jetzt will ich mal sehen, was für White Paper, oder Links du auffahren kannst, um dein Missverständniss von Async Compute zu belegen...
Was sollen Async Shader anderes sein, als async compute (der Oberbegriff)?

YouTube

Wo ist hier der Unterschied zu Hyperthreading?
Der Scheduler packt zusätzliche Tasks in Pausen, in denen die Shader Kerne nicht arbeiten.
 
Zuletzt bearbeitet:
Gibt es eigentlich schon Infos, ob man Raytracing auch auf nicht Turing GPUs anschalten kann?

Weil eigentlich basiert das ja auf DGX, und sollte damit auf sämtlichen DX12 Karten laufen, oder? Ob das jetzt sinnvoll ist, ist natürlich eine andere Frage, aber ich würde zumindest in der Kampagne schon mal gerne alle Regler nach rechts stellen, und die schönen Standbilder genießen.
 
Ich versteh einfach nicht wie man TAA forcieren kann in einem Spiel wie diesem, es macht das Bild einfach nur unscharf und verwaschen. Da spiel ich ganz ehrlich lieber ohne irgendein AA und habe kanten ohne ende, als diesen mist.
 
Gibt es eigentlich schon Infos, ob man Raytracing auch auf nicht Turing GPUs anschalten kann?

Weil eigentlich basiert das ja auf DGX, und sollte damit auf sämtlichen DX12 Karten laufen, oder? Ob das jetzt sinnvoll ist, ist natürlich eine andere Frage, aber ich würde zumindest in der Kampagne schon mal gerne alle Regler nach rechts stellen, und die schönen Standbilder genießen.

Prinzipiell ja, nur nicht bei den jetzt gezeigten Spielen und sicher nicht bei Nvidia GPUs - dann könnte ein SLI Gespann ja eventuell halbwegs spielbare Leistungen bringen.
 
Ich versteh einfach nicht wie man TAA forcieren kann in einem Spiel wie diesem, es macht das Bild einfach nur unscharf und verwaschen. Da spiel ich ganz ehrlich lieber ohne irgendein AA und habe kanten ohne ende, als diesen mist.

Wo siehst du denn da Unschärfe? (Bis auf die Waffe)

https://abload.de/img/bfvxjc12.png

bfvob-png.1008366


Also für mich ist das knackscharf. Besser geht das auch mit MSAA nicht...
 

Anhänge

  • bfvob.png
    bfvob.png
    773,6 KB · Aufrufe: 476
Ich versteh einfach nicht wie man TAA forcieren kann in einem Spiel wie diesem, es macht das Bild einfach nur unscharf und verwaschen. Da spiel ich ganz ehrlich lieber ohne irgendein AA und habe kanten ohne ende, als diesen mist.

Vielleicht fehlt die Option das Post AA abzuschalten noch?

Ansonsten hilft es TAA auf "High" zu stellen und die Chromatische Aberration, sowie das Film Grain abzuschalten. Den Auflösungsskalierer natürlich soweit es geht nach oben. Da hilft auch schon 110% !
 
Weapon Dof würde ich auf jedenfall deaktivieren, sieht ja schrecklich aus

Ray Trancing wird auch der Grund für die Verspätung sein.
Zumal es keiner wirklich nutzen wird bei 45-60FPS in Full HD
:lol:

Im Multiplayer sicherlich nicht da spielt man eh mit den niedrigsten Grafik settings weil man die Gegner besser spoten kann aber im Singleplayer alles auf Maximum da reichen mir auch die 50 FPS solange RT einen Mehrwert bietet.
 
Zuletzt bearbeitet:
YouTube

Wo ist hier der Unterschied zu Hyperthreading?
Der Scheduler packt zusätzliche Tasks in Pausen, in denen die Shader Kerne nicht arbeiten.

Schön das du ein Marketing-Video gefunden hast. Nur im Gegenzug zur CPU wird bei Async Compute ein vollständiger, vom Programm und nicht von der Hardware ausgelöster, Kontext-Wechsel durchgeführt - für den AMD spezielle Caches verbaut hat um diesen Wechsle zu beschleunigen. Dieser Cache ermöglicht das relativ schnelle wechseln der Tasks, ist aber trozdem eine Vollständige unterbrechung des programmablaufes und wirkt noch immer gegen den Scheduler und damit nicht mal ansatzweise wie HT.
Dazu kommt das die Beschleunigung durch einen Cache kommt, der den Wechsel in 2 Stufen Aufteilt von denen nur der Cache schnell ist. Wiederholte Context-switch kosten dann trotzdem Leistung - auch nicht wie HT.


Das AMDs Scheduelr bei den GPUs bei weitem nicht die selbe Qualität hatte (hat sich mittlerweile deutlich gebessert) hat sich ja deutlich in der Auflösungsskallierung der alten AMD Karten gezeigt - die bei 1080p die CUs nicht auslasten konnte und erst bei 4K dann die Leistung zeigen konnten. Wen eine CU frei ist dann kostet der wechsel zu einem Compute-task 0, bei Nvidia wurden die Cuda-cores auch schon bei nierigeren Auflösungen voll ausgelastet.
Nur - was geschieht wenn man bereits 100% der Hardware nutzt jetzt dann aber so fort, ohne Kompromiss, etwas anderes machen will? ja - die bisherige Aufgabe wird unterbrochen und ein neuer Task muss geladen werden.

Das ist ja das "lustige" oder besser gesagt frustrierende an AMDs Werbematerial das du da zeigst: Es geht von der Situation aus das die Hardware nicht genutzt wird und das es mehrere Unabhängige Task gibt die zufälliger weise genau rechtzeitig ankommen.
Wäre natürlich der Idealfall für AC nur das findet man in der Realität nicht. AC wird nicht vom Scheduler gesteuert - der genau weis was gerade geschieht. es wird auch nicht vom Treiber gesteuert der zumindest grob weis was die Hardware macht und kann. Es ist rein Softwareseitig vom Spielentwickler. Es ist als wollte eine fremde Person auf einmal in ein gut eingeübtes Team eingreifen und "helfen" - das ist nur hinderlich außer das Team hatte gerade sowieso zeit.



Logic-Lession: Wenn etwas unterbrochen werden würde, dann wäre es nicht "async", sondern "sync" (neu sortiert ist immernoch sync, jede andere Definition wäre reichlich sinnlos).

Der Sinn der Technik ist ja gerade, dass nichts unterbrochen werden muss und man freie Ressourcen "nebenbei" nutzen kann. GCN kann das auch so. Nvidia halt... not so much.

zeigt nur das du von der Technologie keine Ahnung hast. Gratuliere zu nichts.
Du hast nichtmal die bedeutung des Wortes Synchron richtig hinbekommen.
 
Zurück