Battlefield 5: Overture-Update mit bis zu 50 Prozent mehr Raytracing-Fps

Wer spielt denn freiwillig mit RTX? Selbst wenn man nur einen 1080p Monitor hat und deswegen unter der geringen Auflösung nicht leidet, kann sich das DX12 geruckel doch keiner antun! :ugly: Damit wird jedes Multiplayermatch zur Katastrophe und für den 1. Platz auf dem 64er Server reicht es mit Sicherheit nicht.

Selbst wenn jemand eine 2080ti hat und einen 1080 Monitor wird trotzdem nicht in 1080p spielen!!!
Es gibt DSR und jedes Spiel hat heute Upscaling Slider also verwendet man Super Sampling.

Und für Platz 1 auf einem Server brauchst keine gute Performance sondern einen Bomber!
Dann hast 120 zu 5 oder so und der größte Skill ist den Platz tauschen um die Spitfire abzuwehren.
 
Screenspacereflections haben jedenfalls für mein Verständnis ziemlich wenig mit postprocessing zu tun.
Also können diese, kombiniert mit Raytracing wohl sehr wohl genutzt werden.
Als ob jemand wirklich RT einsetzen würde, wenn man den Multiplayer zockt.
 
hast du auch irgend etwas Sinnbehaftetes beizutragen? Meckerst nur rum und Projizierst deine Eigenen Verfehlungen und Unwissen auf andere - ernsthaft - kommst daher und willst es sogar besser wissen als die Entwickler des Spiels und der Technologie

Ich bin nicht der der die letzten Beiträge nur rumstänkert, ich hab ja im Gegensatz zu dir sinnvolle Argumente wenn ich sage dass man im Rendering nicht Effekte berücksichtigen kann die erst im Postprocessing nach dem Rendern passieren. wie auch? Da hast du noch IMMER keine Sinnvolle Antwort abgeliefert sondern nur dumm diffamiert dass ich keine Ahnung habe. Ja bitte, komm, dann her mit den Infos wie das gehen soll.

Und das witzige ist ja, du kannst offensichtlich nicht mal verstehen, dass ich den Entwickler selbst zitiere, der NIRGENDSWO auch nur einen HINWEIS davon gibt dass beide Technologien (also RTX und SSR) GLEICHZEITIG verwendet werden.

Nochmal für extra Patienten wie dich die offenbar schwer von Begriff sind, hier das Zitat vom ENTWICKLER SELBST (das ist nicht meine Behauptung, schreib das besser auf sonst behauptest nachher noch ich wüsste was besser):

Yasin Uludag schrieb:
Other quality and performance improvements in development include a hybrid rendering system that uses traditional screen-space reflections where the effect is accurate, only using ray tracing where the technique fails

Ich übersetz es extra für dich sogar: "Andere Qualitäts- und Performance Verbesserungen, die in Entwicklung sind, beinhalten ein Hybrides Renderingsystem, was traditionelle Screen-Space Reflections dort verwendet wo der Effekt akkurat arbeitet, NUR dort, wo diese Technologie fehlschlägt, wird Ray-Tracing eingesetzt."

Ich hoff doch dass du wenigstens Deutsch einigermaßen beherrscht.

Er schreibt eindeutig dass das Renderingsystem Hybrid ist, das bedeutet aber nicht dass die Effekte gleichzeitig in dem Sinne eingesetzt werden dass sie in Reihe geschaltet werden können. Sonst würde er auch schreiben dass man es kombinieren kann, nur da steht NIX DAVON. nicht einmal ein kleinster Hinweis.

Also nein, ich muss dich leider enttäuschen, ich behaupte gar nichts... Ich zitiere nur den Entwickler selbst.

Hab da noch gut in erinnerung wo du behauptest die intle 9xxx serie wäre weniger effizient als Ryzen - weil der Ryzen ein bisschen weniger Strom verbraucht hat - nur das du da halt eben wie durch Zufall ignoriert hast das der Ryzen dort auch weniger Leistung gebracht hat

Und wieder machst du dich komplett lächerlich, ich hab nie behauptet das Intel in der Leistung weniger Effizient ist. wo steht das? Link her, oder STFU mit deinen Fake News. Unterste Schublade sowas, aber nicht mit mir.

Hier, ich Zitier dir meinen Beitrag nochmal her:
Mich intressiert vorallem der Stromverbrauch im vergleich zum 2700X.

schon beim 8700K hat der Intel bis auf Idle (da ca 2W weniger) das nachsehen, 6W mehr im CAD, 10W mehr im Gaming Loop und 54W mehr im Torture :ugly:

Quelle bei solchen Aussagen verlasse ich mich immer auf die sehr verlässlichen Werte von Igor.

Wobei man ja sagen könnte, der leistet auch mehr. Was mich zur Gegenfrage verleitet: was passiert, wenn man beide CPU's (also auch den neuen i9) mit einem exaktem TDP Korsett testet? wo liegen wir dann in der Leistung?

Ich hab sogar noch im letzten Satz erwähnt dass er mehr leistet als Ryzen und nur die Frage gestellt, wie es aussieht wenn die TDP eingehalten wird, also wo hab ich irgendwas ignoriert so wie du mir das andichten willst?

Red keinen Mist, sondern nimm dir ein Beispiel an Schaffe:
Screenspacereflections haben jedenfalls für mein Verständnis ziemlich wenig mit postprocessing zu tun.
Also können diese, kombiniert mit Raytracing wohl sehr wohl genutzt werden.
Als ob jemand wirklich RT einsetzen würde, wenn man den Multiplayer zockt.

Genau auf dieser Basis sollte man diskutieren. Auch wenn ich mit Ihm nicht immer einer Meinung bin, aber sowas ist Diskussionskultur.

Aber zurück zum Thema.

@Schaffe:
Ich habe was Screen Space Reflections betrifft eine Super Folie gefunden die man sich wenn man möchte durchsehen kann: Link

hier wird auch zwischen HQ und Low Cost Raytracing unterschieden, also wird selbst dort auch noch mal bei den SSR Rays gesplittet. Möglicherweise kann man sich ein 3. Kästchen dazu mit RTX dazudenken.

So wie ich den RTX Renderpfad verstehe, geht der Vom Auge des Betrachters aus... Wenn also der die Pfade mal abgegangen ist ists eigentlich eh schon zu Spät, also müsste der irgendwo eine Info bekommen schon vorher welche Rays überhaupt sinnvoll sind damit er die unsinnigen Verwerfen kann, da sehe ich so jetzt nicht wie man das mit SSR kombinieren kann, jedenfalls nach meinem Verständnis, weil dann kann man ja auch gleich voll RTX verwenden.

Aber wie gesagt, dafür bin ich zu wenig im Thema. Vielleicht weiß da Locuza mehr darüber.
 
Zuletzt bearbeitet:
Screenspacereflections haben jedenfalls für mein Verständnis ziemlich wenig mit postprocessing zu tun.
Also können diese, kombiniert mit Raytracing wohl sehr wohl genutzt werden.

klar kann es zusammen verwendet werden - aber SSR wie es in Spieleengines eingesetzte wird ist ein postprocessing-verfahren bei dem das berechnete Bild gespiegelt wird und dann nochmal über reflektierende Oberflächen gelegt wird. Die Idee dahinter beruht auch auf Raytracing - man geht von der Kamera auf die spiegelnde oberfläche und dann weiter bis etwas getroffen wird - aber die Umsetzung ist eine sehr schlaue Trickserei die es erlaubt mit sehr wenig Aufwand als postProcessing realisiert zu werden. Das kann man sehr gut eben an den Spiegelungen erkennen die im dann Fehlen.

Vereinfacht dargestellt:
Das Bild wird (ohne Spiegelung) fertig gerendert, dabei wird der Abstand der Pixel (zBuffer) und welche Oberflächen reflektieren gespeichert. Jetzt geht man über alle Pixel die Spiegeln und sucht von dort aus gehend im zBuffer wo ein Sichtstrahl das Bild schneiden würde (dafür braucht man jetzt die Tiefeninformation). Wenn man einen Treffer im ZBuffer findet hat man die Position des Bildpunktes der in der Spiegelung zu sehen wäre.
Das suchen des Treffers im zBuffer schaut erstmal sehr aufwendig aus da es ja wieder Strahlendurchgehen ist - aber das ganze wird jetzt nurmehr im zBuffer gemacht -also einem einfachen Schwarz/Weis 2D Bild - was relativ einfach geht.
(wie man die Punkte genau findet kann man bei anderen beispielen gut nachlesen zB "parallax mapping" )



Achja - nochmal damit man besser versteht woran man diesen postProcessing Ansatz erkennt:
xFg0tq1.png

Rechts die Kamera/das Auge, unten Wasser (Spiegel, wasauchimmer), links ein roter Ball und in der Mitte etwas (Wand) das dich Sicht blockiert.
Grün zeigt einen Strahl an der den Ball zeigen müsste - nur wenn man jetzt den zBuffer durchgeht findet dieser den Schnittpunkt (schwarze Linie am Ball) nicht da im zBuffer dort die Wand ist und die zu nahe dran ist. Es wird dann im zBuffer nichts gefunden und dann auch nichts gespiegelt.


In einfachen Gebieten bei denen die Spiegelungen nur glatte flache Oberflächen sind und die Sicht selten blockiert wird ist das hervorragend geeignet.
 
Ich bin nicht der der die letzten Beiträge nur rumstänkert, ich hab ja im Gegensatz zu dir sinnvolle Argumente wenn ich sage dass man im Rendering nicht Effekte berücksichtigen kann die erst im Postprocessing nach dem Rendern passieren. wie auch?
Das zeigt nur das du nicht weist wie das postProcessing abläuft bzw wie man es machen kann.
lies dir erstmal meine Antwort an Schaffe durch damit du ein Grundverständnis hast, darauf folgt dann das:


Der zBuffer wird gleich anfangs gefüllt - noch lange bevor irgend ein normaler Shader drüber läuft. Und ab diesem Zeitpunkt hat man alle Daten die man braucht um SSR und Raytracing zu kombinieren.
SSR kann erst abgeschlossen werden wenn der erste Renderpass abgeschlossen ist - da es vom Ausgangsbild Pixel kopiert.
Aber man weis schon längst WELCHE Pixel da gespiegelt werden können und welche nicht.


Da hast du noch IMMER keine Sinnvolle Antwort abgeliefert sondern nur dumm diffamiert dass ich keine Ahnung habe. Ja bitte, komm, dann her mit den Infos wie das gehen soll.
jaja - ich diffamiere dich - du hast nur rumgeheult "Ich weis immer eins mehr als du" und nichts geliefert - aber ich diffamiere dich hier -lern erstmal wie Bilder berechnet werden.



Und das witzige ist ja, du kannst offensichtlich nicht mal verstehen, dass ich den Entwickler selbst zitiere, der NIRGENDSWO auch nur einen HINWEIS davon gibt dass beide Technologien (also RTX und SSR) GLEICHZEITIG verwendet werden.
Nicht meine Schuld wenn du die exakte Passage sogar Zitierst aber nicht in der Lage bist einen einfachen Satz zu verstehen - was schon erstaunlich ist da du es ja irgendwie geschafft hast ihn zu übersetzen.
Sagmal - kann es sein das du dermaßen wenig über Computer weist das du glaubst eine Grafikkarte kann nicht zB 2 Soldaten nebeneinander gleichzeitig zeichnen!?!? Denn das ist gerade das was du hier behauptest.


Also nein, ich muss dich leider enttäuschen, ich behaupte gar nichts... Ich zitiere nur den Entwickler selbst.
Scheint meine Vermutung ist leider bestätigt - du bermerkst ncihtmal das du den Entwicklern hier direkt widersprichst.




Und wieder machst du dich komplett lächerlich, ich hab nie behauptet das Intel in der Leistung weniger Effizient ist. wo steht das? Link her, oder STFU mit deinen Fake News.
Gut - gerne - kann dir genre Zitieren wo du solchen mentalen Durchfall von dir gegeben hast.
Hast du ja sogar selbst getan - braucht man nichtmal wer was dazu sagen wenn du mit fadenscheinigen ausreden wie "man könnte sagen - aber" daher kommst.
oder auch deine Asusage dazu das 1.35V bei HBM2 zu viel wären:
1.35? viel zu viel. standard sind 1.2V, und selbst das ist noch sehr großzügig.

Im Radeon Settings gibts im Wattman einen Schieberegler dafür, hat bei mir stets gut funktioniert.
Obwohl das die Vorgabewerte von AMD sind - ja, Vega 56 und vega 64 haben unterschiedliche Spannung für den VRam.


Du scheinst dein Wissen des öfteren weit zu überschätzen und statt das du nachsiehst wenn jemand diese Fehler anmerkt gehst du zum Angriff über und schreibst dann ncishtmehr außer Leere beleidigungen und Anschuldigungen - wie jetzt auch schon wieder - ohne auch nur ein einziges Argument vorzulegen - so viel zu Diskussionskultur.
 
Doch. Er schrieb beides. Einerseits Zukünftigere Verbesserungen, andererseits in einem unmittelbaren Patch. (both in an imminent patch)




wenn, dann hätte er sowas wie "simultaneously" oder "both at the same time" geschrieben. hat er aber nicht.

Hast du überhaupt alles durchgelesen?



Du hast gerade beschrieben dass sowas eben nicht funktioniert. Steckt ja schon im Wort: POST (=nachher). RTX Rays müssen aber noch im Processing geschehen. Nur wie soll der RTX Renderpfad befehle vom Postprocessing erhalten? (also von Ergebnissen, die noch gar nicht da sind?)

Vielleicht hab ich ja auch nur einen Denkfehler, dann klär mich auf ;)

Screen Space Reflections werden im so genannten Screen Space berechnet (also in der 2D-Ebene, welche deiner Monitorfläche entspricht). D.h. in der Render Pipeline sind wir schon ein Stücken weiter hinten. Hierzu steht per Definition nicht mehr alle Information aus der 3D Szene zur Verfügung, da wir bei der Berechnung bereits den 3D Vektorraum auf einen 2D Vektorraum (Oder von 4D zu 3D bei homogenen Koordinaten) projeziert haben. Es wird mittels G Buffer und Deferred Shading ausgewählte Information aus dem 3D Raum mit rüber genommen (zusätzlich zur einfachen Projektion. Z.b. die Ausrichtung und Position gewissen Polygone etc.) und es muss zunächst ein Pixel Shader Durchlauf stattfinden, um die Farbe der Pixel zu berechnen, die später gespiegelt werden. D.h. wir können auch nur Spiegeln, was im Pixel Shader berechnbar ist, und dies ist per Definition im Screen Space nur die Information, die im Frustum liegt und auf die Near Clipping Plane projeziert wurde (resp. Monitorfläche). Die Spiegelung in SSR ist selbst als Pixel Shader implementiert und nimmt die Information des ersten Durchlaufs, um im finalen Durchlauf die Spiegelflächen zu shaden.

Hier waren sehr viele OpenGL und klassische Render Pipeline Begriffe eingebettet. Dies habe ich extra so gemacht, damit du auch was nachschauen kannst. Die Begriffe sind mehr oder weniger eindeutig definiert, du solltest also rasch die richtigen Informationen dazu finden. Wichtig ist zu verstehen, das dies oben beschriebene NICHT sogenanntes Physical Based Rendering ist und auch keine numerische Simulation physikalischer Gleichungen ist. Es ist eine sehr künstlerische Approximation der Realität und keine Simulation der physikalischen Gleichungen, die das Reich des Lichts regieren. Wir haben schon immer versucht das Verhalten von Licht in Computergrafik nachzuahmen. Wir können es uns nicht Leisten die physikalischen Gleichungen direkt zu lösen, und die meisten Shader implementieren ein Modell welches der Realität mehr oder weniger nahe kommt. Das Berühmteste ist das Phong Lighting/Reflection Model (nicht zu verwechseln mit Phong Shading).

Nun Ray-Tracing arbeitet mit 3D Informationen der ganzen Szene, d.h. fundamentale Berechnungen passieren im sogenannten World Space. Ray-Tracing simuliert den Pfad, den Lichtstrahlen durch eine Szene verfolgen. Das haben wir nun schon zu genüge gehört. Hierzu verwenden wir wiederum die physikalisch korrekten Gleichungen und berechnen diese direkt. Jeder mit ein bisschen Programmiererfahrung kann in jeder beliebigen Programmiersprache in einem Tag einen Ray-Tracer schreiben oder zumindest nachprogrammieren und nachvollziehen. Dieser Ray-Tracing Ansatz ist per Definition korrekter als der Shader Beschiss von heute (abgezogen numerischer Approximation). Was bedeutet das? Für den Programmierer, weniger Komplexität da wir nun die Einfachheit, Korrektheit und Schönheit Jahrhunderte alten Wissens direkt implementieren können mit wenigen Zeilen Code. Bitte nicht falsch verstehen. Es geht hier rein nur um den Effekt des Lichts und des Spiels von Licht und Schatten. Und das ist , was einfach funktioniert. "It just works" bezieht sich darauf, dass man keine 20 Vertex und Pixel Shader für Schatten, Spiegelungen, mehrere Lichtquellen etc. mehr benötigt. Man benötigt auch nicht ein obskures Wissen, wie man realistische Szenerie generiert durch ein geschicktes Zusammenspiel dieser vielen kleinen Beschisse. Bei Ray-Tracing verwendet man die eine und gleiche fundamentale Gleichung/Berechnung für alles. Licht, Schatten, Spiegelungen, etc. Aber wie immer in der Informatik: There is no free lunch. D.h. die Schönhheit des Ray-Tracing kommt nicht von Ungefähr. Es gilt noch immer der Energieerhaltungssatz, Shannon-Entropie etc. etc.. Was heisst das? Man kann sich Fotorealismus nicht gratis aus dem Arsch ziehen wie ein Perpetuum Mobile. Man muss für mehr Information und mehr Details IMMER mehr Energie aufwenden. D.h. die physikalische Simulation, welche Ray-Tracing ist, bietet realistischere Grafik zu geringeren Entwicklungskosten (langfristig) für einen gewissen Preis: Höhere Energiekosten für die Berechnung selbst. Auch hier nicht falsch verstehen: Die Energie, die man aufwenden muss, um dasselbe Ergebnis mit Shader Beschiss zu erreichen wird jetzt exponentiell wachsen. Mehr Arbeit und immer weniger visuelle Verbesserungen mit der alten Technik. Man verschwendet immer mehr Taktzyklen für Schall und Rauch, ab einem gewissen Zeitpunkt lohnt es sich die physikalischen Gleichungen direkt zu lösen und dieser Moment kommt jetzt. Die grösste Herausforderung ist es, beide Welten zu vereinen in einer Übergangsphase bis später der grösste Teil Ray-Tracing basiert berechnet wird. AMD, Intel und NVidia haben hierzu schon seit Jahren die Grafik APIs angepasst und Extensions für DirectX 12, Vulkan, etc. mitgetragen und verabschiedet. Diese Arbeit ist das kleinste Übel. Das gröste Übel ist die Hardwarebeschleunigung. Unser Professor für Betriebssysteme war jahrelang bei Intel führender Ingenieur. Eine Architektur benötigte seiner Aussage nach mindestens 5-10 Jahre vom Reissbrett bis zur Auslieferung. Das bei Tausenden Ingenieuren, die daran mitarbeiten. Man muss Jahre, wenn nicht Jahrzente voraus eine Punktlandung planen. Dies hat NVidia mehr oder weniger gut geschafft. Dies ist besonders schwer jetzt bei diesem Paradigmenwechsel. AMD und die Anderen haben nun den Vorteil Nachziehen zu können, aber falls Sie nicht auch schon vor 5 Jahren angefangen haben daran zu arbeiten, werden wir auch so rasch von denen nichts Brauchbares sehen. Es ist wirklich nicht einfach.

Nun zum Ray-Tracing in der Grafik Pipeline: Da wir zusammen mit einer klassischen Rasterisierungs Pipeline arbeiten, sind wir fundamental an diese Architektur gebunden. Beides zusammen zu kombinieren ist nicht einfach: Hier eine gute Resource, um die DXR Shader Pipeline zu verstehen. Wir arbeiten also auf den Vertex Daten im 3D Raum. Wie wir die Farbinformation der getroffenen Objekte ermitteln ist Teil der Magie und Schwierigkeit des Kombinieren beider Paradigmen. Nichtsdestotrotz hat DICE dies schon von Beginn weg gut hingekriegt. Was sie jetzt gemacht haben mit der Boudning Box Hierarchy ist ein alter algorithmischer Trick in der 3D Programmierung. Diese ist eine Datenstruktur ähnlich eines sogenannten Octrees. Dies ist eine Baumstruktur, d.h. wir können nun Objekte im Raum exponentiell schneller finden als zuvor, wenn wir die Szene geschickt zuvor mit einer solchen Datenstruktur vorbereiten. Das Ergebnis sollte dasselbe sein, nur ein gewisser Teil des Algorithmus wurde signifikant beschleunigt. Dies ist übrigens ein normaler Workflow in der Programmierung. Zuerst korrekt, dann schnell. Nie andersherum (sonst kommt Fallout76 dabei raus). Das hat also nichts mit dem Screen Space Reflections zu tun und ist auch kein billiger Trick in dem Sinne.

Wir können definitiv daran glauben, dass in wenigen Jahren die Mehrheit der Triple A Spiele auf Ray-Tracing für Global Illumination, Reflektionen und Schatten setzt. Es wird auch definitiv eine extreme Performance und Qualitätssteigerung geben. Ray-Tracing ist ein Jahrzente altes Konzept. Es zusammen mit Rasterisierungs Pipelines zu implementieren ist neu. Das müssen die Jungs noch lernen. Die Hardware wird prozentual mehr für das Ray-Tracing dedizieren, was ohnehin mehr Performance und/oder bessere Effekte mit sich bringt. Und wenige Jahre später ist der Punkt überschritten, den man mit konventioneller Grafik nie hätte erreichen können und ab da ist Ray-Tracing so normal und allgemein zugänglich wie Telefonieren oder Internet.

Hoffe das hilft soweit, die Sachverhalte etwas ins Grosse und Ganze einzuordnen.

Ich habe übrigens eine RTX, und bin auch mit der Performance bei BF V noch nicht zu frieden. Aber ich habe auch das Verständnis dafür, wie schwer das alles ist. Definitiv noch keine Kaufempfehlung für Ray-Tracing für Spiele. Habe Sie mir nur geholt, damit ich DirectX DXR programmieren kann. Nur damit da nicht das Grün-Rot Fanboy Geschreie im Forum wieder losgeht :D
 
Keine Ahnung ob das hier schon geschrieben wurde.
Tides of War erscheint laut Ingame Nachricht am 6.12.
Am 4.12 kommt das Trainingsgelände.
(Siehe Anhang)

Wer spielt denn freiwillig mit RTX? Selbst wenn man nur einen 1080p Monitor hat und deswegen unter der geringen Auflösung nicht leidet, kann sich das DX12 geruckel doch keiner antun! :ugly: Damit wird jedes Multiplayermatch zur Katastrophe und für den 1. Platz auf dem 64er Server reicht es mit Sicherheit nicht.

Hab zwar nur eine 1080 verbaut aber ich spiele BF5 mit DX12.
Das seltsame ist das hier nix ruckelt.
Habe mit DX12 ohne Future Frame Rendering die gleichen Fps wie mit DX11 und Future Frame Rendering an.
Und es reicht auch für Platz 1 auf einem 64er Server.
 

Anhänge

  • BF5TOW.jpg
    BF5TOW.jpg
    39,7 KB · Aufrufe: 26
Zuletzt bearbeitet:
Das zeigt nur das du nicht weist wie das postProcessing abläuft bzw wie man es machen kann.
lies dir erstmal meine Antwort an Schaffe durch damit du ein Grundverständnis hast, darauf folgt dann das:


Der zBuffer wird gleich anfangs gefüllt - noch lange bevor irgend ein normaler Shader drüber läuft. Und ab diesem Zeitpunkt hat man alle Daten die man braucht um SSR und Raytracing zu kombinieren.
SSR kann erst abgeschlossen werden wenn der erste Renderpass abgeschlossen ist - da es vom Ausgangsbild Pixel kopiert.
Aber man weis schon längst WELCHE Pixel da gespiegelt werden können und welche nicht.

Mehr wollte ich ja nicht. Warum nicht gleich so? ist ja deutlich angenehmer als sich sozial so inkompetent zuerst zu geben.

Mal zur kurzen Erinnerung, wozu schreibe ich dann sowas wie:
Vielleicht hab ich ja auch nur einen Denkfehler, dann klär mich auf ;)

sicher nicht weil ich mich überschätze, sondern ich will eine Diskussion anregen. Selbst dir sollte aber klar sein, dass solch ein Mist wie:
Du zumindest offensichtlich nicht.
Ich habs bereits erklärt - wenn das über deinen Horizont geht - mein Beileid.
Damit hast du diene letzten 2 Kommentare vorzüglich genau beschrieben.
hast du auch irgend etwas Sinnbehaftetes beizutragen? Meckerst nur rum und Projizierst deine Eigenen Verfehlungen und Unwissen auf andere - ernsthaft - kommst daher und willst es sogar besser wissen als die Entwickler des Spiels und der Technologie XDDD

...in einem Forum eher nicht helfen. und sowas wie:
wenn jemand diese Fehler anmerkt gehst du zum Angriff über und schreibst dann ncishtmehr außer Leere beleidigungen und Anschuldigungen - wie jetzt auch schon wieder - ohne auch nur ein einziges Argument vorzulegen - so viel zu Diskussionskultur

Man sollte halt immer beachten wer womit anfängt, ich habe am Anfang nur angemerkt dass beim Postprocessing das Processing schon geschehen ist. Quasi das was AA macht. Da kann man dann logischerweise nicht mehr viel Einfluss auf den Rendervorgang vornehmen.
Dass SSR's viel früher implementiert werden können, wusste ich nicht, und hier hätte ein einfacher Hinweis oder eine Erklärung gereicht, nur du bist stattdessen übergegangen dich über meinen Horizont lustig zu machen anstatt zu versuchen (und wovon andere dann auch profitieren können) ihn zu erweitern. Und dann wunderst du dich noch warum du dich mit meinem Halbwissen abärgern musst wenn du argumentativ dann lange nichts folgen lässt bis auf deine letzten Beiträge? Merkste selber dass das eigentlich unter deinem Niveau sein sollte oder?


jaja - ich diffamiere dich - du hast nur rumgeheult "Ich weis immer eins mehr als du" und nichts geliefert - aber ich diffamiere dich hier -lern erstmal wie Bilder berechnet werden.
Wie man in den Wald hineinruft, so kommts eben zurück. Und ich hab mehrmals erwähnt wo und wie ich was geliefert habe.


Nicht meine Schuld wenn du die exakte Passage sogar Zitierst aber nicht in der Lage bist einen einfachen Satz zu verstehen - was schon erstaunlich ist da du es ja irgendwie geschafft hast ihn zu übersetzen.
Sagmal - kann es sein das du dermaßen wenig über Computer weist das du glaubst eine Grafikkarte kann nicht zB 2 Soldaten nebeneinander gleichzeitig zeichnen!?!? Denn das ist gerade das was du hier behauptest.
Liegt vielleicht daran dass einige Details ich nicht kenne die du weißt, du musst dich nur verständlich ausdrücken und nicht rumflamen sinnlos. Hier im Beispiel ists total klar WENN man weiß dass man SSR viel früher im Renderpfad anstoßen kann, nur nicht wenn man der Meinung ist dass es wie z.B AA verwendet wird, wo der Rendervorgang schon lange Abgeschlossen ist. Und selbst wenn das jetzt auch Blödsinn ist, dann hör bitte auf mich als Unwissend darzustellen, denn dass ich das bin das weiß ich selber. Erkläre und lass das Forum von deinem Wissen teilhaben.


Scheint meine Vermutung ist leider bestätigt - du bermerkst ncihtmal das du den Entwicklern hier direkt widersprichst.
Das Muss nicht der Fall sein, wenn die Engine so aufgebaut ist dass SSR's als reines Post-Processing verwendet wird, und so hatte ich es verstanden zuerst. Und ja, was ist so schlimm daran wenn ich das nicht bemerke? Kannst du dein geflame nicht einfach lassen darüber? Wen soll das intressieren? Erklärs doch einfach anstatt andere ständig ins Gesicht zu pissen.




Gut - gerne - kann dir genre Zitieren wo du solchen mentalen Durchfall von dir gegeben hast.
dann mach bitte.

Hast du ja sogar selbst getan - braucht man nichtmal wer was dazu sagen wenn du mit fadenscheinigen ausreden wie "man könnte sagen - aber" daher kommst.
Und was willst du mir damit sagen? Du wirfst mir immerhin unrichtige Sachen vor und kannst mich aus deinem Gedächtnis nicht mal richtig rezitieren, und jetzt willst DU dich rausreden anhand meinen Formulierungen? Hast echt nichts besseres auf Lager? Und was soll daran fadenscheinig sein? Weil ich etwas vermute? Dein Ernst?

oder auch deine Asusage dazu das 1.35V bei HBM2 zu viel wären
Obwohl das die Vorgabewerte von AMD sind - ja, Vega 56 und vega 64 haben unterschiedliche Spannung für den VRam.
Weil ich mich auf die Spannungseinstellungen im AMD Treiber bezog, und da steht halt nur "Memory", und das wusste ich vorher eben nicht und nahm an, dass hier die Spannung für HBM2 gemeint war. Dass in wirklichkeit der Speichercontroller gemeint war, wusste ich bis dahin nicht. Und wo hab ich jetzt deswegen andere Beleidigt deswegen und das trotzdem als Fakt hingestellt? Richtig, nirgendswo, 2 Beiträge Später habe ich mich für die Berichtigung bedankt. Und wo ist jetzt das Problem?

Du scheinst dein Wissen des öfteren weit zu überschätzen und statt das du nachsiehst wenn jemand diese Fehler anmerkt gehst du zum Angriff über und schreibst dann ncishtmehr außer Leere beleidigungen und Anschuldigungen - wie jetzt auch schon wieder - ohne auch nur ein einziges Argument vorzulegen - so viel zu Diskussionskultur.
Reine an den Haaren herbeigezogene Anschuldigung, ich bin normalerweise sehr umgänglich wenn es darum geht meine Fehler einzugestehen. Nur was ich nicht mag ist eine hochnäsige Art, andere einfach mit "Du hast eh keine Ahnung Punkt" ohne irgendwelche Begründung und Erklärung hinzuschludern, das bringt niemanden was, höchstens deinem Ego wenn man das unbedingt braucht.
 
Ui, sicher wird wieder volle Kanne getrickst, um die Frames rauszukitzeln.

Details weglassen, den Rest später darstellen, grobe Rasterung.

Ja, dann schafft man 50%.

Ich warte mal auf die 3xxx und den Navi Nachfolger.

Wenn Raytracing dann die Hälfte der neuen Triple-AAA Spiele beiliget, kann man sich ja Gedanken über so eine Karte machen - wenn sie denn bezahlbar ist.
 
Naja, was heisst getrickst? Wer 1 und 1 zusammenzählen kann sieht hier die vom Entwickler selber angekündigte Reduzierung vom Einsatz der RT-Technologie. Also ja, es wird was weggelassen und somit die FPS erhöht. So wie es aufgrund ihrer Aussagen auch zu erwarten war. Somit ändert es nichts am allgemeinen Bild bzw. der allgemeinen Meinung über dieses Feature.

BF5 ist meiner Meinung nach auch wirklich das schlechteste an Genre um RT vorzustellen. In Spielen wie Cities:Skylines oder Die Gilde wäre das recht gut aufgehoben für den Anfang. Aber auch nur dann wenn sie diesen Klarlack weglassen!
 
Selbst wenn jemand eine 2080ti hat und einen 1080 Monitor wird trotzdem nicht in 1080p spielen!!!
Es gibt DSR und jedes Spiel hat heute Upscaling Slider also verwendet man Super Sampling.
....
.

Sorry, aber 1080p nativ, oder mit DSR sind immer noch 1080p!
Du erhöhst mit DSR lediglich (subjektiv) die Bildqualität, genauso, als wenn du einen Filter über ein Foto laufen lässt.
Die Anzahl der Bildpunkte und damit die Auflösung ändert dadurch ja nicht!

Da muss ich immer an die DVD-Ära (vor 4K+) denken, als ich ein Interview mit einem DVD-Producer gelesen habe, in dem er meinte, dass er jedesmal heulen könnte, wenn er das native Filmmaterial auf SD-Qualität runterrechnen müsste, um es auf eine DVD zu quetschen... ;)

mfg
 
Screenspacereflections haben jedenfalls für mein Verständnis ziemlich wenig mit postprocessing zu tun.
Also können diese, kombiniert mit Raytracing wohl sehr wohl genutzt werden.
Als ob jemand wirklich RT einsetzen würde, wenn man den Multiplayer zockt.

Also ich würde es einschalten und werde es auch demnächst irgendwann mal einschalten, weil sowohl BF 5, wie auch eine RTX Karte werde ich mir in den nächsten Monaten mal zulegen, wenn mir dann mal danach ist.
Mir ist maximale Grafikqualität einfach wichtiger.

Darüber hinaus finde ich es gut, das RT jetzt praktikabeler eingesetzt werden kann.
 
Mich würde eher interessieren, ob das heutige Update auch generell die Performance steigert.
BF1 konnte ich auf max. Einstellungen in 1920x1080 spielen und hatte 60-70 FPS.
Bei BF5 komme ich mit mittleren bis hohen Einstellungen nur auf 50, außer ich aktiviere Future Frame Rendering, dann habe ich 50-90, dafür fühlt sich alles aber extrem schwammig an.
Ja, ich weiß, dass meine CPU da am Limit ist, aber bei BF1 ging es auch und BF5 sieht jetzt nicht großartig anders aus.
 
Mich würde eher interessieren, ob das heutige Update auch generell die Performance steigert.
BF1 konnte ich auf max. Einstellungen in 1920x1080 spielen und hatte 60-70 FPS.
Bei BF5 komme ich mit mittleren bis hohen Einstellungen nur auf 50, außer ich aktiviere Future Frame Rendering, dann habe ich 50-90, dafür fühlt sich alles aber extrem schwammig an.
Ja, ich weiß, dass meine CPU da am Limit ist, aber bei BF1 ging es auch und BF5 sieht jetzt nicht großartig anders aus.

Deine CPU ist auch bisschen Schwach auf der Brust muss ich mal sagen...
Aber ich habe auch 100% CPU Auslastung in BF V, weiß nicht ob es an meinem schwachen i7 6700hq im Notebook liegt oder ob es einfach nicht gut optimiert ist.
 
das Update kommt heute nicht und wurde auf unbestimmte Zeit verschoben, das ist kein Witz sondern wurde gestern Nacht von DICE bekannt gegeben
 
Zurück