FidelityFX Super Resolution 1.0 im Test: Kommt AMDs FSR an Nvidias DLSS heran?

OK, vielleicht verstehe ich da etwas falsch. Klär mich dann gerne auf :). Ich dachte jedenfalls zuerst, du meinst TripleBuffering an, aber VSync aus.
Ich hab TripleBuffering in der Nvidia Systemsteuerung aktiviert. Der VSync Modus ist "schnell". Sind die FPS nahe der 30, bleibt es bei 30. Sind sie über 60, erreiche ich natürlich 60.
Nur mit der Treibereinstellung "Adaptiv" habe ich auch FPS Werte zwischen 30 und 60, dann jedoch mit Tearing. Schalte ich VSync aus habe ich natürlich FPS zwischen 35 und 80, alles dabei.
Was kann ich anders einstellen und welchen Vorteil bringt das?
Danke schonmal.
Die Treibereinstellung für TripleBuffering geht afaik nur für OpenGL Spiele.
Was ich meine ist TripleBuffer Vsync "klassisch" also ohne "fast" oder "adaptive" und in der Regel direkt im Spiel eingestellt. Bei Anno kenne ich das Grafikmenü nicht, aber es würde mich wundern wenn das keine Vsync Option hat. Die an und im Treiber einstellen dass die Applikation entscheiden darf ist dann bei 95% der modernen Spielen schon TB-Vsync.
Der Vorteil ist wie gesagt dass auch Frameraten über 30FPS aber unter 60FPS nicht verloren gehen sondern in einem Zwischenpuffer gespeichert und dann eingespielt werden wenn der Monitor wieder refresht. Nachteil ist wie gesagt mehr Delay da es dafür einen namensgebenden dritten Bildpuffer zwischen "gerade ausgegeben" und "gerade am rendern" gibt.
 
Objektiv gesehen hat AMD heute mit FSR ins schwarze getroffen und sogar auch Nvidia user haben was davon.

Es gibt wirklich keinen Grund über FSR schlecht zu reden, trotzdem tust du es, was ist bloß deine Motivation, ständig gegen AMD zu sticheln und andere user damit zu provozieren, sowas muss doch wirklich nicht sein. :nene:
Du verdrehst hier die Tatsachen. Ich habe eher den Eindruck, dass die meisten hier ein durchaus realistisches Bild von FSR haben und auch zu schätzen wissen, was das ihnen bieten kann (und wo seine Grenzen sind).
Dir dagegen ist das bei weitem nicht genug und du versuchst FSR und in dem Zuge auch gleich AMD in einem absolut überzogenen Bild in himmlische Sphären hochzuloben, wie du es grundsätzlich bei jeder Gelegenheit versuchst. Das Problem scheinen mir eher weniger all die anderen hier als vielmehr du zu sein. Eigentlich bist immer nur du derjenige, der andauernd erklärt, dass AMDs Konkurrenten (fast schon unabhängig von der konkreten Art der Konkurrenzsituation) angezählt sind, bald vom Markt verschwinden und die Segel streichen müssen oder untergehen werden und ähnlicher Unsinn.
 
DLSS in BF V zu aktivieren traut sich ja noch nicht mal Nvidia selbst, wenn man GeForce Experience fragt..
Am witzigsten eigentlich bzgl. GeForce Experience und BF V, dass es bei automatischer Optimierung auf einer 3080 die Textur-Qualität von Ultra auf hoch heruntersetzt.
Schonmal drauf geachtet oder die Frage gestellt warum das passiert?
Was kümmert mich GeForce Experience und empfohlene Einstellungen? Ich trage keine Aluhüte, deswegen habe ich mir diese Frage nie gestellt. Hast Du auch Belege dazu oder nur Behauptungen?

Zwecks Raytracing, nimm mal native 4K Auflösung, Raytracing auf Mittel, und dann ab auf die Salomonen-Map. Viel Spaß mit der 3080 sag ich nur!
Mach das doch mal mit Deiner 6900XT. Ich wette die 3080 performed da besser bei gleichen Einstellungen.


Meine Anspielung hinsichtlich "geringstmöglicher Bilddarstellungslatenz" bezog sich dann in besonderem auf Situationen mit gekappter Framerate. Ob die Konsolen-Erfahrungen AMD hier einen Vorteil bringen oder was auch immer, an das Ansprechverhalten kommt die Geforce einfach nicht dran.
Was meinst Du denn nun mit Bilddarstellungslatenz? Frametimes? Input Lag? Du schleichst hier wie die Katze um den heißen Brei...

Und das können wir dann auch als schönen Übergang zur Leistungsaufnahme nehmen.
4K Auflösung, 60FPS cap, die GeForce tut sich ~280W rein trotz angeblich nur 50% Auslastung.
Eine 6900ér geht im gleichen Szenario auf bis zu 110W runter. Das ist einfach Fakt.
Na wenn das "einfach Fakt" ist, dann zeig doch mal. Ich hab meine Aussage ja bereits belegt, Du nicht.

VRAM-Mangel bei der 3080 gibt es dann viele Beispiele.
Mit etwas wie dem Flightsimulator oder Minecraft komm ich gar nicht erst um die Ecke, denn das setzt schon viel früher an.
Zock mal SOTTR oder RDR2 und tabb dann nach ner Weile auf den Desktop.
Ach ja? Dann zeig mal die vielen Beispiele! Kann ja nicht so schwer sein wenn es so viele sind...

Minecraft ist übrigens ein hervorragendes Beispiel, wenn man das Spiel nämlich so einstellt dass die 10GB VRAM voll werden, dann: https://www.pcgameshardware.de/Nvid...peichertest-Benchmarks-Reichen-10-GB-1373623/

1624392534004.png


1624392624278.png


Joah ne, da helfen die 16GB VRAM den RDNA2 Karten jetzt nicht wirklich... :lol:


Du siehst nichts? Kein Wunder, weil die 3080 sich wirklich restlos alles für das Game unter den Nagel gerissen hat und dann selbst die paar MB Bildpuffer für eine vernünftige und schnell ansprechende Desktop-Darstellung nicht mehr verfügbar sind, sodass diese Daten erst wieder nachgeladen werden müssen.
Hab ein Multi-Monitor-Setup, ich tabbe nicht raus.

Die Karte ist in der Hinsicht sowas von auf Kante genäht. Mag sein, dass das in WQHD weniger ein Problem ist, und natürlich, kauf dir für 4K doch ne 3090 könnte man sagen, nunja, ich hab mein Anwendungsszenario und zwei Karten zum Vergleich hier, wo die eine im Vergleich dann einfach wenig positive Aspekte für sich verbuchen kann.
Du vergleichst weiterhin das Topmodell 6900XT gegen den 3. Platz im Ampere Lineup. Äpfel mit Birnen und so...

Auch CoD Black Ops oder WatchDogs Legion zeigen dir in 4K ziemlich schnell auf, dass der Speicher der 3080 im Grunde nicht ausreicht.
Wie genau? VRAM Belegung? Dir ist bewusst dass diese Anzeige bewiesenermaßen falsch ist? Wenn dann bitte "Memory usage / process" im Afterburner zeigen, das ist nämlich die tatsächliche Auslastung.

Ein Feature im Nvidia supporteten CoD Black Ops, welches der Grafikkarte sagt nur 8GB zu nutzen.
Ein Feature im Nvidia supporteten BF V, welches das Spiel dazu bringt nicht zu viel Grafikspeicher zu nutzen.
Da kannst du doch förmlich dran riechen. Zum Release der Karten, ein kostenlos beigegebenes Game wie CoD BO mit RT, und dann müssen schon solche Tricks angewandt werden??
Wieder Aluhut. Screenshot or it didn't happen.

Am Ende kommen wir so aber wohl nicht weiter und eigentlich geht es hier ja auch um AMD´s neues FSR Feature.
Ich bin mal gespannt in wie vielen Spielen das final Einzug hält und ob der Großteil der Leute am Ende den einhergehenden Kompromiss für vllt etwas mehr RT-Optik eingeht.
Ich glaub ich bleib einfach bei nativer-Auflösung und schalt auch so Gedöns wie Variable-Rate-Shading ab, wo es nur möglich ist.
Sieht man nicht? Doch, sieht man!
Ich hab nix gegen FSR. Ich kann nur Unfug und Falschaussagen nicht leiden. Deswegen widerlege ich Dich auch mit echten Beweisen anstatt wilden Behauptungen.

Ja, 10GB können knapp werden, aktuell ist das aber nur in absoluten Ausnahmefällen zu beobachten. Wenn man maximale Mods installiert oder völlig abwegige Einstellungen nutzt.
Nun hat die Vega doch noch den Wundertreiber bekommen... feiner Wein oder so ähnlich. Heil Corona!
Underrated comment, +1! :daumen:
 

Anhänge

  • 1624392600625.png
    1624392600625.png
    242,8 KB · Aufrufe: 64
Zuletzt bearbeitet von einem Moderator:
Ich finde das Ergebnis erstaunlich gut was FSR bietet und das es flexibel auf jeder Hardware eingesetzt werden kann. Der Unterschied zwischen Nativ und Ultra Quality sind so verschwindend gering, dass es glaube ich nicht wirklich in den Spielen auffällt, außer man zoomt extrem und sucht bewusst danach.

Der größte Vorteil ist, dass es alle frei nutzen können und es allen Plattformen etwas bringt.
Bin gespannt wie der nächste Schritt in der Richtung aussieht, dank der OpenSource Plattform kann es auch in jede Richtung weiterentwickelt werden.

Da ist Nvidia leider in der Hinsicht hinten dran. DLSS ist sicher noch besser, aber es lebt alleine von der Entwicklung Nvidias da sie die Hand drauf halten und sagen was geht und wie es geht und was nicht. Sprich die wirkliche Weiterentwicklung hängt am Ende auch an der Nutzung von DLSS in Spielen. Dabei ist erstmal egal, ob es in der Engine grundsätzlich verfügbar wäre. Wenn es sich für die Entwickler aber trotzdem nicht lohnt, wird es sich im Spiel trotzdem nicht wieder finden, denn Arbeit ist am Ende trotzdem immer damit verbunden. Wenn es dann am Ende nur von einem kleinen Teil nutzbar ist und dieser kleine Teil ja auch das andere nutzen könnte und es dann keinen riesen optischen Unterschied macht, hängt es immer vom Aufwand bei der Implementierung ab, ob es drin ist oder nicht.

Ich könnte mir vorstellen, dass auf lange Sicht auch in die OpenSource eine Art KI für solche Zwecke implementiert wird und man eine weitere Auswahl Option hätte, immerhin gibt es genug schlaue Köpfe, die zu soetwas sicher in der Lage sind.
Ich bin eher gespannt wie sich Nvidia verhält. Ich denke da so an Physx. Eigentlich ist eine tolle Sache aber dadurch, dass es lange Nvidia Exclusiv war hat es sich nie wirklich durchgesetzt. Es wird zwar hier und da mal eingesetzt, aber eigentlich wird es nicht wirklich genutzt. Sieht man ja auch an den Physx Treibern, an denen sich ewig nix mehr getan hat. Man hört zwar mal alle paar Jahre was davon, dass noch daran entwicklet wird, aber eigentlich ist es schon sehr still darum geworden, weil es eben nicht für alle wirklich nutzbar ist.
Ich denke das es am Ende mit DLSS auch so werden könnte, wenn Nvidia zu sehr die Nvidia only RTX Schiene fährt. Gerade bei der Weiterentwicklung von DLSS wird das immer sehr stark mit der Hardware verbunden sein, in Form von Tensor Cores und auch die werden ja weiterentwickelt, was am Ende wieder dazu führt, dass die neusten DLSS Stufen dann erst wieder ab Hardwarestufe X nur gehen, so wie es jetzt schon ist und so engstirniges hat sich selten durchgesetzt.
 
ist mal wieder alles so typisch hier, die Nvidia Leute finden alles ganz schwach, dabei ist genau das Gegenteil der Fall.

Jo sagst doch gleich, smells fishy nicht war :rollen:

Hat alles keinen Sinn hier, wenn die Nvidia Leute immer alles kaputt machen. :wall:
Bei der Liste an Titeln? Jo, da ist keins mit DLSS dabei, sind ja auch 90% ältere Indie- oder-Nischen-Titel. Von den meisten hab ich noch nie gehört.
Da ist Nvidia leider in der Hinsicht hinten dran. DLSS ist sicher noch besser, aber es lebt alleine von der Entwicklung Nvidias da sie die Hand drauf halten und sagen was geht und wie es geht und was nicht. Sprich die wirkliche Weiterentwicklung hängt am Ende auch an der Nutzung von DLSS in Spielen. Dabei ist erstmal egal, ob es in der Engine grundsätzlich verfügbar wäre. Wenn es sich für die Entwickler aber trotzdem nicht lohnt, wird es sich im Spiel trotzdem nicht wieder finden, denn Arbeit ist am Ende trotzdem immer damit verbunden. Wenn es dann am Ende nur von einem kleinen Teil nutzbar ist und dieser kleine Teil ja auch das andere nutzen könnte und es dann keinen riesen optischen Unterschied macht, hängt es immer vom Aufwand bei der Implementierung ab, ob es drin ist oder nicht.
Ich hab hier im Thread schon mindestens 2 Mal den Link zum "Enable DLSS in UE4" Video verlinkt. Es dauert 5 Minuten und der Entwickler ist fertig!
 
Einen Kritikpunkt habe ich aber doch. Bei den Benchmarks der 6900XT habt ihr im Zwischentext stehen dass FSR "Ultra Performance" selbige im Schnitt um ein Drittel anheben kann. Da war wohl Ultra Quality gemeint.:D
Fixed. Viele Textbausteine entstanden irgendwann heute Nacht nach einem langen Tag. Irgendwann macht der Kopf dicht - und bei der Korrektur wurde das gekonnt mehrfach überlesen. :D

Den kleinen Bug in der Tabelle hat Phil nach dem anderen Hinweis schon gefixt. :daumen:

MfG
Raff
 
ist mal wieder alles so typisch hier, die Nvidia Leute finden alles ganz schwach, dabei ist genau das Gegenteil der Fall.

Jo sagst doch gleich, smells fishy nicht war :rollen:

Hat alles keinen Sinn hier, wenn die Nvidia Leute immer alles kaputt machen. :wall:
Eigentlich bist du doch der, der von AMD alles in den Himmel lobt und von Nvidia alles schlecht redet.
 
Zur Gesamtbewertung gehört neben der Bildqualität auch der Software- und Hardwaresupport. Hier wird DLSS nie und nimmer an FSR rankommen. Ich sehe in einem Jahr FSR vor DLSS bei den unterstützen Spielen.
AMD macht 4K-Gaming massentauglich :top:
Genau deswegen gibt es ja schon recht viele mit dlss
Fsr muss auch erstmal in das Spiel eingebaut werden etc...
Also bitte das amd 4k massentauglich macht is ja wohl der blödeste Schwachsinn was ich je gehört habe...
Was wurde NVIDIA verteufelt wegen dlss am Anfang und jetzt is amd der heilige Samariter damit...das is so heuchlerisch

Mal abgesehen davon is is nur ein upscaler nix weltbewegendes...natives 4k schaut trz noch weitaus besser aus was logisch is somit kein massentauglich 4k....ergo fake 4k wie auf den Konsolen mit checkerboard....
 
Der Riftbreaker-Patch ist doch mehr als erahnt: Das Spiel ist nun offiziell im Beta-Stadium (statt Alpha) - und neben FSR implementiert es auch Temporal-AA. Dieses war im FSR-Testbranch anscheinend schon aktiv. Wenn das also wirklich temporal ist, dann ... sagen wir einfach, die Stabilität ist verbesserungsfähig. :ugly: Ähnlich wie in Horizon Zero Dawn. Da wird gefühlt nur das letzte Frame mitverwendet, kaum Beruhigung. Anyway, die Tests gehen weiter, ich sehe mir das jetzt nochmal an.

MfG
Raff
 
Sehr interessant. Ich teile mal meine Screenshots, hab sie beschriftet.

20210622223102_1.jpg 20210622223119_1.jpg 20210622223133_1.jpg

20210622223248_1.jpg 20210622223239_1.jpg 20210622223229_1.jpg

FSR Aus.jpg Ultra.jpg performance.jpg

Ich hab grad leider kein Tool zur Temperaturmessung, mir ist aber aufgefallen das mein GPU-Kühler auf der "Performance" Einstellung gar nicht anläuft und auf Balanced erst recht spät. In Sachen FPS merke ich keinen Unterschied, die liegt auf jeder Einstellung so bei 120-140fps.
 
Wird aber wahrscheinlich nicht mehr kommen, weil es durch das quelloffene SR verdrängt wird.
Man muss den Tatsachen ins Auge sehen, DLSS ist gut aber nicht gut genug um zu bleiben, das hat dieser Tag uns nun deutlich demonstriert.
Sagmal in welcher Realität lebst du eigentlich das wird ja immer schlimmer wie du die Realität verleugnest...
Es hat gezeigt das dein ach so tolles sr gegen dlss deutlich den kürzeren zieht was zu erwarten war...
Aber das passte ja in dein amd Weltbild nicht als die Ergebnisse kamen...kam nix mehr zu sr sondern schon zu sr 2 und neuen Durchhalteparolen das dies ja schon dlss ablösen soll was sowas von Schwachsinnig is....
 
Die Treibereinstellung für TripleBuffering geht afaik nur für OpenGL Spiele.
Was ich meine ist TripleBuffer Vsync "klassisch" also ohne "fast" oder "adaptive" und in der Regel direkt im Spiel eingestellt. Bei Anno kenne ich das Grafikmenü nicht, aber es würde mich wundern wenn das keine Vsync Option hat. Die an und im Treiber einstellen dass die Applikation entscheiden darf ist dann bei 95% der modernen Spielen schon TB-Vsync.
Der Vorteil ist wie gesagt dass auch Frameraten über 30FPS aber unter 60FPS nicht verloren gehen sondern in einem Zwischenpuffer gespeichert und dann eingespielt werden wenn der Monitor wieder refresht. Nachteil ist wie gesagt mehr Delay da es dafür einen namensgebenden dritten Bildpuffer zwischen "gerade ausgegeben" und "gerade am rendern" gibt.
Danke dir für die Mühe :). Also bei anderen Spielen kenn ich das Verhalten auch wie du es beschreibst.
Allerdings hab ich bei Anno vorhin auch einfach VSync "Ein" im Treiber und "Ein" im Spiel versucht und hatte trotzdem nur 30 oder 60. Ich denke es liegt am Spiel. Aber hey, endlich verstehe ich den Sinn von TripleBuffering richtig :). Und ich werde mir die Einstellungen nochmal ansehen, vllt hab ich was übersehen.
Delay interessiert mich gar nicht, ich spiele keine Shooter, kompetetiv nur bei Couch Coop Partys :).
 
Verstehe nicht wie man so sehr an einer Marke hängen kann dass ein persönlicher Krieg daraus wird.

Fakt ist: FSR ist in seiner Gesamtheit gelungen, da ist sich die internationale Presse einig ob es den NvidiaBoys passt oder nicht. Und ob FSR -> DLSS vom Markt drängt (oder doch umgekehrt, oder beide existieren) wird die Zeit zeigen.

:banane:
 
Verstehe nicht wie man so sehr an einer Marke hängen kann dass ein persönlicher Krieg daraus wird.

Fakt ist: FSR ist in seiner Gesamtheit gelungen, da ist sich die internationale Presse einig ob es den NvidiaBoys passt oder nicht. Und ob FSR -> DLSS vom Markt drängt (oder doch umgekehrt, oder beide existieren) wird die Zeit zeigen.

:banane:
Wieso denn schon wieder NvidiaBoys? Hier im Thread gibt es wilde Behauptungen dass FSR >= DLSS ist, das stimmt nun mal nicht. Und was sich wie verbreitet werden wir, wie Du sagtest, sehen. Fakt ist nämlich auch: bis Jahres Ende haben die beiden meistgenutzten Engines unserer Zeit DLSS nativ integriert.
 
Team Grün, Blau, Rot, who tf cares. FSR sieht mMn. maximal ganz nett aus, so DLSS 1.4 mäßig, wenn es sowas gegeben hätte. Teilweise schon ordentlich schwammig in WQHD. 4K + Ultra Quality Mode ist sicherlich eine Option, alles darunter wäre für mich persönlich dann doch zu blurry. Für ältere Hardware dennoch eine feine Sache.
 
Was kümmert mich GeForce Experience und empfohlene Einstellungen? Ich trage keine Aluhüte, deswegen habe ich mir diese Frage nie gestellt. Hast Du auch Belege dazu oder nur Behauptungen?


Mach das doch mal mit Deiner 6900XT. Ich wette die 3080 performed da besser bei gleichen Einstellungen.



Was meinst Du denn nun mit Bilddarstellungslatenz? Frametimes? Input Lag? Du schleichst hier wie die Katze um den heißen Brei...


Na wenn das "einfach Fakt" ist, dann zeig doch mal. Ich hab meine Aussage ja bereits belegt, Du nicht.


Ach ja? Dann zeig mal die vielen Beispiele! Kann ja nicht so schwer sein wenn es so viele sind...

Minecraft ist übrigens ein hervorragendes Beispiel, wenn man das Spiel nämlich so einstellt dass die 10GB VRAM voll werden, dann: https://www.pcgameshardware.de/Nvid...peichertest-Benchmarks-Reichen-10-GB-1373623/

Anhang anzeigen 1367409

Anhang anzeigen 1367411

Joah ne, da helfen die 16GB VRAM den RDNA2 Karten jetzt nicht wirklich... :lol:



Hab ein Multi-Monitor-Setup, ich tabbe nicht raus.


Du vergleichst weiterhin das Topmodell 6900XT gegen den 3. Platz im Ampere Lineup. Äpfel mit Birnen und so...


Wie genau? VRAM Belegung? Dir ist bewusst dass diese Anzeige bewiesenermaßen falsch ist? Wenn dann bitte "Memory usage / process" im Afterburner zeigen, das ist nämlich die tatsächliche Auslastung.


Wieder Aluhut. Screenshot or it didn't happen.


Ich hab nix gegen FSR. Ich kann nur Unfug und Falschaussagen nicht leiden. Deswegen widerlege ich Dich auch mit echten Beweisen anstatt wilden Behauptungen.

Ja, 10GB können knapp werden, aktuell ist das aber nur in absoluten Ausnahmefällen zu beobachten. Wenn man maximale Mods installiert oder völlig abwegige Einstellungen nutzt.

Underrated comment, +1! :daumen:
Was soll ich dir beweisen?
Dass Geforce Experience bei optimialen Settings auf einer 3080 die Textur-Qualität runterregelt?
GeforceExperience_BF_V_optimal_Settings.jpg


Oder willst du nochmal nen Screenshot dazu sehen, dass es in den beiden Nvidia gebrandeten Games, BF V eine Option zur GPU-Speicherbeschränkung und in CoD Cold War ein Vram Usage Target, gibt?
cod-cold-war-vram_usage_target.png

BF_V_GPU_Speicherbeschränkung.jpg


Der Unterschied zwischen adressed und used VRAM ist mir darüber hinaus bekannt.
Am meisten hilft für eine entsprechende Bewertung auch einfach wenn man die Games mit den erwartet fahrbahren Settings selber zockt und wenn du die gennannten Games und deren Verhalten wirklich kennen würdest, wüsstest du, dass bei der 3080 da keine Luft mehr nach oben ist.

Mit Bilddarstellungs-Latenz meine ich ansonsten mein subjektives Empfinden hinsichtlich der Direktheit von Eingaben am System und Umsetzung auf dem Bildschirm.
Ggbfs verhält es sich aber auch so, dass der eine einen Unterschied bei z.B. aktivem FutureFrameRendering spürt und der andere nicht.. :ugly:

Bezüglich meiner Aussage zur Leistungsaufnahme, stimmt, das muss ich belegen können.
Ich mach mal was fertig :daumen:

edit: Dass du schließlich die "Aluhut" Totschlag-Argumentation auspackst, hmm, ich sag mal nichts dazu^^

FSR und DLSS - am Ende entscheidet womöglich einzig die Verbreitung.
Ob es sich ähnlich entwickelt wie bei Gsync und FreeSync?
 
Zuletzt bearbeitet:
Bin bisl schockiert darüber, in welchem Maße die Meinungsbildung hier betrieben wurde ohne anscheinend den kompletten Artikel gelesen zu haben.
_____

Topic: mag mich irren, sieht aber auf den ersten Blick n Tick besser aus als DLSS1.0. Bei dem Thema würde mich mal ein rein subjektiver Schnelltest reizen; welche Redakteure bei zB. Monitoren mit FHD, WQHD und UHD in verschieden Spielen auf normale Entfernung welche Unterschiede wirklich ausmachen. Ich hab halt keine Lupe hier und es interessiert mich meist auch eher nur die ganz grobe Performance und Qualität als der Unterschied bei zB. den Stützen des Wasserturms. Auf jeden Fall bringts n bisl Abwechslung und Auswahlmöglichkeit in den Grafikbereich. Eigentlich toll! :daumen:
 
Jetzt hätte ich fast den Test übersehen :wall: Die Augen sind zwar schon klein aber das Thema war einfach zu spannend ^^

Toller Test PCGH :daumen:

Ich bin doch positiv überrascht von den ersten Ergebnissen zu dem Feature. Gerade Ultra Qualität ist ein sehr guter Kompromiss am PC Monitor. Mal sehen wann ein Spiel unterstützt wird was ich habe und mich interessiert.

Bei den Konsolen könnte ich mir den Qualität Modus gut vorstellen, da man meist etwas weiter weg sitzt vom TV als beim klassischen PC Setup.

Jedenfalls sehr sehr spannend und in wieweit sich die Bildqualität weiter verbessern kann.
 
Zurück