• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Fidelity FX Super Resolution: Der aktuelle Stand zum DLSS-Konkurrenten

Scorpionx01

Software-Overclocker(in)
Die Leistung hat mit Spaß ja nix zu tun.?? Man kann auch mit 20 FPS Spaß haben.
Mit mehr Leistung ist es eben flüssiger und genug Leistung kann man nie haben. Ich hab dir gezeigt, dass man in Outriders mit einer 3060 nicht genug Leistung hat um flüssig zu spielen.
Ich wäre froh wenn meine verkaufte 980Ti DLSS gehabt hätte, so würde ich nicht nach einer 2070 oder 3060 Ausschau halten. Will sagen hätte nicht verkauft.
Ich hatte auch mit der PS4 Pro viel Spaß, also keine Frage und hätte auch mit meiner ehemaligen 980ti jetzt noch Spaß, wäre sie mir nicht abgeraucht.
Mich wundert ja, dass ich noch keinen Augenkrebs bekommen habe, so ganz ohne AI-Bildaufhübschung bei low res.


Link zum Fakt! Bitte!

Wärend der Soldat bei 60 fps immer nur "aufholt", liegt der Soldat bei 240fps immer 3 von 4 Bildern weiter vorne. Resultat, um einer Ecke herum sieht man Ihn schneller. Alles natürlich nur im 100stel Millisekundebereich.
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Man darf nicht vergessen, dass der Markt für eine derartige AMD-Technik deutlich größer ist - schließlich werden davon auch alle Besitzer einer aktuellen MS oder Sony Spielekonsole profitieren. Dies macht FFXSR dann quasi über Nacht bereits zu einem Standard.
Kommt drauf an, viele große Engine Hersteller (UE4+5 und Unity als die größten seien hier stellvertretend genannt) unterstützen bereits RT + DLSS nativ, andere haben Beta Versionen oder es auf der Roadmap. Die Verbreitung von DLSS ist also bereits im vollen Lauf während AMD noch nicht mal etwas rausgebracht hat. Wenn die Engines es nativ unterstützen dann ist es mehr oder wenig eine "one-click" Aktion für die Entwickler, mit etwas Nachjustierung.

interessant , DLSS ist jetzt also schon bei einigen der Wurf der Letzen 15 Jahre und wenn man einige so ließt besser als Nativ ... Marketing von Nvidia funktioniert !
Aber mal ehrlich Freesync ist der größte Wurf seitdem es TFT Monitore gibt, ist man mehr oder minder auf die Vsync Pest angewiesen gewesen und auch die Möglichkeit auf Vsync ohne Tearing zu verzichten brachte locker mal 10% mehr FPS ohne irgendwas negatives im gegenteil ...
mal sehen was aus dem AI Bildfilter noch wird, aber ich bleib dabei die Synchronisation zwischen GPU und TFT ist der grosse Wurf der letzten 15 Jahre oder bis zum guten alten CRT :)

DLSS ist wohl der bisher beste Upscaler mit integriertem AA der massiv Performance BRINGT und nicht KOSTET. Der Großteil der anderen AA Techniken kostet Leistung, wenn es qualitativ viel bringen soll (SSAA) mit möglichst wenig Artefakten, dann sogar richtig viel.

Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Wie eigentlich immer, oder? Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync, DLSS und RT gebracht, AMD hat jedes Mal nachgezogen. Das wird mit RTX IO vermutlich nicht anders laufen.
 

Scorpionx01

Software-Overclocker(in)
Lass mich raten, Du kannst den Flügelschlag eines Kolibri sehen und die Flügelschläge mitzählen... :crazy:
Mit genügend Red Bull jaaaa...:ugly: ... neeee, ich bin jeher der Singleplayertyp. Viele Spiele auf der PS4 Pro habe ich mit 30fps mittels Zwischenbildberechnung meines TVs flüssig zocken können, aber dafür relativ hohen Inputlag (> 50ms) in Kauf genommen.
 

onkel-foehn

Software-Overclocker(in)
AMD soll liefern und nicht immer Scheinheilig leere Versprechen abgeben. Erst dann haben wir Fakten auf dem Tisch und können uns endlich verbal prügeln.
Fakt (siehe Anhang) ist, dass wer just noch auf RT verzichten kann / will, für den hat AMD geliefert ... :nicken:

MfG Föhn.
 

Anhänge

  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 98
  • GPU CP 2077.jpg
    GPU CP 2077.jpg
    376,4 KB · Aufrufe: 80

beastyboy79

Software-Overclocker(in)
Kommt drauf an, viele große Engine Hersteller (UE4+5 und Unity als die größten seien hier stellvertretend genannt) unterstützen bereits RT + DLSS nativ, andere haben Beta Versionen oder es auf der Roadmap. Die Verbreitung von DLSS ist also bereits im vollen Lauf während AMD noch nicht mal etwas rausgebracht hat. Wenn die Engines es nativ unterstützen dann ist es mehr oder wenig eine "one-click" Aktion für die Entwickler, mit etwas Nachjustierung.



DLSS ist wohl der bisher beste Upscaler mit integriertem AA der massiv Performance BRINGT und nicht KOSTET. Der Großteil der anderen AA Techniken kostet Leistung, wenn es qualitativ viel bringen soll (SSAA) mit möglichst wenig Artefakten, dann sogar richtig viel.

Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Wie eigentlich immer, oder? Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync, DLSS und RT gebracht, AMD hat jedes Mal nachgezogen. Das wird mit RTX IO vermutlich nicht anders laufen.
Du solltest Deine Beiträge mittlerweile eindeutig als "Dauerwerbesendung" kennzeichnen. Dann können User auch besser filtern, ob sie Dein Geschwalle auch lesen wollen.
 

Julian K

Freizeitschrauber(in)
Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync.
Also wenn ich mich recht entsinne, ist VRR auch keine Nvidia-Innovation, sie waren nur die ersten die es genutzt haben.

Möchte damit nur darauf anspielen, dass Du AMD ja auch den Innovationsstatus bei SAM absprichst.

Beides gab es schon, bevor einer der beiden es tatsächlich umgesetzt hat. Da gebührt der jeweilige Ruhm also weder Nvidia noch AMD (oder eben beiden, je nach Sichtweise ;) ).
 

onkel-foehn

Software-Overclocker(in)
Ich hab eine 3060ti und es ist keine 4K Karte, mit DLSS Performance bekomme ich aber viel höhere FPS mit sehr guter Bildqualität und es gibt andere Karten die langsamer sind als meine. Deine Aussage das aktuelle Karten ohne RT ausreichend Leistung haben ist absoluter Schwachsinn und auch wenn es so wäre
Aber das heißt ja im Umkehrschluss, dass nVidia mit ihrer Ampere Generation OHNE das (Killer) Feature DLSS eine mehr als fragwürdige Leistung abgeliefert (zumindest vorgestellt) hat ?!? :devil:

MfG Föhn.
 

raPid-81

Freizeitschrauber(in)
Lass mich raten, Du kannst den Flügelschlag eines Kolibri sehen und die Flügelschläge mitzählen... :crazy:
60hz vs 30hz (diese Diskussion gibt es bei den Konsolen schon ewig):

Der Spieler mit 60 FPS, im Vergleich zu einem 30 FPS Spieler, sieht die Aktion seines Gegners IMMER früher.
60hz = 16ms pro Refresh
30hz = 33ms pro Refresh

Jetzt kommt: Aber hz != FPS. Stimmt, aber es ist vergleichbar. Ein Spieler mit 60 FPS + 60hz Monitor vs einem Spieler mit 30 FPS + 60hz Monitor sieht auch die Aktionen seines Gegners 16-33ms früher (je nachdem wann ein neuer Frame im Refresh Verlauf des Monitors ausgeliefert wird).

16-33ms mag wenig klingen, die menschliche Durchschnittsreaktion liegt aber bei nur 180ms. Einige sind schneller, andere sind langsamer. Das sind immerhin 10-20% Unterschied. Und das über einen Spielverlauf von Stunden macht sich eben doch bemerkbar.
Also wenn ich mich recht entsinne, ist VRR auch keine Nvidia-Innovation, sie waren nur die ersten die es genutzt haben.

Möchte damit nur darauf anspielen, dass Du AMD ja auch den Innovationsstatus bei SAM absprichst.

Beides gab es schon, bevor einer der beiden es tatsächlich umgesetzt hat. Da gebührt der jeweilige Ruhm also weder Nvidia noch AMD (oder eben beiden, je nach Sichtweise ;) ).
Ok, mea culpa, das wusste ich nicht. Dann belassen wir es bei grafischen Innovationen wie DLSS, RT, Hairworks, PhysX.
 

Scorpionx01

Software-Overclocker(in)
Aber das heißt ja im Umkehrschluss, dass nVidia mit ihrer Ampere Generation OHNE das (Killer) Feature DLSS eine mehr als fragwürdige Leistung abgeliefert (zumindest vorgestellt) hat ?!? :devil:

MfG Föhn.
Die Leistung ist halt ähnlich zu AMD, mit eventuell leichtem Preis/Leistungs-Vorteil für AMD. Jedoch nur, wenn man RT und DLSS ausklammert. Und das ist ne ziemlich fette Klammer! ;-)
 

raPid-81

Freizeitschrauber(in)
Du solltest Deine Beiträge mittlerweile eindeutig als "Dauerwerbesendung" kennzeichnen. Dann können User auch besser filtern, ob sie Dein Geschwalle auch lesen wollen.
Nur weil ich Argumente vorbringe ist es also Werbung? Ok, geh mit Onkel-Foehn spielen, ihr seid jetzt beide auf Ignore. Keine Gegen-Argumente aber schön andere runtermachen, das hab ich gern.
 

Julian K

Freizeitschrauber(in)
Ok, mea culpa, das wusste ich nicht. Dann belassen wir es bei grafischen Innovationen wie DLSS, RT, Hairworks, PhysX.
Okay, aber soll ich drauf herumreiten? :D Na gut, PhysX wurde von Nvidia eingekauft, gab es dementsprechend schon. Entwickelt durch Novodex und von Ageia übernommen, dann eben später von Nvidia gekauft. In Spielen hat es das aber längst gegeben. Das hat also tatsächlich auch absolut nichts mit einer Nvidia-Innovation zu tun. :)

edit: Es gab sogar extra Ageia-Beschleunigerkarten für PhysX! So, wie man später eine zusätzliche Nvidia-Grafikkarte einbauen konnte, die sich nur um die PhysX-Beschleunigung kümmern sollte! Aus heutiger Sicht totaler Nonsense, aber damals im Kleinen ja schon fast vergleichbar mit den Voodoo-Karten (natürlich nicht so einen Einfluss nehmend). :)
 

zotac2012

Software-Overclocker(in)
Ich dachte AMD Fidelity FX Super Resolution wäre ein Feature ähnlich wie DLSS, wenn man so die Verantwortlichen von AMD hört, klingt das eher als würde man eine Flasch Wein anbieten.
Adrian Castelo, der Senior Produktmanager bei AMD, hat unter anderem gegenüber PCGH erklärt, dass man darüber sprechen werde, wenn die Zeit reif ist. :huh:
Wenn die Zeit reif ist, welch präzise und nichtssagende Auskunft, das freut sicher alle User die eine entsprechende RX 6XXX im Rechner haben. Und in 6. Monaten fragt dann der User einer RX 6800XT einen User mit der RX 6900XT: Gibts denn schon AMD Fidelity FX Super Resolution?
Die Antwort vom User mit der 6900XT: Nein, die Zeit ist noch nicht reif!
Daraufhin der User mit der 6800XT: :what:
 

projectneo

Software-Overclocker(in)
Da AMD selbst gesagt hat die Lösung kommt frühestens Ende des Jahres, kann man das für die Generation fast schon abschreiben. 2022 kommt dann sicher die nächste Generation. DLSS wird so langsam für NV zu einem Killerfeature. Es ist mittlerweile ja in Unreal Engine nativ implementiert und soll ja auch in die Unity Engine.
Es ist ja mittlerweile nicht nur eine Leistungssteigerung sondern auch noch ein besseres AA.
Abseits davon ist es bspw. selbst ohne Raytracing sinnvoll zu nutzen wenn man statt 80 FPS dann eben 100 FPS haben kann.
 

Cohen

PC-Selbstbauer(in)
Immer wieder herrlich, dass Du einem Dinge erklären möchtest, die man weiß und man auch nie etwas anderes behauptet hat. ^^

Okay, damit Du Dich mit Deiner Kenntnis nicht angegriffen fühlst, darfst Du auch der Aussage von mir, dass die Karten für alles ohne RT ausreichen, gerne ein "meiner Meinung nach" hinzufügen. Und ja, das ist meine Meinung dazu. ;)
Es kommt auch auf die Hardware an, ob "die Karten" für alles ohne RT ausreichen. Ein RTX2060-Besitzer wird sich auch bei abgeschaltetem Raytracing über den Performance-Boost von DLSS freuen, für RTX3090-Besitzer ist es weniger wichtig sein.
 

Julian K

Freizeitschrauber(in)
Es kommt auch auf die Hardware an, ob "die Karten" für alles ohne RT ausreichen. Ein RTX2060-Besitzer wird sich auch bei abgeschaltetem Raytracing über den Performance-Boost von DLSS freuen, für RTX3090-Besitzer ist es weniger wichtig sein.
Im Grunde kommt es ausschließlich auf die eigenen Wünsche und Ansprüche an (und ob man so dann eben Spaß mit dem Spiel haben kann). Das definiert sich für jeden anders, daher mag ich eben diese Pauschalaussagen nicht.
 

DaHell63

BIOS-Overclocker(in)
DLSS ist fürmich einfach top. Besonders für die schwächeren Turing Karten ein Segen. Man muß das Feature ja nicht unbedingt mit RT nutzen. DLSS hebt zB meine RTX 2070 super in einen Bereich, der ansonsten einfach nicht nutzbar ist. Meine auf 2.5GHz getaktete RX 6800 ist hier langsamer wie die RTX 2070 super, obwohl die RX 6800 normal in dem Spiel sogar schneller als eine RTX 3070 ist.

RX 6800.JPG

RTX 2070 super.JPG
 

Cleriker

PCGH-Community-Veteran(in)
Abseits davon ist es bspw. selbst ohne Raytracing sinnvoll zu nutzen wenn man statt 80 FPS dann eben 100 FPS haben kann.
Aber eben im Moment nur mit Manko!

Persönlich würde ich beispielsweise für den Sprung von 50 fps auf 100 fps nicht fünf Prozent Bildqualität opfern wollen. Ich! Was andere entscheiden ist deren Sache. Ich! würde es nicht. Genau das drücken hier aber viele nicht aus. In diesem thread gibt es bestimmt zwanzig User oder mehr, die einfach sagen DLSS ist toll und ich kann mit einer xx60 Karte in 4K spielen. Allerdings ohne die Abstriche zu erwähnen. Genau das ist halt eben nicht so. Warum bitte spielt man denn in hoher Auflösung? Weil man maximale Bildqualität will. Genau die dann zu verringern um die Bildrate für diese Auflösung zu generieren ist doch Quatsch. Das ist mMn das was viele bestreiten. Also nicht dass DLSS in der Lage ist das zu ermöglichen, sondern unter gleichen Voraussetzungen.
 

Herr_Bert

Komplett-PC-Aufrüster(in)
Ist tatsächlich ein Grund, warum ich fast zu Nvidia Karten tendieren würde wegen deren Feature. Klar gehts in erster Linie nach dem Geld, aber bei AMD hätte ich zur Zeit doch das Gefühl, hier ein echt nützliches Feature zu missen.
Warten wir mal ab, wenn RE Village als AMD Partner-Titel im Mai erscheint, was AMD bis dahin in Sachen RT-Leistung aus dem Hut zaubert und vor allem wie die Nvidia-Karten da voraussichtlich ohne DLSS performen :cool: Das wird sehr spannend. CP 2077 war ja der Nvidias RT-Vorzeigetitel und da bin ich schon auch froh bei aktiviertem RT auf DLSS setzen zu können. Ich freue mich auf jeden Fall auf die kommende Entwicklung und hoffe, dass die Performance von Spielen dadurch generell wieder auf höherem Niveau liegt.

Es kommt auch auf die Hardware an, ob "die Karten" für alles ohne RT ausreichen. Ein RTX2060-Besitzer wird sich auch bei abgeschaltetem Raytracing über den Performance-Boost von DLSS freuen, für RTX3090-Besitzer ist es weniger wichtig sein.
Seh ich leider nicht so. Ich war schockiert wie wenig Rohleistung in den aktuellen AAA-Titeln gerade auch in AC Valhalla von der 3090 in WQHD ankommt, vor allem da ich davor mit der 1080 Ti in den meisten AAA-Spielen meist weit über 60 FPS hatte und Valhalla hätte DLSS gut getan oder ne bessere Engine, ich weiß es nicht :ugly: Kaum kommt ne neue GPU-Architektur und ne neue Technologie raus, brechen gefühlt die FPS in neuen Titeln wieder auf 60 runter. Ich hätte aber gerne weit über 90 FPS auf nem 120 Hz Screen :wall:
 
Zuletzt bearbeitet:

mylka

PC-Selbstbauer(in)
hat nvidia nicht extra rechenkerne für DLSS? dann müsste AMD von der aktuellen generation kerne umfunktionieren und die fehlen dann natürlich bei der eigentlichen bilderstellung
nachdem die karten aber unbezahlbar sind wird man sowieso auf die nächste generation warten und die wird dann hoffentlich besseres RT haben und optimiertes FFX UND HARDWARE CRYPTO BLOCKER
 

beastyboy79

Software-Overclocker(in)
60hz vs 30hz (diese Diskussion gibt es bei den Konsolen schon ewig):

Der Spieler mit 60 FPS, im Vergleich zu einem 30 FPS Spieler, sieht die Aktion seines Gegners IMMER früher.
60hz = 16ms pro Refresh
30hz = 33ms pro Refresh

Jetzt kommt: Aber hz != FPS. Stimmt, aber es ist vergleichbar. Ein Spieler mit 60 FPS + 60hz Monitor vs einem Spieler mit 30 FPS + 60hz Monitor sieht auch die Aktionen seines Gegners 16-33ms früher (je nachdem wann ein neuer Frame im Refresh Verlauf des Monitors ausgeliefert wird).

16-33ms mag wenig klingen, die menschliche Durchschnittsreaktion liegt aber bei nur 180ms. Einige sind schneller, andere sind langsamer. Das sind immerhin 10-20% Unterschied. Und das über einen Spielverlauf von Stunden macht sich eben doch bemerkbar.

Ok, mea culpa, das wusste ich nicht. Dann belassen wir es bei grafischen Innovationen wie DLSS, RT, Hairworks, PhysX.
Okay du Spezialist:

Human Benchmark

Zeig mir 180ms ohne prediction . Dann kann ich Dich immer noch nicht ernst nehmen.

Edit:

Und das ist nur die Reaktionsmessung auf nen "Farbwechsel". Wenn Du in dem Zeitraum auch die Maus Punktgenau auf ein Ziel ausrichten kannst, dann sollest Du definitiv ins Guinnessbuch.
 
Zuletzt bearbeitet:

theeagle61

Komplett-PC-Aufrüster(in)
Hier stand Quatsch. Waren eben doch nur die Vorschaubilder.
Bullshit, sry aber du schreibst hier so ein riesen Unsinn. Von wegen ich sehe hier direkte Unterschiede mit einem Handy. Laut PCGH und vielen anderen Hardware Seiten macht DLSS sogar insgesamt eine bessere Arbeit als TAA. Entweder sind wir alle Blind und von dem Hype wortwörtlich verblendet oder du hast Augen eines Superman, der sogar auf einem Handybildschirm direkte Unterschiede merkt. Wenn ich hier jetzt dir Screenshots von Cyberpunk 2077 in 4K Poste, du wirst nicht wissen welches DLSS ist und welches TAA nativ, das verspreche ich dir.
 

BxBender

BIOS-Overclocker(in)
Na super, wenn man für "DLSS" 3 verschiedene Herstelelrkarten einzeln einbinden muss, wird das kaum ein Hersteller vollumfänglich einfügen wollen.
Ich sehe schon die Listen mit Herstellerabhängigen Spielen, so wie es immer schon war.
Kauft man sich eine Karte, geht dies nicht, geht das nicht.
Wer das meiste Geld hat, kauft sich die ganzen Spielehersteller für sein "DLSS", die anderen Hersteller werden absichtlich rausgedrängt.
Wäre nicht das erste Mal, dass so etwas verantwortlich dafür ist, dass sich am Ende die ganze Tehcnik nicht wirklich am Markt durchsetzen kann und wird.
Da ist man ja quasi schon darauf angewiesen, nur alte Titel zu zocken, womit die aktuellen Grafikkarten dann auch leistungsmäßig gut genug für sind.
DAs führt dann wohl dazu, dass ich nicht mehr mit der neuen Karte die Vorgängerblockbuster mit 120hz zocken werde, sondern die Blockbustergames der Vorvorserie.
Und weil aber die neuen Karten zu teuer und nicht erhältlich sind, wären das dann sogar 3 Serien Differenz, wenn man volle Details und hohe Frames benötigt.
Juhu, geile Spielewelt.
Oder man ist so reich udn hat zwei vollwertige Spielesysteme im Goldlack zu Hause herumstehen - das ginge natürlich auch. :-)
 
T

-THOR-

Guest
hat nvidia nicht extra rechenkerne für DLSS? dann müsste AMD von der aktuellen generation kerne umfunktionieren und die fehlen dann natürlich bei der eigentlichen bilderstellung
nachdem die karten aber unbezahlbar sind wird man sowieso auf die nächste generation warten und die wird dann hoffentlich besseres RT haben und optimiertes FFX UND HARDWARE CRYPTO BLOCKER

Gut erkannt. Das macht es für AMD doppelt schwierig.

Ein aufwändiger Algorithmus ist notwendig, um irgendwie mit der Bildqualität von DLSS mithalten zu können.
Ein aufwändiger Algorithmus kostet aber mehr Leistung. Diesen Leistungsbedarf kann man kompensieren, wenn man die Auflösung von der hochskaliert wird weiter senkt. Damits dann aber noch gut aussieht, muss der Algorithmus noch besser sein.

Ein Teufelskreislauf, den Nvidia mit den Tensor Cores weitestgehend umgehen kann. Ja, DLSS kostet zwar auch etwas rechen zeit, aber das ist eben vergleichsweise wenig und wird durch die sehr geringe interne Renderauflösung natürlich mehr als überkompensiert.

Nvidia hat da einfach nen natürlichen Vorteil mit den Tensor Cores.
Wenn AMD gleichziehen will, muss deren Lösung als schon von Grund auf besser sein, als die von Nvidia.
Das ist natürlich schon etwas ernüchternd...
 

Bl4ckR4v3n

Freizeitschrauber(in)
Lass mich raten, Du kannst den Flügelschlag eines Kolibri sehen und die Flügelschläge mitzählen... :crazy:
Weil man das ja auch können muss... Aber höherer Refresh erlaubt es früher zu reagieren und damit auch bei knappen Situationen zu treffen. Das ist selten der Fall aber im Falle des Falles hast du dann ja anscheinend einen Vorteil.
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
Dort wurde recht deutlich gezeigt was höhere FPS bewirken. Bei allen Tests ist die Performance ggü. 60Hz gestiegen.

Und nein ich hätte vor dem Video auch nicht geglaubt dass es einen so deutlichen Unterschied macht. Aber scheint doch irgendwie was zu bewirken.
 

PureLuck

Software-Overclocker(in)
Link zum Fakt! Bitte! Lass mich raten, hat Dir auch Dein Kumpel erzählt?

Lass mich raten, Du kannst den Flügelschlag eines Kolibri sehen und die Flügelschläge mitzählen... :crazy:

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

In der Theorie machen mehr FPS/Hz das bessere Aim. Das gilt sowohl für SP als auch für MP. Ab einem bestimmten Punkt ist diese Theorie, wie so oft im Leben, allerdings nur noch auf den Profi-Bereich anwendbar. Die ganze Sache per se als Fake-News abzustempeln ist aber leider falsch und fällt unter die selbe Kategorie wie "Man braucht nicht mehr als 24 FPS, weil das menschliche Auge nicht mehr wahrnehmen kann!!!!111elf hurr durr"...

@Topic:

Was soll diese AI-Scaling, wenn es nicht ordentlich im Bewegtbild funktioniert? Dann lieber nativ...
Verstehe auch das DLSS-Bauchmietzeln bei Outriders nicht, da, sobald man in die Bewegung übergeht, sowieso von der Engine ein Blur auf alles drüber geklatscht wird. Also meiner Meinung nach haben da alle Beteiligten noch ordentlich zu liefern.
 

Arzila

PC-Selbstbauer(in)
Lieber "sturer" Julian, eine persönliche Meinung über die man nicht diskutieren muss wäre "BMW ist schöner als Mercedes", aber deine Meinung dass GPUs ohne RT genug Leistung hätten ist zwar deine Meinung, aber eine Meinung die völlig falsch ist und eben nicht stimmt. in Zeiten wo 144hz/1440p oder 4K/120hz mehr am kommen sind, kann man nie genug FPS bekommen.
er hat doch recht. Hab auch eine 144hz monitor und mir reicht meine amd karte und im moment brauche ich keine 144fps oder dlss.

Merke da sowieso 0 unterschied ob ich jetz 100fps oder 144fps hab vll bin ich ja auch blind kein plan :D

Die karten haben alle ordentlich power das für jeden was dabei sein sollte. Ich bin top zufrieden mit meiner 6900 in 1440p auflösung darüber mach ich mir erst gedanken in 1-2generationen wieder.
 

beastyboy79

Software-Overclocker(in)
Danke, ich kenne das Video.
Ist sehr interessant, zumal es beim E-Sport zu 60% oder wahrscheinlich noch mehr auf Taktik ankommt.

In der Theorie machen mehr FPS/Hz das bessere Aim. Das gilt sowohl für SP als auch für MP. Ab einem bestimmten Punkt ist diese Theorie, wie so oft im Leben, allerdings nur noch auf den Profi-Bereich anwendbar. Die ganze Sache per se als Fake-News abzustempeln ist aber leider falsch und fällt unter die selbe Kategorie wie "Man braucht nicht mehr als 24 FPS, weil das menschliche Auge nicht mehr wahrnehmen kann!!!!111elf hurr durr"...
Habe ich das behauptet? Wo?

Also ich habe nicht ohne Grund nen 144Hz-Monitor. Der flüssige Bildlauf schont meine Augen, aber dadurch werde ich nicht automatisch zum Übermenschen. Die Synch unterstützt das zusätzlich.

Werde ich dadurch besser? Vielleicht. Aber abgesehen von altersbedingten Abnutzungserscheinungen habe ich damit im Durchschnitt nichts besseres, als ein flüssigeren Bildlauf.
Ergo ich kann entspannter Spielen, ohne auf den Monitor zu stieren.

Einige tun hier aber so, als würden sie in der Geschwindigkeit einer Fliege die Umwelt wahrnehmen.
 

raPid-81

Freizeitschrauber(in)
Okay du Spezialist:

Human Benchmark

Zeig mir 180ms ohne prediction . Dann kann ich Dich immer noch nicht ernst nehmen.

Edit:

Und das ist nur die Reaktionsmessung auf nen "Farbwechsel". Wenn Du in dem Zeitraum auch die Maus Punktgenau auf ein Ziel ausrichten kannst, dann sollest Du definitiv ins Guinnessbuch.
1. Versuch:

1619107455827.png


2. Versuch

1619107474310.png


Ich bin übrigens 39 Jahre alt. Früher mal Hobby-Semi-Profi in diversen Shootern (angefangen mit Action Quake 2, Quake 3 Arena / CPMA / Rocket Arena). Und jetzt?

Edit: Es geht auch nicht ums ZIELEN in 180ms, nur ums SEHEN. Mit 60 FPS (vs 30 FPS) sieht man den Gegner IMMER zwischen 16-33ms früher als der Gegner einen selbst wenn man um eine Ecke kommt. 144 FPS oder mehr und wir sind schon bei über 60ms Vorteil. Das ist wie bei der Latenz, wer weniger zum Server hat der hat einen dauerhaften Vorteil, und da ist der Vergleich 60 / 120ms auch unmöglich auszugleichen bei gleichem Skill.
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
Bullshit, sry aber du schreibst hier so ein riesen Unsinn. Von wegen ich sehe hier direkte Unterschiede mit einem Handy. Laut PCGH und vielen anderen Hardware Seiten macht DLSS sogar insgesamt eine bessere Arbeit als TAA. Entweder sind wir alle Blind und von dem Hype wortwörtlich verblendet oder du hast Augen eines Superman, der sogar auf einem Handybildschirm direkte Unterschiede merkt. Wenn ich hier jetzt dir Screenshots von Cyberpunk 2077 in 4K Poste, du wirst nicht wissen welches DLSS ist und welches TAA nativ, das verspreche ich dir.
Bullshit? Den hast du doch gerade abgelassen. Was denkst du denn warum ich das editiert habe? Im Text stand drin dass ich auf den Vorschaubildern direkt den Unterschied gesehen habe und das stimmte auch. Nur habe ich mich dann gewundert warum er die dann postet und habe sie heruntergeladen. Da sah die Sache dann plötzlich ganz anders aus und genau deshalb habe ich meinen eigenen Text dazu dann wieder verworfen. Darauf hättest du selbst kommen können und lieber dich freuen dass einer selbst merkt wenn was nicht passt und es korrigiert statt darauf zu beharren.
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Freizeitschrauber(in)
Da sind sie wieder ! Die CB "Experten" Aussagen ... :-P

MfG Föhn.
Steht das so noch in der Rangliste? Deine markierte Aussage habe ich auf CB nicht gefunden.
Bei mir steht nur:
Allerdings gibt es immer mehr Spiele, die zusätzlich auch Raytracing unterstützen. Da Raytracing eine realistischere Grafik ermöglicht und die Technologie von AMDs RDNA 2, Nvidias Turing sowie Ampere und den neuen Konsolen Sony PlayStation 5 sowie Microsoft Xbox Series X und Series X unterstützt wird, wird diese in immer mehr Spielen eingesetzt.


Raytracing kostet, wie die nachfolgenden Benchmarks zeigen, jedoch massiv Geschwindigkeit und es ändert sich auch die Reihenfolge bei den Grafikkarten-Benchmarks. Nvidia bietet für mehr Performance bei Raytracing das intelligente KI-Upsampling DLSS (Test), während AMD noch an der Konkurrenztechnologie FidelityFX Super Resolution arbeitet. Aktuell ist Nvidia in Raytracing-Spielen dankt schnellerer RT-Architektur damit nicht nur per se, sondern mit DLSS-Potentiell auch über eine weitere Technologie schneller.
 

raPid-81

Freizeitschrauber(in)
Anhang anzeigen 1361575

Wer ist eigentlich Shroud. Aber gut lassen wir das.
Shroud ist 26 Jahre alt. Vor 13 Jahren war ich vielleicht nicht ganz so schnell, aber schneller als heute nach einem vollen Arbeitstag vor dem Rechner...

Ich hab Dir 180ms gezeigt und jetzt "lassen wir das". Pwned sagte man damals. :lol:
Steht das so noch in der Rangliste? Deine markierte Aussage habe ich auf CB nicht gefunden.
Bei mir steht nur:
onkel-foehn postet seinen uralt Screenshot dauernd. Ist vermutlich aus DLSS 1.0 Zeiten. :schief:
 

Cleriker

PCGH-Community-Veteran(in)
96ms sind schon cool. Ich hatte als kleinsten Wert gerade mal 121ms. Ich gucke aber auch auf einen 60Hz Bildschirm. Du hast einen 144er, richtig? Da wären wir ja bei raPids Aussage.
 
Oben Unten