Cyberpunk 2077: "DLSS unverzichtbar, keine andere Plattform kann sich mit RTX-PC messen"

Naja wenn du nur 6800XT für 1300€ findest, dann findest du auch nur 3090 für 2000€.

Mal davon ab, bin von DLSS echt nicht begeistert... man schaltet Ray Tracing ein damit man das Bild mit DLSS wieder verschlechtert... öhm ja cool.. schön das es kaum auffällt aber leider ists so...
Kommt immer auf die DLSS implementation an. Die von CP2077 scheint laut ersten Berichten exzellent zu sein. DLSS Quality soll sogar bessere Qualität liefern als native Auflösung.
 
Bist du 12? Erstens zwingt dich keiner irgendwas zu lesen oder gar zu kommentieren.
Zweitens nutzt du ein kostenfreien Internetauftritt. Wie soll sich das Ganze hier deiner Meinung nach finanzieren? Bestimmt nicht durch Luft und Liebe und auch nicht durch immer weiter sinkende Printmagazine, die aktuell noch nichtmal in geschlossenen Kiosks zu kaufen gibt.
Vielleicht so wie ander Seiten auch: durch ordentliche Arbeit.....Wie es vor 10 Jahren hier war..... Das kann aber jemand, der sich erst hier angemeldet hat nicht Wissen. Darum verzeih ich dir deinen infantielen Ausbruch ;-)
 
Nennen wir es doch mal..
(1) Traditionell pixelgenaue vollständige Berechnung
vs
(2) Gut genug Approximation von Teilen des Bildes.

mp3 spart Bandbreite indem Teile der Information verworfen werden was nur auffällt wenn man weiß wo man auf die Audiokompression achten muss.

jpg spart Bandbreite indem Teile der Information verworfen werden. Nur wer genau hinschaut bemerkt es.

Klar kann man bei beiden Varianten zu viel verwerfen, dann klingt das mp3 gülle und das jpg ist Brei pur. Man kann beides aber auch so konfigurieren, dass man sagt, gut genug. Da hat jeder seine Grenze anderswo, vgl 192kBit mp3, vs 320kBit mp3.

Das DLSS Prinzip ist ähnlich. Information muss in der Qualität gut genug erzeugt werden und dabei weniger Rechenzeit verbrauchen als Pixelgenaue Berechnung. Jeder hat hier seine Mindestanforderung die von der Technologie erfüllt werden müssen. DLSS-artige Verfahren bei denen nicht das gesamt Bild traditionell berechnet werden muss, werden sich durchsetzen. In fünf Jahren hat das jedes Spiel.
 
Was ein Glück, das ich mit dem ganzen DLSS Schrott verschont bleibe. :)

Da sieht man auch, das die von manchen hochgepriesene N$ Hardware einfach Schrott ist. Packt noch nichtmal ein gesponsortes Videospiel mit den eigenen neuen Features ohne einen Bildqualitätsverschlimmerer. Pfui! :kotz:
 
Was ein Glück, das ich mit dem ganzen DLSS Schrott verschont bleibe. :)

Da sieht man auch, das die von manchen hochgepriesene N$ Hardware einfach Schrott ist. Packt noch nichtmal ein gesponsortes Videospiel mit den eigenen neuen Features ohne einen Bildqualitätsverschlimmerer. Pfui! :kotz:
Sehe ich auch so.

CSRED: FOAD DSLL ah ja, sehr bekannt sie Sache.
Nennen wir es doch mal..
(1) Traditionell pixelgenaue vollständige Berechnung
vs
(2) Gut genug Approximation von Teilen des Bildes.

mp3 spart Bandbreite indem Teile der Information verworfen werden was nur auffällt wenn man weiß wo man auf die Audiokompression achten muss.

jpg spart Bandbreite indem Teile der Information verworfen werden. Nur wer genau hinschaut bemerkt es.

Klar kann man bei beiden Varianten zu viel verwerfen, dann klingt das mp3 gülle und das jpg ist Brei pur. Man kann beides aber auch so konfigurieren, dass man sagt, gut genug. Da hat jeder seine Grenze anderswo, vgl 192kBit mp3, vs 320kBit mp3.

Das DLSS Prinzip ist ähnlich. Information muss in der Qualität gut genug erzeugt werden und dabei weniger Rechenzeit verbrauchen als Pixelgenaue Berechnung. Jeder hat hier seine Mindestanforderung die von der Technologie erfüllt werden müssen. DLSS-artige Verfahren bei denen nicht das gesamt Bild traditionell berechnet werden muss, werden sich durchsetzen. In fünf Jahren hat das jedes Spiel.
In fünf Jahren hat das jedes Spiel.
Oder eine Technik von AMD. Die Methode ist nur sinnvoll, wenn die Grafikkarte zu langsam ist(mit üblicher Berechnung). So ist die ganze Sache irgendwie schon ein Eingeständnis von NVIdia.
Seltsam, auf den anderen Formaten (luxx, CB usw.) wird man komischerweise nicht derartig zugemüllt und vollgespammt mit Werbung...die machen das sicher nur aus Spaß, ohne monetäre Interessen...(die müssen auch nicht die Print querfinanzieren, welche eher früher als später eh das Zeitliche segnet) folglich bin ich immer häufiger dort unterwegs. Die Qualität der Berichterstattung verfolgt dort, sagen wir mal, auch ein etwas anderen Anspruch...

Auf Fernsehsender reduziert, etwa vergleichbar mit RTL & Arte, beide senden bunte Bilder, aber Inhalt & Anspruch an den Konsumenten gehen marginal auseinander....

Das in meinen Augen schlimme dabei ist, das es nicht besser wird, im Gegenteil!

Nach rund 10 Jahren kann ich mir dazu eine Meinung bilden, schade ist nur die Tendenz dieser.
Find ich auf CB schlimmer die Werbung (bin seit 2008 da). Hier wird klar darauf hingewiesen. Bei CB find ichs verschachtelter.
Außerdem ist man bei PCGH auf dem Teppich geblieben. Man Alter wir sind Zocker!
Wir halten zusammen. Und wenn man die Print kauft, ist das mehr als fair. War jahrelang Abonnement, komme wegen den Kinder nicht so viel zum Lesen und die Schrift wird in der Print immer kleiner (:-)). Bin Ü40.
 
Zuletzt bearbeitet:
Sehe ich auch so.

CSRED: FOAD DSLL ah ja, sehr bekannt sie Sache.


Oder eine Technik von AMD. Die Methode ist nur sinnvoll, wenn die Grafikkarte zu langsam ist(mit üblicher Berechnung). So ist die ganze Sache irgendwie schon ein Eingeständnis von NVIdia.

Find ich auf CB schlimmer die Werbung (bin seit 2008 da). Hier wird klar darauf hingewiesen. Bei CB find ichs verschachtelter.
Außerdem ist man bei PCGH auf dem Teppich geblieben. Man Alter wir sind Zocker!
Wir halten zusammen. Und wenn man die Print kauft, ist das mehr als fair. War jahrelang Abonnement, komme wegen den Kinder nicht so viel zum Lesen und die Schrift wird in der Print immer kleiner (:-)). Bin Ü40.

Bin zwar selbst seit vielen Jahren lieber auf PCGH unterwegs, aber Computerbase ist gesamthaft gesehen definitiv ein Stück professioneller, zielgerichteter und deutlich weniger Clickhure.
Dazu ist die Seite (siehe Werbung...) auf Smartphones ordentlich lesbar.
Hier und auf PCG habe ich ständig nervige Werbeblöcke über dem Text.
Bin aber trotzdem priorisiert hier am lesen, CB kommt erst danach. Weiß auch nicht wieso... Wahrscheinlich deswegen, weil's hier doch thematisch ein Stück breiter ist.
 
Was ein Glück, das ich mit dem ganzen DLSS Schrott verschont bleibe. :)

Da sieht man auch, das die von manchen hochgepriesene N$ Hardware einfach Schrott ist. Packt noch nichtmal ein gesponsortes Videospiel mit den eigenen neuen Features ohne einen Bildqualitätsverschlimmerer. Pfui! :kotz:

Schon mal gesehen? Wahrscheinlich nicht... Bei Metro Exodus @ Ultra mit UHD gespielt mit einer 3090. Ich habs mal ohne und mal mit DLSS probiert. Ich sehe keinen Unterschied. Es sieht genauso fein aus wie bei nativem UHD. Der einzige Unterschied ist dass es deutlich schneller läuft. Ich glaube NV hat mit DLSS ein richtig gutes Feature geschaffen. AMD sollte auch sowas bringen. Denn mit den NV Features kann AMD so nicht mehr mithalten.
 
Jaja Nvidia... eure min. 1600 Euro 3090 schafft CP2077 in 4K+RT selbst mit DLSS im "Performance" Modus nicht mal konst. 60 FPS. Ohne DLSS kann man dann das Spiel max. mit cineastischen FPS genießen :lol:
Kann sich noch jemand daran erinnern? Die Xbox One wurde zerrissen als man Berechnungen in der Cloud machen wollte um die Leistungsfähigkeit zu verbessern. Wohl gemerkt bei einem 500$ Gerät. Jetzt ist das völlig normal, hip und die Zukunft.

Mir ist bewusst das dies nicht 100% vergleichbar ist. Trotzdem, da müssen irgendwo paar Server ihre Berechnungen machen auf die man angewiesen ist.
 
Was ein Glück, das ich mit dem ganzen DLSS Schrott verschont bleibe. :)

Da sieht man auch, das die von manchen hochgepriesene N$ Hardware einfach Schrott ist. Packt noch nichtmal ein gesponsortes Videospiel mit den eigenen neuen Features ohne einen Bildqualitätsverschlimmerer. Pfui! :kotz:

Ist das Satire?
Wenn meine GPU nicht so stark ist, ich aber mittels DLSS viel mehr Optik raushole ohne dabei an Leistung zu verlieren ist das doch super?!

Sorry du bist nur ein weiterer Hater.
 
Denn mit den NV Features kann AMD so nicht mehr mithalten.
Ja DLSS2.0 ist der Hammer wenn es funktioniert. Aber es gibt keine 10 Games die es unterstützen und von den 10 treffen vielleicht 2 games den persönlichen Geschmack. Ist für mich daher nicht wirklich ein Feature.

Ich setze da eher auf AMD's Super Resolution. Konsolen sind auf Upscaling angewiesen. Anders kommen die halt nicht auf "4k" Output. DLSS funktioniert rein technisch auf Konsolen nicht. Deswegen glaube ich auch nicht, dass 2021 viele DLSS 2.0 dazu kommen werden.

Aber ja AMD muss endlich Features bringen. Ein Pendant zu RTX voice wäre auch sehr erfreulich.
 
Hmm, meine 3090 steckt schon seit Ende September im Rechner und schlägt sich lässig durch Metro, RDR2, Shadowlands und ab morgen auch Cyberpunk, so gänzlich imaginär ist das jetzt nicht.
Ich fand den Artikel interessant, da nun auch mal ein Spiel kommt, was die Karte wirklich fordert.
Dann werde ich auch mal DLSS ausprobieren.
Wurde sie bisher in Metro Exodus (das meintest du wahrscheinlich) und RDR2 z.B. nicht richtig gefordert?
 
Schon mal gesehen? Wahrscheinlich nicht...
Naja es gab Threads in denen hier detaillierte Vergleichsbilder in verschiedenen Auflösungen mit/ohne RT und DLSS/Nativ verglichen wurden. Die Texturen verwischen einfach bei aktivem DLSS und das Bild ist weniger scharf. Dafür bekommst du ein paar realistischere Reflektionen und Schatten in Kombination mit RT bei spielbaren Bildraten. Muss jeder selber wissen was für ihn ein besseres Erlebnis ist am Ende aber so zu tun als ob DLSS magisch die Fps verdoppelt und auch noch das Bild verbessert ist albern.
 
Oder eine Technik von AMD. Die Methode ist nur sinnvoll, wenn die Grafikkarte zu langsam ist(mit üblicher Berechnung). So ist die ganze Sache irgendwie schon ein Eingeständnis von NVIdia.
Es gibt ja nicht nur einen Codec zur Videokompression. Wenn ich sage in 5 Jahren hat das jeder, dann meine ich damit das Prinzip, nicht die konkrete Nvidia Implementierung. Davon ist DLSS lediglich die erste im Gaming Mainstream und bestimmt nicht die letzte.
 
Jaja. Und dann nicht mal 60 FPS liefern mit DLSS auf einer 3080 in 4K.

Tolle Leistung, die ihr da bietet Nvidia. Mal weniger übertriebene RT Effekte einstellen? Aber das würde ja euren kleinen RTX Karten und auch AMD zu Gute kommen...

Jaja Nvidia... eure min. 1600 Euro 3090 schafft CP2077 in 4K+RT selbst mit DLSS im "Performance" Modus nicht mal konst. 60 FPS. Ohne DLSS kann man dann das Spiel max. mit cineastischen FPS genießen :lol:

Im Spiel gibt es ein Optionsmenü wo man die Einstellungen seinen Bedürfnissen anpassen kann. Wenn man dort das ein oder andere runterregelt kann man das Spiel auf jeder unterstützten Grafikkarte genießen.

Ach warum schreibe ich nur....
 
Im Spiel gibt es ein Optionsmenü wo man die Einstellungen seinen Bedürfnissen anpassen kann. Wenn man dort das ein oder andere runterregelt kann man das Spiel auf jeder unterstützten Grafikkarte genießen.

Ach warum schreibe ich nur....
Das ist mir schon klar, das mache ich auch bei jedem Spiel so.
Es ging mir eigentlich um etwas ganz anderes...ah egal lassen wir das einfach.
 
Als nächstes erzählt uns Lederjacke noch das RT & DLSS der Industrie-Standard und in jeder großen Engine integriert sind. Oh wait, das hat er ja wirklich bei der Ampere-Vorstellung von sich gegeben..

Ich würde auch gerne mal ein Milliarden-Unternehmen leiten. Dann könnte ich den ganzen Tag rumlügen und die Medien verbreiten das sogar noch kostenlos um sich mit ein paar Klicks über Wasser zu halten, während ich einen Rekordgewinn nach dem nächsten fahre.

Schade das AMD so lange brauch um DLSS zu kontern. Man muss aber zugeben das Nvidia die Messlatte mit DLSS 2.0 hoch gelegt hat, wenn es denn mal zum Einsatz kommt.
 
Zuletzt bearbeitet:
Im Spiel gibt es ein Optionsmenü wo man die Einstellungen seinen Bedürfnissen anpassen kann. Wenn man dort das ein oder andere runterregelt kann man das Spiel auf jeder unterstützten Grafikkarte genießen.

Ach warum schreibe ich nur....
Jemand der die zur Zeit beste GPU der Welt halt sollte nicht auf High ausweichen müssen. Das sollte für die schwächeren Karten reserviert sein..
 
Als nächstes erzählt uns Lederjacke noch das RT & DLSS der Industrie-Standard und in jeder großen Engine integriert sind. Oh wait, das hat er ja wirklich bei der Ampere-Vorstellung von sich gegeben..

Ich würde auch gerne mal ein Milliarden-Unternehmen leiten. Dann könnte ich den ganzen Tag rumlügen und die Medien verbreiten das sogar noch kostenlos um sich mit ein paar Klicks über Wasser zu halten, während ich einen Rekordgewinn nach dem nächsten fahre.

Schade das AMD so lange brauch um DLSS zu kontern. Man muss aber zugeben das Nvidia die Messlatte mit DLSS 2.0 hoch gelegt hat, wenn es denn mal zum Einsatz kommt.
DLSS ist eine wirklich tolle Sache, unabhängig davon was man davon hält und ob man es nutzen möchte.
Hätte AMD von sich aus so etwas angeboten (nächstes voraussichtlich), wenn Nvidia DLSS nicht entwickelt hätte?
 
Hätte AMD von sich aus so etwas angeboten (nächstes voraussichtlich), wenn Nvidia DLSS nicht entwickelt hätte?

Ja. Nvidia mag mit DLSS ein fertiges Produkt haben, aber Erfinder der Produktkategorie sind sie nicht. Gleiches gilt für Nvidia und Raytracing. Nvidia ist auch darauf spezialisiert solche Techniken als erstes zur Produktreife zu führen, das hat sich für Nvidia immer ausgezahlt, daher hat Nvidia diese Kultur sowas als erste haben zu müssen.

AMD geht sowas beruhigter an. AMD muss kein KI oder DeepLearning Produkt auf Hardware und Software Seite entwickeln. AMD hat mit Sony und Microsoft zwei Giganten und wird sich immer zuerst nach deren Zeitplänen richten. AMD wird dann Hardware bieten die konform zu Standards ist die hauptsächlich von anderen entwickelt und von AMD mitgetragen werden. Besonders Microsoft hat es nicht eilig DirectX mit einem DLSS Klon auszustatten. Microsoft ist notorisch langsam, bis hin zum Risiko einen Markt komplett zu verschlafen (Windows Phone).
 
Zurück