Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

Bin ich denn der Einzige der DLSS unbrauchbar findet in Cyberpunk? Irgendwie wird alles extrem unscharf und die Karte wird ein Pixelbrei?! Ganz abgesehen sieht dann der Charakter Render im Char Screen aus wie von der PS3, aber gut das waer ja noch egal.
Aktuelle Treiber, 2080s, 3950x, 32GB Ram.
 
Ich bin entsetzt. Selbst auf Low läuft das Spiel auf meinem PC (GTX1080ti, 32Gb, 3700X) in 1440p nicht mal im Startbereich mit 60Fps und sieht aus wie ein Spiel von 2010 (etwas übertrieben).

Bei einer Mischung auf Low bis Hoch komme ich auf keine 50Fps und ich war noch nicht in der Außenwelt.

Ist die Performance wirklich normal? Treiber und co. alles aktuell..

Zeit zum Aufrüsten würde ich sagen^^.
Könnte die 1080 Ti DLSS nutzen würde die Geschichte anders aussehen.
 
Bin ich denn der Einzige der DLSS unbrauchbar findet in Cyberpunk? Irgendwie wird alles extrem unscharf und die Karte wird ein Pixelbrei?! Ganz abgesehen sieht dann der Charakter Render im Char Screen aus wie von der PS3, aber gut das waer ja noch egal.
Aktuelle Treiber, 2080s, 3950x, 32GB Ram.
Kann ich nicht bestätigen, nutze DLSS Balances und das sieht so gut aus wie nativ.
 
Bin ich denn der Einzige der DLSS unbrauchbar findet in Cyberpunk? Irgendwie wird alles extrem unscharf und die Karte wird ein Pixelbrei?! Ganz abgesehen sieht dann der Charakter Render im Char Screen aus wie von der PS3, aber gut das waer ja noch egal.
Aktuelle Treiber, 2080s, 3950x, 32GB Ram.
Erlich , ich glaube das AMDs CAS der verlorenen Schärfe den Arsch rettet.
Bin froh , dass ich das mit meiner GTX1080 auch nutzen kann. Danke AMD aber business-mässig hätte ich das besser nicht gemacht.
Jetzt glauben DLSS Benutzer jenes funktioniere.
 
Zeit zum Aufrüsten würde ich sagen^^.
Könnte die 1080 Ti DLSS nutzen würde die Geschichte anders aussehen.

Selbst mit DLSS wäre die Optik zur Leistung unter aller Sau.

ich habe den 3 Abschnitt genommen als Konzern-Mensch.
Die Empfehlung von CD Red was man vorher gesagt hat stimmt bei mir nicht mal im Ansatz.

Ich kann mir wirklich nicht vorstellen, das eine GTX1080ti so schlecht performt. 1440p ist nun wirklich nicht Next Gen und die Optik deutlich schlechter als in anderen Spielen. Habe ich außerversehen RT aktiviert oder wie...
 
Selbst mit DLSS wäre die Optik zur Leistung unter aller Sau.

ich habe den 3 Abschnitt genommen als Konzern-Mensch.
Die Empfehlung von CD Red was man vorher gesagt hat stimmt bei mir nicht mal im Ansatz.

Ich kann mir wirklich nicht vorstellen, das eine GTX1080ti so schlecht performt. 1440p ist nun wirklich nicht Next Gen und die Optik deutlich schlechter als in anderen Spielen. Habe ich außerversehen RT aktiviert oder wie...

Die 1080 Ti ist jetzt drinnen. Pascal bricht eben auch DX12 das Genick, aus einstmals zu Release 30% Vorsprung der 2080 Ti sind mittlerweile 60% geworden.
„Next Gen“ ist sowieso Marketing Unsinn.
Cyberpunk ist das ohne Zweifel best aussehende Game des Jahres.
 
Selbst mit DLSS wäre die Optik zur Leistung unter aller Sau.

ich habe den 3 Abschnitt genommen als Konzern-Mensch.
Die Empfehlung von CD Red was man vorher gesagt hat stimmt bei mir nicht mal im Ansatz.

Ich kann mir wirklich nicht vorstellen, das eine GTX1080ti so schlecht performt. 1440p ist nun wirklich nicht Next Gen und die Optik deutlich schlechter als in anderen Spielen. Habe ich außerversehen RT aktiviert oder wie...
Komischerweise unterstütz meine GTX1080 kein RT obwohl per Treiber sollte sie es ja
 
Die 1080 Ti ist jetzt drinnen. Pascal bricht eben auch DX12 das Genick, aus einstmals zu Release 30% Vorsprung der 2080 Ti sind mittlerweile 60% geworden.
„Next Gen“ ist sowieso Marketing Unsinn.
Cyberpunk ist das ohne Zweifel best aussehende Game des Jahres.
Ist ja auch kein Wunder - die GPU-Generation ist ja nun auch mittlerweile schon über 4 Jahre alt - da darf es gerne mal passieren, sonst ist man ja nicht in der Lage, eine Neuanschaffung von 600 - 2000€ zu rechtfertigen. Kepler hatte damals in The Witcher 3 durch die Tesselation auch extrem das Nachsehen - Maxwell sah da schon wieder anders aus.
Interessant finde ich, das die 5700XT ohne Probleme auf Augenhöhe zur 1080Ti liegt - sollte jemandem eine abrauchen, so kann man dann Problemlos erst einmal eine günstige gebrauchte Variante einbauen xD
 
Mein Test des Threadscalings sieht deutlich bescheidener aus.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
BTW die Konsolenversion wurde ich nicht anfassen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Weil DLSS im gegensatz zu "SAM" (rBAR) kein Standard ist? Die "Größenänderung" von BAR ist Teil der PCI Express-Spezifikation.
Genauso gut hättest du auch schreiben können "Warum PCI-E G4 enabled aber kein DLSS?".
Ist aber ein berechtigter Einwand von ihm. SAM funktioniert nur mit Ryzen 3, X570 Board und BigNavi. Die Anzahl der User, welche diese Hardwarekombi nutzen, kannst du gefühlt an einer Hand abzählen. Ich behaupte einfach mal, dass es mehr Leute mit DLSS fähiger Karte gibt, als es bei SAM der Fall ist.
 
Zurück