Witcher 3: Digital Dreams zeigt beeindruckende Mod-Grafik auf einer RTX 3090

Das Spiel ist ein Kracher. Ein tolles Action-Adventure mit Rollenspielelementen. Die Mods wirken wahre Wunder, jedoch sind die Animationen schon sehr angestaubt. Wenn CDPR tatsächlich nur die Texturen überarbeiten lässt, HDR und RT einfügt, wäre das schon wenig für eine Next-Gen-Version.
Zu schade, dass CDPR das Spiel erst einmal komplett auf die Seite legte. Man hätte ein kleines Team daran arbeiten lassen können, um aus einem Adventure eine tatsächliche Open World ala RDR2 zu schaffen, dann hätte man mühelos jede Menge neue Erweiterungen hinterherschieben können - es hätten nicht mal welche sein müssen, die sich auf Geralt beziehen. Ich verstehe nicht, warum nur Rockstar diesen Nutzen erkennt?
Auf der Next Gen können sie froh sein wenn sie die Vanilla PC Version in 60 FPS und nativen 4k kriegen. Vielleicht bissel Hairworks. Dabei weiterhin Medium Details.
Witcher 3 läuft auf den alten Konsolen weiterhin grauenhaft (und ja man erkennt eine Tendenz bei CDPR), interessiert nur niemanden mehr. Die beste Konsolenversion ist lustigerweise der Switcher.

Raytracing auf der PS5 und XSX....ja vielleicht wenn AMD Fidelity hinkriegt. Momentan ist das aber eine so derbe Fake Augenwischerei, da wird einem schlecht. Entweder es ist Fake RT, oder die Auflösung wird brutal skaliert (auf teilweise 720p). Und dann halt das Problem: Der Chipsatz ist von AMD, also eh kein besonders gutes RT.
Die Konsolen sind einfach viel zu schwach. Ein Midtermupgrade todsicher.
 
Die beste Konsolenversion ist lustigerweise der Switcher.
Die stammt auch von Saber, die jetzt die Überarbeitung produzieren werden --- entsprechend ist vieles möglich.
Die Konsolen sind einfach viel zu schwach.
Sie sind mehr StateOfTheArt als die Konsolen der siebten und achten Gen: Die siebte Gen hatte massiv mit zu wenig Arbeitsspeicher zu kämpfen, die achte mit den HDDs und den Jaguar-Kernen. Auf GPU-Seite steht die neunte Gen klar besser als die siebte Gen dar. Vergleiche mit der achten Gen werden nur dadurch erschwert, dass die GPU der XBONE halt so viel schwächer als die der PS4 war und RDNA2 & Ampere im Desktop die normalen Wattklassen der letzten Jahre gesprengt haben. Ich würde sagen, dass der Grafikteil der APU der PS5 schon etwa so nah dran ist an der 6900XT wie der Grafikteil der APU der PS4 an der 7970 GHZ dran war.
Ein Midtermupgrade todsicher.
Sofern Microsoft oder Sony nicht aus dem Business aussteigen oder durchknallen, ist das vollkommen sicher. Alles andere ergibt überhaupt keinen Sinn, der Wechsel beider Hersteller zu AMD-APUs hat ja gerade dafür gesorgt, dass die Konsolenhersteller AMDs Fortschritt mitnehmen können. Entsprechend ergibt das Potential liegenzulassen auch wirtschaftlich überhaupt keinen Sinn.
 
Die stammt auch von Saber, die jetzt die Überarbeitung produzieren werden --- entsprechend ist vieles möglich.

Sie sind mehr StateOfTheArt als die Konsolen der siebten und achten Gen: Die siebte Gen hatte massiv mit zu wenig Arbeitsspeicher zu kämpfen, die achte mit den HDDs und den Jaguar-Kernen. Auf GPU-Seite steht die neunte Gen klar besser als die siebte Gen dar. Vergleiche mit der achten Gen werden nur dadurch erschwert, dass die GPU der XBONE halt so viel schwächer als die der PS4 war und RDNA2 & Ampere im Desktop die normalen Wattklassen der letzten Jahre gesprengt haben. Ich würde sagen, dass der Grafikteil der APU der PS5 schon etwa so nah dran ist an der 6900XT wie der Grafikteil der APU der PS4 an der 7970 GHZ dran war.

Sofern Microsoft oder Sony nicht aus dem Business aussteigen oder durchknallen, ist das vollkommen sicher. Alles andere ergibt überhaupt keinen Sinn, der Wechsel beider Hersteller zu AMD-APUs hat ja gerade dafür gesorgt, dass die Konsolenhersteller AMDs Fortschritt mitnehmen können. Entsprechend ergibt das Potential liegenzulassen auch wirtschaftlich überhaupt keinen Sinn.
das die ps5 apu nah dran ist an der 6900xt?
Dann müsste die series x ja an der 6900xt dran sein würde ja bedeuten auf big navi und 3090 niveu was defacto unmöglich ist.

digital foundry hat dies schon getestet
die ps5 bewegt sich so auf 2070/s niveau teilweise auch nur 2060 niveau und die xsx so auf ca 2080 niveau....

Wären die auf 3090 niveau würden sie die neuen spiel problemlos nativ in 4k und 60fps schaffen was ja nicht der fall ist
 
das die ps5 apu nah dran ist an der 6900xt?
Dann müsste die series x ja an der 6900xt dran sein würde ja bedeuten auf big navi und 3090 niveu was defacto unmöglich ist.
Das hast du vollkommen falsch verstanden:
Ich würde sagen, dass der Grafikteil der APU der PS5 schon etwa so nah dran ist an der 6900XT wie der Grafikteil der APU der PS4 an der 7970 GHZ dran war.
Ist es mit den Markierungen jetzt klarer geworden? Falls noch nicht:
Es geht darum, dass die der Grafikteil der APU der PS4 irgendwo zwischen 7850 und 7870 lag. Der Grafikteil der APU der PS5 ist recht verwandt mit dem Navi 22 in der XTL-Variante, wie er auf der 6700 zum Einsatz kommen soll.
Das heißt der Abstand zum jeweiligen BigChip (damals Tahiti XTX, jetzt Navi 21) ist relativ ähnlich.
Passt es jetzt, oder ist noch irgendetwas unklar?
 
eine 6900xt hat aber mehr als doppelt soviel tflops bei der gleichen engine. das mit 2070 stimmt diese wurde damals bei der ps5 demo mit 40fps gemessen und die ps5 mit 30fps
 
eine 6900xt hat aber mehr als doppelt soviel tflops bei der gleichen engine. das mit 2070 stimmt diese wurde damals bei der ps5 demo mit 40fps gemessen und die ps5 mit 30fps
Bitte drück dich klarer aus; was willst du gerade sagen?
So kann ich nur raten; ich kann gerne auch etwas zu TFLOPS schreiben:
Etwa 10 vs. etwa 24 sind es bei PS5 vs. 6900XT, etwa 1,8 vs. etwa 4,3 bei PS4 vs. 7970Ghz. Passt also:

Was TFLOP-Angaben angeht ist der Grafikteil der APU der PS5 schon etwa so an der 6900XT dran wie der Grafikteil der APU der PS4 an der 7970 GHZ dran war.
 
Bitte drück dich klarer aus; was willst du gerade sagen?
So kann ich nur raten; ich kann gerne auch etwas zu TFLOPS schreiben:
Etwa 10 vs. etwa 24 sind es bei PS5 vs. 6900XT, etwa 1,8 vs. etwa 4,3 bei PS4 vs. 7970Ghz. Passt also:

Was TFLOP-Angaben angeht ist der Grafikteil der APU der PS5 schon etwa so an der 6900XT dran wie der Grafikteil der APU der PS4 an der 7970 GHZ dran war.
die ps 4 gpu hatte eine andere architektur als die 7970 und noch dazu 75w tdp und die 7970 300w tdp
 
die ps 4 gpu hatte eine andere architektur als die 7970 und noch dazu 75w tdp und die 7970 300w tdp
Ich kann dich nur nochmals bitten, dich klarer auszudrücken. Abermals kann ich nur raten, was du damit in einem größeren Kontext sagen willst. Und auf ein solches Raten habe ich keine Lust.

Bitte ganz oder gar nicht; ansonsten macht das keinen Spaß und ergibt insbesondere keinen Sinn, dann werden Diskussionen zu purer Zeitverschwendung.
 
Ich kann dich nur nochmals bitten, dich klarer auszudrücken. Abermals kann ich nur raten, was du damit in einem größeren Kontext sagen willst. Und auf ein solches Raten habe ich keine Lust.

Bitte ganz oder gar nicht; ansonsten macht das keinen Spaß und ergibt insbesondere keinen Sinn, dann werden Diskussionen zu purer Zeitverschwendung.
naja das was du schreibst ergibt noch weniger sinn wenn du schreibst das die einen gleichen gpu anteil haben und dann andere architekturen vergleichst sowie mein vergleich mit denn tdp passt schon. die ps5 gpu oder xsx gpu ist was rechenleistung angeht deutlich näher an dem vollausbau als früher
 
naja das was du schreibst ergibt noch weniger sinn wenn du schreibst das die einen gleichen gpu anteil haben und dann andere architekturen vergleichst sowie mein vergleich mit denn tdp passt schon. (...)
Das Ganze ist eigentlich total einfach:
Wie möchte man die (GPU-)Stärke von Konsolen zu ihrer Zeit bewerten?
  • Na, die leichteste Möglichkeit ist, sie mit den dann verfügbaren Maximalausbauten der jeweils gleichen Architektur im Desktop zu vergleichen.
  • Und dann guckt man sich halt an, ob das zum Beispiel eher ein 25%iger, ein 50%iger oder ein 75%iger Ausbau ist. Das habe ich hier auch gemacht und bin zum Schluss gekommen, dass PS4 und PS5 jeweils zu ihrer Zeit auf GPU-Seite etwa gleich stark waren.
  • Wie gesagt, das ist die leichteste Möglichkeit. Zu Zeiten der PS1 und PS2 funktioniert das kaum und zu Zeiten der PS3 schlecht, weil der Desktopmarkt da noch gar nicht in heutige Chipgrößen- und Wattklassen vorgedrungen ist.

Hier endet jetzt der Bezug zu dir, aber es bleibt ein Bezug zum ursprünglichen Posting:
Die PS5 ist gleichzeitig in allen anderen Bereichen aber deutlich näher im StatusQuo und somit im Vergleich zur PS4 durchaus ein Fortschritt in Punkto Konsole am Puls der Zeit dar.
die ps5 gpu oder xsx gpu ist was rechenleistung angeht deutlich näher an dem vollausbau als früher
Da habe ich dich zum Beispiel vollkommen falsch eingeschätzt; ich dachte bei deinen letzten Postings, du würdest die CurrentGen/9thGen schlechtreden und die LastGen/8thGen hochleben lassen wollen.
 
Das Ganze ist eigentlich total einfach:
Wie möchte man die (GPU-)Stärke von Konsolen zu ihrer Zeit bewerten?
  • Na, die leichteste Möglichkeit ist, sie mit den dann verfügbaren Maximalausbauten der jeweils gleichen Architektur im Desktop zu vergleichen.
  • Und dann guckt man sich halt an, ob das zum Beispiel eher ein 25%iger, ein 50%iger oder ein 75%iger Ausbau ist. Das habe ich hier auch gemacht und bin zum Schluss gekommen, dass PS4 und PS5 jeweils zu ihrer Zeit auf GPU-Seite etwa gleich stark waren.
  • Wie gesagt, das ist die leichteste Möglichkeit. Zu Zeiten der PS1 und PS2 funktioniert das kaum und zu Zeiten der PS3 schlecht, weil der Desktopmarkt da noch gar nicht in heutige Chipgrößen- und Wattklassen vorgedrungen ist.

Hier endet jetzt der Bezug zu dir, aber es bleibt ein Bezug zum ursprünglichen Posting:
Die PS5 ist gleichzeitig in allen anderen Bereichen aber deutlich näher im StatusQuo und somit im Vergleich zur PS4 durchaus ein Fortschritt in Punkto Konsole am Puls der Zeit dar.

Da habe ich dich zum Beispiel vollkommen falsch eingeschätzt; ich dachte bei deinen letzten Postings, du würdest die CurrentGen/9thGen schlechtreden und die LastGen/8thGen hochleben lassen wollen.
ist ja schön nur ist one und ps4 gcn 2.0 und die 7970 gcn 1.0^^
 
ist ja schön nur ist one und ps4 gcn 2.0 und die 7970 gcn 1.0^^
Ein gigantischer Unterschied, fast so bedeutend wie der zwischen Skylake und Kabylake. :P Nicht ohne Grund haben viele das nicht GCN 2.0, sondern 1.1 genannt. Und vielleicht hätte es auch besser GCN 1.01 genannt werden sollen.

Aber siehst du, genau das ist das Problem daran, dass du nicht dargestellt hast, was du sagen möchtest: Ich ging bislang davon aus, dass sich dein Architekturverweis gar nicht wirklich auf PS4 vs. 7970 bezog. Wieso? Weil sich das Posting kaum lesen lässt. In diesem hier hattest du mal davon gesprochen...
die ps 4 gpu hatte eine andere architektur als die 7970 und noch dazu 75w tdp und die 7970 300w tdp
...hier dann aber nicht mehr!
wenn du schreibst das die einen gleichen gpu anteil haben und dann andere architekturen vergleichst
Da ersteres Posting für mich völlig unverständlich war, habe ich den Bezug auf PS4 vs. 7970 vergessen und gedacht, es ginge dir plötzlich um GCN vs. RDNA! Wie schon angerissen, ist erster Bezug auch angesichts der zeitgenössischen Bewertung vom Bonair-Architekturupgrade (GCN "2.0"/ "1.1") sehr abwegig.

Ich gebe allerdings trotzdem zu, dass ich dein früheres Posting nach dem vorletzten Posting noch einmal hätte lesen sollen. Das wäre sinnvoller gewesen.
 
Zurück