News The Witcher 3: Ray-Tracing-Patch von Fans bringt erhebliche Leistungssteigerungen

Ich spiele Next Gen mit nem 13700k und ner RTX 4090, das einzige was bei mir zu Abstürzen führt, ist Frame Generation. Ansonsten läuft es absolut stabil, maxed out Setting inkl. RT auf 3840x1600 zwischen 75 und 100 fps durchschnittlich.
Sorry aber das liest sich doch arg nach „Ich habe die dickste GPU die es gibt für viel Geld gekauft und auch eine neue CPU.
Verstehe nicht was alle haben. Bei mir läuft es super.
Eure Armut kotzt mich an.“
 
Sorry aber das liest sich doch arg nach „Ich habe die dickste GPU die es gibt für viel Geld gekauft und auch eine neue CPU.
Verstehe nicht was alle haben. Bei mir läuft es super.
Eure Armut kotzt mich an.“
Liest sich tatsächlich genau so.
Aber das ist das gleiche Gebaren, was Leute an den Tag legen, die 'ne dicke Protz-Karre fahren.
Solche Personen müssen erst mal googeln, was Understatement bedeutet.

Zum Thema: es ist in der Tat so, dass der Ini Tweak ein bisschen mehr Leistung herauskitzelt. Mir scheint es so zu sein, dass CDPR die RTGI Implementierung nur unter Berücksichtigung von DLSS 3 Frame Generation gemacht hat. Wenn man also nur das "alte" DLSS nutzen kann, darf man mit einem massigen Performance-Hit rechnen.

Ich sach nur Portal RTX, da ist es den Entwicklern gelungen, gepriesen sei GabeN :hail:Hätte CDPR doch auf den Launch von RTX Remix gewartet, vielleicht würde es damit ja besser laufen :lol:
 
Zuletzt bearbeitet:
Liest sich in der Tat genau so.
Aber das ist das gleiche Gebaren, was Leute an den Tag legen, die 'ne dicke Protz-Karre fahren.
Solche Personen müssen erst mal googeln, was Understatement bedeutet.

Zum Thema: es ist in der Tat so, dass der Ini Tweak ein bisschen mehr Leistung herauskitzelt. Mir scheint es so zu sein, dass CDPR die RTGI Implementierung nur unter Berücksichtigung von DLSS 3 Frame Generation gemacht hat. Wenn man also nur das "alte" DLSS nutzen kann, darf man mit einem massigen Performance-Hit rechnen.
Überraschung das das bei dem Titel passiert, der schon damals so hart von Nvidia gesponsored wurde, das er 3 Monate nicht auf AMD Karten lief wegen Hairworks, um die GTX 970 zu bewerben. Und jetzt, oh Schauder läuft das nur auf den massiv überteuerten 4000ern gut, weil nur die "können" DLSS 3.

CD Projekt ist einfach ein Verein voller geldgeiler Larrys. Das wäre jetzt die Möglichkeit gewesen nach Cyberbug 77 mal wieder bisschen Fans zu umschmeicheln. Aber nein. Kohle von der Lederjacke ist wichtiger.
 
Steht nicht in der Beschreibung dass nur gi abgeschwächt wird?

es kommt ja nicht nur auf den ray count, sondern auch auf die bounces (strahltiefe) an (wie oft ein lichtstrahl zw. oberflächen abgestrahlt wird). da dran ändert die mod ja nichts.

weniger rays und 8 bounces benötigen mehr leistung als mehr rays und z.b. nur 2 bounces. das merkst du schon in Cinema 4D, wie drastisch sich auf einmal die renderzeit ändert. dafür "sehen" sich bei nur 2 bounces gegenübergestellte spiegel auch nur 2 mal. die 3. spiegelung ist dann einfach schwarz.

also "nur" GI ist schon mehr als "nur" GI ^^
 
Die letzten Wochen geschlafen? Einfach mal die Links durchklicken und staunen.
Kann ich 0 Nachvollziehen. Series X lol
Dafür hast du jetzt viele Likes bekommen. Ist doch auch was schönes oder ? lol
 
Kann ich 0 Nachvollziehen. Series X lol
Dafür hast du jetzt viele Likes bekommen. Ist doch auch was schönes oder ? lol
Wenn dein Username grün gefärbt ist, ist es fast egal, was du schreibst, die Likes kommen automatisch ;-)
Und noch was zum Thema: Wenn du das auf der Konsole zockst, also jener Version, die nicht solche Probleme, wie die PC-Version hat, dann bist du schlicht am falschen Platz, um zu fragen "was ist jetzt eigentlich kaputt", merkst du das nicht? Fakt ist, dass die PC-Version von Witcher 3 mit Next-Gen-Update bei vielen (noch) für Probleme sorgt. Auch Computerbase hat große Probleme mit der PC-Version, hier nachzulesen. Meinst du, wir ziehen uns das aus dem A*sch, nur um dich zu ärgern?
 
Habt ihr denn auch so merkwürdige P1 Schwankungen bei RAM-OC? (So man denn ein einfaches XMP-Profil bzw. harmlose DDR4-3600 CL16-16-16-36@1,35V Timings so bezeichnen kann...)

Das RAM-Kit habe ich mit Karhu und Memtest86 überprüft, läuft den Test auf dem ASUS ROG STRIX Z590-A Gaming Wifi mit XMP problemlos durch und scheint okay zu sein.

Nur auf dem ROG STRIX Z690-A Gaming Wifi D4 brechen die P1 FPS ab DDR4-3600 CL16 in Verbindung mit der RTX 3090 brutal weg und es kommt bei jedem zweiten Neuladen zu Grafikfehlern.
Denn RAM auch getestet wenn du GPU ausgelastet wird?
Oftmals wird der RAM dann deutlich wärmer weil es im Gehäuse deutlich wärmer wird

Nimm Karhu und lass zwei Kerne Über für zb. Heaven Benchmark
Wenn es dann nach zwei Stunden läuft sollte es immer laufen.
 
Zuletzt bearbeitet:
Sorry aber das liest sich doch arg nach „Ich habe die dickste GPU die es gibt für viel Geld gekauft und auch eine neue CPU.
Verstehe nicht was alle haben. Bei mir läuft es super.
Eure Armut kotzt mich an.“

Liest sich tatsächlich genau so.
Aber das ist das gleiche Gebaren, was Leute an den Tag legen, die 'ne dicke Protz-Karre fahren.
Solche Personen müssen erst mal googeln, was Understatement bedeutet.

Au weia, da kommen die gekränkten Egos zum Vorschein..... :lol:was hier auf Krampf für Zusammenhänge konstruiert werden, Wahnsinn. Vielleicht mal lieber an den eigenen, offensichtlich vorhandenen Komplexen arbeiten, anstatt anderen welche zu unterstellen. :daumen: Welchen Zweck es außerdem haben sollte, mit Pseudonym online auf reich machen zu wollen, erschließt sich mir ohnehin nicht - vielleicht könnt Ihr mich mit Eurer Weisheit erleuchten?

Ich wollte mit meiner Aussage einfach nur verdeutlichen, dass das Spiel ziemlich genau so läuft, wie ich es erwartet hatte, es aus meiner Sicht also gut skaliert. Außerdem kann ich die genannten Glitches überhaupt nicht bestätigen - dafür sollte ja weniger die Leistung der GPU, als viel mehr die Entwicklung der Software verantwortlich sein.
 
Habt ihr denn auch so merkwürdige P1 Schwankungen bei RAM-OC? (So man denn ein einfaches XMP-Profil bzw. harmlose DDR4-3600 CL16-16-16-36@1,35V Timings so bezeichnen kann...)

Das RAM-Kit habe ich mit Karhu und Memtest86 überprüft, läuft den Test auf dem ASUS ROG STRIX Z590-A Gaming Wifi mit XMP problemlos durch und scheint okay zu sein.

Nur auf dem ROG STRIX Z690-A Gaming Wifi D4 brechen die P1 FPS ab DDR4-3600 CL16 in Verbindung mit der RTX 3090 brutal weg und es kommt bei jedem zweiten Neuladen zu Grafikfehlern.
und schau mal ob nicht noch was geht mit deinem RAM

Oftmal geht einiges mit Subtimings



 
@Berserkervmax Danke für die Links und den Tipp mit Heaven und Karhu!

Damals beim Ryzen 5950X wurde das RAM-OC dann tatsächlich beim Zocken durch zu hohe Temps im O11 Dynamic instabil.

Hier geht es mir erstmal um das XMP-Profil und vor allem die WHEA-17-Fehler (siehe Forum) des Asus ROG STRIX Z690-A Gaming Wifi D4. Die kommen selbst bei DDR4-2133 und ohne Wärmeentwicklung bei egal welchem RAM-Kit.

Wenn ich das gelöst habe, kümmere ich mich um Tuning! :daumen:
 
Zurück