News Cyberpunk 2077: Phantom Liberty mit Pathtracing-Verbesserungen [Gerücht]

Ich sehe da kein Verlust für AMD. Cyberpunk 2077 ist und bleibt ein unfertiger Haufen.
Mir geht es um die Technik, nicht das Spiel. AMD hätte RT erst einmal ignorieren und sich voll auf Rasterleistung konzentrieren sollen. Wäre auch gut im Hinblick auf die aktuellen Konsolen gewesen. In dem Zuge wäre etwas Eigenes nicht schlecht gewesen. So läuft man Nvidia immer nur hinterher.
 
ja amd muss echt mal gas geben und spezialkerne entwickeln. wenn sie das nicht bald tun sind sie schneller weg als sie gucken können. schön währe es wenn sie zu weinachten plötzlich ewine karte aus dem hut zaubern die die 4090 in die tasche steckt in jeder hinsicht und die dann vieleicht das gleiche kostet. das würde nvidia so unter druck setzen das die preise runter eghen und sie den richtig krassen mist auspacken müssten. nicht immer nur beschnittten und so
 
Ob der Markt es haben will oder nicht ist egal, es ist beschlossen und wird so kommen immer mehr und mehr. Bis Raster nur noch eine Erinnerung ist.
 
Frage mich einfach was die viele Arbeit noch bringt, wenn man dann in Zukunft doch Unreal5.x nutzen wird.
Cyberpunk 2077 ist halt das aktuelle nVidia-Showcase. Irgendwann wird es ein anderes Spiel sein. Pathtracing in CP2077 ist eben auch "nur" eine Techdemo und zeigt, wohin die Reise gehen wird.

Ob der Markt es haben will oder nicht ist egal, es ist beschlossen und wird so kommen immer mehr und mehr. Bis Raster nur noch eine Erinnerung ist.
Was auch gut so ist. Irgendwann muss das alte halt weg.
 
Ich finde es irgendwie total passend, dass nvidia das Game mit dem schlimmsten Launch-Desaster aller Zeiten (und das einzige AAA-Game das jemals nachträglich wegen techn. Mängel aus dem PS-Store entfernt wurde) als Showcase für seine Marketing-Technologien verwendet. Passt auch gut zum meinem allgemeinen Empfinden über CPR.

Außer Marketing nix gewesen - sozusagen.Da passt nvidia mit seiner "Frame Generation" und "RT-Technologie" gut dazu - ???
Ob der Markt es haben will oder nicht ist egal, es ist beschlossen und wird so kommen immer mehr und mehr. Bis Raster nur noch eine Erinnerung ist.
Ob der Markt es haben will oder nicht ist egal, es ist beschlossen und wird so kommen immer mehr und mehr. Bis Raster nur noch eine Erinnerung ist.
hahaha, ja klar. das würde aber min. noch 10-15 Jahre dauern denn die aktuelle Konsolengeneration die noch min. 4-5 Jahre aktuell sein wird (wenn nicht länger) ist meilenweit davon entfernt, und auch die neuesten GPUs sind das. und auch die kommende Konsolengeneration die wohl auf den GPUs der aktuellen oder nächsten Generation basieren wird, wird es nicht schaffen alles in RT darzustellen.

und bis dahin hat nvidia schon längst das nächste Marketing-Pferd durch's Dorf getrieben - sofern sie dann überhaupt noch im Markt für dezidierte GPUs sind und es einen solchen aufgrund von Cloud-Gaming und APUs dann überhaupt noch gibt.
 
Zuletzt bearbeitet:
kann ich echt nicht mehr nach vollziehen. also da ist nvidia und die bauen ki kerne und andere spezialkerne in ihre grafik, schlicht weil sie erkannt haben das dies die zukunft sein könnte. andere firmen, also cdpr, denken sich damit kann man den geilen schei$$ machen und kohle scheffeln.
das ist jetzt ein vollkommen normaler vorgang, das gibt es quasi täglich. da beide firmen das selbe interesse haben kooperieren sie und machen zusammen den richtig geilen schei$$.

amd denkt sich sie können die technik von anno dazumal einfach übertackten und von allem mehr machen, dann wird das schon. sie setzen nict auf innovation oder folgen konzepten die erarbeitet wurden. es ist ihnen quasi egal ob ihre hardware am ende nix taugt.

und dann kommen amd fanboys aus allen löchern und diffamieren nvidia weil sie das tun was man erwartet, nämlich neue technologien entwickeln. nicht vergessen wir reden hier von techfirmen, die leben davon neuen schei$$ zu entwickeln und dann teuer zu verkaufen um den nächsten kram zu entwickeln. ist ihr job. amd macht ihn leider mittlerweile echt mies. und hey, das ist jetzt nicht meine schuld, nur weil ich auf die realität hinweise. peace
Bist du Legastheniker? Ich kann gerade nicht nachvollziehen, warum du zwar Punkte am Satzende machst, danach aber jedes Mal klein weiterschreibst. Du beginnst ja sogar den ersten Satz klein. Warum? Ist es so schwer, ab und zu mal die Großschreibtaste zu betätigen? Wörter zumindest am Satzanfang groß zu beginnen, würde die Lesbarkeit deines Kommentars erheblich aufwerten.
 
Bist du Legastheniker? Ich kann gerade nicht nachvollziehen, warum du zwar Punkte am Satzende machst, danach aber jedes Mal klein weiterschreibst. Du beginnst ja sogar den ersten Satz klein. Warum? Ist es so schwer, ab und zu mal die Großschreibtaste zu betätigen? Wörter zumindest am Satzanfang groß zu beginnen, würde die Lesbarkeit deines Kommentars erheblich aufwerten.
korrekt, ich schreibe immer alles klein und ja es ist mir egal.
 
Diese Einstellung zeichnet sich auch in deinen Inhalten ab. Wurscht was man da schreibt, Hauptsache man schreibt.

Zum Thema
Da nicht vorab trainiert werden kann, sondern ich Echtzeit, wird das Ergebnis nicht sonderlich scharf, weswegen es auch erstmal nur auf die "hotspots" angewandt zu werden scheint. Also die Punkte mit der höchsten Dichte an Strahlenkollisionen. Das ist gut, denn dann wird dieser bisher unschöne Bereich etwas beruhigt und das Bild aufgewertet. Wie das großflächig passieren soll, im hoffentlich nächsten Schritt, das bleibt abzuwarten, denn man kann j nicht das ganze Bild mindern. Auch Frage ich mich, wie gut das mit den DLSS Stufen skalieren wird. Im Idealfall gar nicht (für die Optik) und dieser Bereich wird immer die Ausgangsauflösung verwenden. Nur das würde eben einenaximalen Bildratenverlust bedeuten, was Nvidia bestimmt nichtachwn wird.

Auf jeden Fall freue ich mich über eine Linderung dieses Problems und bin gespannt wie es weitergeht.
 
Da nicht vorab trainiert werden kann, sondern ich Echtzeit, wird das Ergebnis nicht sonderlich scharf, weswegen es auch erstmal nur auf die "hotspots" angewandt zu werden scheint.
Es ist von der Optik besser als RESTIR, spart Berechnungszeit und liegt näher am Referenzbild.
Ich weiß nicht, wie du darauf kommst, dass es nicht besonders "scharf" sein soll?
Kann ja nicht vorab trainiert werden, da die Szenen dynamisch sind.
 
Sie tun es, weil sie es müssen. Wäre AMD nicht auch auf den RT-Zug aufgesprungen, wäre ihr Marketshare noch geringer. Nur weil für dich RT keine Relevanz hat, heißt das nicht, dass der Markt es nicht haben will.
Ob es für mich relevant ist oder nicht, ist unerheblich. AMD hat (noch) die Konsolen. Sie hätten den RT Kram aussitzen bzw. sogar ignorieren und die aktuelle Hardware auf herkömmliche Weise voll ausreizen müssen.
AMD stand vor der Aufgabe statt FHD30 high und (meist skaliertes) 4K30 vlow - low den Kunden 4K60 high mit bombastischen Texturen und HDR zu bieten. Stattdessen gibt es Pseudo-RT mit RDNA2. Selbst nicht ganz neue Titel werden auf den Konsolen von maximal 1440p mit 60 FPS ohne RT hochskaliert.
Und bitte mache Dich nicht lächerlich und behaupte AMD Käufer legen sich die Karte zu, um Raytracing zu genießen.
 
Zurück