Vorschau zu Cyberpunk 2077: Mit Raytracing und DLSS befreit durch die Straßen von Night City

Welche Frage soll ich den beantworten, die mit dem Zeit einsparen? Dazu habe ich nie etwas gesagt, um ehrlich zu sein weiß ich nicht mal worauf du hinaus willst...
Kann es sein das du mich verwechselst?

Du packst mich in ne Schublade aus der ich garnicht komm. Aber lassen wir das.

Und was bilde ich mir ein?
Zu tief in die Flasche geguckt? Gute Nacht Internet Rambo!
"Internet Rambo?", "zu tief in die Flasche geguckt", ja o.k. du bist auf dem üblichen netten Level, wo man Info's und Link's liefert.

Die Antwort ist einfach: Metro Exodus=0,7 shading rate, Control mit höchster DLSS Stufe=0,67 shading rate. Siehst du da Zusammenhänge?

Dann gute Nacht...GPU RT+DLSS Experte.
 
?Wenn "er", der sich seit Jahrzehnten unter Anderem mit Engines, Grafik und Spielentwicklung auseinandersetzt einen großen Fortschritt mit der Einführung von RTRT sieht. Ist ja auch nicht so, als würde "er" es nicht anhand ellenlanger Posts mit Querverweisen, Quellen und Analysen belegen, warum "er" das tut...
Entschuldige, aber ich glaube das auch nicht.:D

Du solltest vllt. lesen was er sich bei einer 2070 so vorgestellt hatte und was drüber (mitunter auch von Dir)..., berichtet wurde, Empfehlungen ausgesprochen und Werbung durch den Äther ging. Genau zu so einem Konsumopfer ist er anscheinend geworden und hat etwas, dass er gar nicht oder kaum dazu gebrauchen kann, wofür es hinsichtlich neuer Technologie gedacht war. Man kann das aber auch einfach ignorieren, so weiter machen wie bisher und ist sich dann auch nicht bewusst, was man in den Köpfen so anrichten kann. Manchen Leuten ist das auch schi*tegal, Hauptsache die Kohle stimmt.

Komisch, vor kurzem warst du noch Student, der sich mal mit RT auseinandergesetzt und damit experimentiert hat. Liest sich in deinem jetzigen Statement zumindest anders. Aber so soll es sein. Ich habe es dir eh nicht abgekauft.
 
Du solltest vllt. lesen was er sich bei einer 2070 so vorgestellt hatte und was drüber (mitunter auch von Dir)..., berichtet wurde,
Was denn? Dass die Hardware, wenn mit den neuen Features genutzt, ohne Weiteres spielbare Frameraten erzeugt?:
YouTube
YouTube
YouTube
YouTube

Empfehlungen ausgesprochen und Werbung durch den Äther ging.
Diejenigen, die zu Zeiten der Einführung Turings gedacht haben, mit damals noch überteuert angebotenen Pascals ein Schnäppchen gemacht zu haben, schauen jetzt bei immer mehr Titeln verdutzt aus der Wäsche.

Dann die üblichen schon mehrfach widerlegten Verschwörungstheorien dazu:
Die schneiden dann natürlich auch nur deutlich schlechter ab, weil NVIDIA ja die Treiber manipuliert und absichtlich die alten Karten im Treiber ausbremst, gelle? ;)
Alles wieder ein großer Komplott vom Big Player, um seine Käufer zu veräppeln und die Konsumschafe dazu zu zwingen neue Karten kaufen zu müssen. Einen eigenen Willen haben die ja nicht mehr.

Genau zu so einem Konsumopfer ist er anscheinend geworden und hat etwas, dass er gar nicht oder kaum dazu gebrauchen kann, wofür es hinsichtlich neuer Technologie gedacht war.
Ja was hat man denn nach Erscheinen der Karten schon erwartet? Das bei Zuschalten von RTRT die Frameraten bei 4K auf 160FPS+ ansteigen?

Komisch, vor kurzem warst du noch Student, der sich mal mit RT auseinandergesetzt und damit experimentiert hat.
? Wie kommst Du denn auf den falschen Dampfer? Wo soll ich sowas geschrieben haben?

LG
Zero
 
Zuletzt bearbeitet:
Ich will dir ehrlich gesagt nicht zu nahe treten, aber bei dir sind neuste Technologien immer nur positiv. Überleg dir mal warum es unter DLSS 2.0 (performance [50%], balanced [58%] und quality [67%] shading rate [schon der Begriff ist völlig irreführend]) halo- und ringing artefacts gibt und warum? Liegt es vielleicht daran, dass der ursprüngliche Content ausgetauscht wird? Darüber verlierst du als jahrelanger Experte natürlich kein Wort. Dann schmeißt man "Unschärfefilter" darüber und alles wird gut.

Ich finde es schon grenzwertig, die Schuld jetzt beim Anwender zu suchen, der ist ja zu d*of hätte doch mehr bezahlen sollen. Genau darum geht es. DLSS wurde nicht als Upscalingmethode vorgestellt und um RTRT lauffähig zu bekommen, also dessen Impact abzufedern, in erster Linie wollte man sichtbare Kanten glätten bei Erhöhung des Detailsgrad über native Auflösungen hinaus. Mittlerweile frickelt man bei halber Auflösung (1080p to 540p in performance DLSS2.0/1080p) dann Algorithmen/Matrizen mit 16K Auflösungen über das Bild, weil es "fast" wie nativ aussieht, da gibt es die Artefakte aber nicht. Für eine Schattendarstellung oder paar reale Lichteffekte in Pfützen, wobei der Großteil des Bildes jetzt "glänzen" muss.

Wahrscheinlich sehe ich sowas zu konservativ und nicht als Fortschritt an, wobei man das Image von RT auch als beschädigt ansehen kann und ich sehe manche Dinge einfach nur als übertrieben an, bei einem Technologiegrad der auf keinen Fall veröffentlicht gehört. Das ist nicht mit paar Klicks getan, so wie das sinnbildlich dargestellt wurde. Eher ist der Aufwand riesig und kostet ein Viertel der Spieleentwicklungszeit, verteuert die Entwicklungen extrem. Ist alles etwas wo Nv zielgerichtet mitverdienen kann. Und genau das fällt CD Projekt jetzt auf die Schuhe und fehlende Hardware die ihrem Anspruch gerecht wird. Was denkst du wie viele Finger Nv dafür krum macht?
 
Zuletzt bearbeitet von einem Moderator:
Ich will dir ehrlich gesagt nicht zu nahe treten, aber bei dir sind neuste Technologien immer nur positiv.
Exakt- Denn neuste Technologien haben die Möglichkeit sich durchzusetzen, wenn sie gut sind. Im schlechtesten Fall erhöhen Sie die Vielfalt. Im besten Fall setzen sie neue Standards.
Ich kann da nichts Negatives daran entdecken, zumal ja keiner mit vorgehaltener Waffe gezwungen wird, neue Technologien zu adaptieren.

Überleg dir mal warum es unter DLSS 2.0 (performance [50%], balanced [58%] und quality [67%] shading rate [schon der Begriff ist völlig irreführend]) halo- und ringing artefacts gibt und warum?
Erstens Überschärfung
Zweitens fehlerhafte Vorhersage der Motion- Vektoren.

Liegt es vielleicht daran, dass der ursprüngliche Content ausgetauscht wird? Darüber verlierst du als jahrelanger Experte natürlich kein Wort. Dann schmeißt man "Unschärfefilter" darüber und alles wird gut.
Ein einfacher Unschärfefilter würde aber den Detailgrad der Texturen zerstören. Genau das macht DLSS nicht. Zudem- Was soll schlecht an der Nutzung von Unschärfefiltern sein?
Die gibts in der Rasterisierung zu Hauf.

Ich finde es schon grenzwertig, die Schuld jetzt beim Anwender zu suchen, der ist ja zu d*of hätte doch mehr bezahlen sollen.
Das tue ich ganz und garnicht. Es ist halt bei Erscheinen von Turing ein Poker auf die Zukunft gewesen.
Dennoch hätte jeder, der sich auch nur ein wenig in der aktuellen Entwicklung von Game- Engines befasst hat wissen können, dass sich moderne Titel immer weiter weg von Pascals Wohlfühlzone bewegen.

Genau darum geht es. DLSS wurde nicht als Upscalingmethode vorgestellt und um RTRT lauffähig zu bekommen, also dessen Impact abzufedern, in erster Linie wollte man sichtbare Kanten glätten bei Erhöhung des Detailsgrad über native Auflösungen hinaus.
Es wurden zwei mögliche Optionen vorgestellt. DLSS und DLSS2x wobei ersteres eine Kantenglättung darstellen sollte und zweiteres eine Kantenglättung bei gleichzeitiger Erhöhung der Bildqualität.
Das aktuelle DLSS2.0 hat mit beiden ursprünglich angedachten Verfahren nur mehr wenig zu tun.

Mittlerweile frickelt man bei halber Auflösung (1080p to 540p in performance DLSS2.0/1080p) dann Algorithmen/Matrizen mit 16K Auflösungen über das Bild, weil es "fast" wie nativ aussieht, da gibt es die Artefakte aber nicht. Für eine Schattendarstellung oder paar reale Lichteffekte in Pfützen, wobei der Großteil des Bildes jetzt "glänzen" muss.
Wenn es fast wie nativ aussieht hat es seinen Zweck erfüllt. Man darf ja nicht vergessen welchen Performancegewinn man dadurch erhält und das nicht nur bei half- res Input.
Zudem muss man sich halt auch mal entscheiden. Bei RT heisst es immer, dass man es bei den Spielen aufgrund von Bewegung sowieso nicht wahrnehmen würde, bei DLSS muss dann aber das Standbild mit Lupe herhalten, um darüber herziehen zu können.
Das ist mir ein wenig zu tendenziös. Gerade vor dem hintergrund des kürzlich von mir geposteten Videos, dass die modernen 4K Flachbbildschirme mit ihren vermeintlichen 144Hz aufgrund von Ghosting und Schaltzeiten bzw. Bewegungsunschärfe eben bei dieser einen erheblichen Auflösungseinbruch hinnehmen müssen.
Da kräht aber auch komischer Weise kein Hahn danach und alle finden das Bild Super, weil 4K und 144Hz drauf steht.

Man muss sich da schonmal entscheiden. Die gesamte Video- Wiedergabekette von PC- Spielen basiert auf Tricks, Fakes, Auflösungs- und Wahrnehmungsschummeleien. Wieso beschwert sich da keiner drüber?
Wieso hackt man auf einer Technik rum, die das Zeug hat, die Umstände zu verbessern? Weil sie teuer ist? Weil ein global Player hinter dem Produkt steht? Ernsthaft?

Wahrscheinlich sehe ich sowas zu konservativ und nicht als Fortschritt an, wobei man das Image von RT auch als beschädigt ansehen kann und ich sehe manche Dinge einfach nur als übertrieben an
Das ist ja auch Dein gutes Recht und ich rate jedem, der an RTRT nichts findet, die Finger von entsprechenden Einstellungen zu lassen. Das ist ja das schöne.
Das kann jeder handhaben, wie er will.

bei einem Technologiegrad der auf keinen Fall veröffentlicht gehört.
Dir ist aber schon bewusst, dass die Menschheit mit dieser Einstellung noch in Höhlen wohnen würde. Ab wann hätte sie denn veröffentlicht gehört? Reichen die von mir oben verlinkten Werte etwa nicht, um die Spiele zu spielen?
Genau das ist doch der Beweis, dass die Zeit reif war. Schau Dir doch mal die enorme Entwicklung an, die RTRT seit Erscheinen von Turing hingelegt hat. Am Anfang hätte doch jeder gelacht, wenn man denen erzählt hätte, dass man zwei full path- traced Titel damit spielbar machen würde. Das stand noch unendlich weit in den Sternen.

Das ist nicht mit paar Klicks getan, so wie das sinnbildlich dargestellt wurde. Eher ist der Aufwand riesig und kostet ein Viertel der Spieleentwicklungszeit, verteuert die Entwicklungen extrem.
Das ist einfach nicht wahr.
Gestalte doch mal eine einfache Szene in der aktuellen UE4. Einmal mit fake- Lighting/Light Probing bzw. prebaked (Enlighten &co.) und dann schau Dir mal die Komplexität Deines Projekts an bzw. den Aufwand, den es braucht um eine korrekte Ausleuchtung hinzubekommen. Dann wirds ganz schnell klingeln. Der Unterschied ist gewaltig, weil Du alle Maps gleich behandeln kannst. Interior, exterior- vollkommen egal. Von der Bearbeitungsgeschwindigkeit im Editor nicht zu sprechen. Die Entwicklung/der Test einer Szene geht deutlich schneller von der Hand, da Du auch nicht ewig auf das Preview bzw. die Zwischenberechnung der Beleuchtung warten musst, wenn Du die Szene einem Proof unterziehen willst.

Und natürlich ist es in der jetzigen Übergangsphase ein Mehraufwand. Die Entwickler für die neuen Konsolen bei den Exklusivspielen werden wahrscheinlich jetzt schon mit einem mitleidigen Lächeln im Gesicht zur PC- Coding Unit rüberglotzen. Die müssen nämlich dafür sorgen, dass die neuen Spiele auch mit den altbackenen Techniken noch schön aussehen (und werden trotzdem Schimpfe kriegen, weil man die non- RT Version ja absichtlich schlecht gestaltet hat).

Solche abstrusen Vorwürfe gabs ja bei Metro Exodus, bis man es auf der GDC in einem Talk richtiggestellt hat.
Nämlich, dass man den RTRT Pfad absichtlich nicht ausgereizt hat um das Spielerlebnis für die User möglichst gleich zu gestalten und niemanden zu sehr zu benachteiligen.
Ist es das, was Ihr wollt? Wie auch die Global Illumination von Witcher 3 gestrichen wurde, weils die Konsolen nicht gepackt haben.
Sind dann alle zufrieden, wenn alles auf den kleinsten gemeinsamen Nenner hin entwickelt wird?

Ich glaube nicht.

Ist alles etwas wo Nv zielgerichtet mitverdienen kann. Und genau das fällt CD Projekt jetzt auf die Schuhe und fehlende Hardware die ihrem Anspruch gerecht wird. Was denkst du wie viele Finger Nv dafür krum macht?
Ja- Die sollen ruhig mitverdienen. Betreiben sie ja schliesslich auch einen großen Aufwand um die Technik praxistauglich zu gestalten und immer weiter zu verbessern. Es ist eine Firma. Ohne diese Firmen könnten wir uns das Hobby Computerspiel an den Hut stecken.
Zudem sagte ich ja bereits, dass sich NVIDIA sicher bewusst ist, welche Schlüsselrolle in der Verbreitung von RTRT einem Cyberpunk zukommt. Insofern werden sie alles dransetzen um da einen Showcase deluxe draus zu machen. Die Ambition allein, so viele Techniken wie in sonst keinem Titel vorher zu vereinen, spricht schon Bände.

Wenn die das annähernd spielbar damit hinbekommen, haben sie die Anfangserwartungen sowieso schon weit übertroffen.
Denn Anfangs hat man dieser Technik genau einen Effekt zugetraut und das bei FullHD und 30FPS. Schau Dir die alten Foreneinträge an. Das war ursprünglich die Erwartungshaltung, nachdem die Demos von Battlefield und Tomb Raider gezeigt wurden...

LG
Zero
 
Zuletzt bearbeitet:
Uff 2080TI und "nur" Full HD.
Ich glaube meine RX580 wird mit dem Spiel definitiv Probleme haben. Aber Nvidia ist für mich Apple der Grafikkarten, daher kaufe ich mir auch sicher keine RX Karte.
Abwarten was die fertige Fassung bringt und was die kommenden neuen Grafikkarten noch bringen werden.

Keine Panik. Es ist schwer davon auszugehen, dass das Spiel auch mit einer RX 580 ganz gut laufen wird - die GPU entspricht immerhin ungefähr der Grafikeinheit einer PS4 Pro (tendenziell sogar ein Quäntchen mehr).
Und das ist ja schon die verbesserte Variante der PS4, auf dem Basismodell muss es schließlich außerdem laufen (ich würde an dieser Stelle allerdings dann doch einen recht drastischen Qualitäts- und/oder Performance-Einschnitt erwarten)

RDR2 läuft mit ein paar Detailanpassungen sogar mit einer RX 570/4G ganz gut... wenn man die Details allerdings maximiert, kann man mit Red Dead Redemption 2 sogar eine RTX 2080 Ti auf ~40 Fps niederknüppeln - in Full HD. Und da ist noch nicht mal Raytracing drin.

Es ist sehr wahrscheinlich, dass Cyberpunk 2077 mit vollen (Raytracing-)Details ziemlich anspruchsvoll werden wird, aber ich würde jetzt auch mal davon ausgehen, dass man die Details auch ganz gut anpassen werden kann.

Gruß,
Phil
 
Super Artikel, vielen Dank für den tollen Eindruck :daumen:
Die Trailer hatten mich bezogen auf die Grafik etwas enttäuscht aber so wie ihr schreibt, wird das finale Produkt dann doch deutlich besser aussehen und wohl auch den kauf einer neuen GPU rechtfertigen :ugly:
Da kann man ja schon bald von Glück reden, das Cyberpunk auf November verschoben wurde. Hoffentlich gibt es bis dahin die neue RTX Reihe und Big Navi :devil:
 
Die Trailer hatten mich bezogen auf die Grafik etwas enttäuscht aber so wie ihr schreibt, wird das finale Produkt dann doch deutlich besser aussehen und wohl auch den kauf einer neuen GPU rechtfertigen :ugly:
Hi Blackout,

meinst Du, dass Du das in Worte fassen kannst, was Dich an der Grafik enttäuscht hat. Also ein wenig präziser? Artstyle, Kamera, Technik etc.
Wäre sehr interessant, wenn man das irgendwie greifen könnte, warum Du das so empfindest.

Danke
Zero
 
Hi Blackout,

meinst Du, dass Du das in Worte fassen kannst, was Dich an der Grafik enttäuscht hat. Also ein wenig präziser? Artstyle, Kamera, Technik etc.
Wäre sehr interessant, wenn man das irgendwie greifen könnte, warum Du das so empfindest.

Danke
Zero

Ja klar kann ich das :)
Meine Aussage bezog sich speziell auf die letzte Vorstellung dieser Woche. Gerade der 7 Bereich (Außenbezirk) sah für mich altbacken aus. Die Details am Rand tauchten wenige Meter vor dem Zuschauer auf oder die Texturen wirkten etwas niedrig aufgelöst. Auch in anderen Szenen wirkte es etwas verwaschen.
Für mich kam das Gefühl auf, das man die Xbox One und Playstation 4 Version sieht in 900p.

Die Bilder im Artikel sehen dann wieder deutlich besser aus, so wie ich es mir wünschen würde auf der PC Version (oder den Next Gen Konsolen).

Das Setting gefällt mir sehr gut und ich bin gespannt wie lebendig die Welt wirken wird.
 
Wenn die das annähernd spielbar damit hinbekommen, haben sie die Anfangserwartungen sowieso schon weit übertroffen.
Spielbar nach 7 Jahren Entwicklungszeit und 2 Jahre RTRT? Ja klar...das ist 'ne super Zielsetzung.

Der Beitrag ist mir insgesamt zu lang um auf alles zu antworten, wenn ich hier schon mit "Textwall" vollgemotzt werde, wenn man mehr als 15 Zeilen schreibt.

Was du immer wieder ausblendest und viele andere gerne machen ist, nicht jeder hat eine 2080ti; und nicht jeder kann quality im Preset wählen, darauf stützt du dich aber gerne. Sieh dich einfach mal in "der freien Welt" um, da ist nicht mal eine GTX1070 Standard oder 8GiB VRAM.

Und falls es dich interessiert, ich halte "atemberaubend und noch nie dagewesen" für deutlich übertrieben. Damit fängt man Dau's und du verlangst an der Stelle, jeder von denen sollte sich mit Engines beschäftigen? Da wissen welche nicht mal, wie man ins Mainboard-Bios kommt. Keine Ahnung wo du sitzt und was du machst, oder wovon du träumst aber mit den Innovationen bedient man bisher nur einen kleinen, den kleinsten Teil und realistisch liest sich führt mich völlig anders. Da hilft es auch nicht,dass PCGH einen 5.0GHz O.C. 9900k und eine 2080ti, die beide dann 2K kosten zum testen verwenden und dann meint alles gut. In der Realität sind wir bei 2060 und 2060s, die nicht mal das höchste Qualitätspreset per Treiber zulassen. Anscheinend ist dir das in deiner Euphorie völlig egal.

RTX ist kein Gefrickel? Was bitte hast du bisher darauf programmiert und womit? Nicht nur, dass du das bisher bekannte Balancing deswegen verschieben musst, nein du musst den alten Kramp auch weiter programmieren, oder wie gibst du hybrides RT wieder, dass kann man abschalten und Spiele laufen auf alter Hardware völlig ohne!

Schon DX12 sind 1000-ende Zeilen Code mehr, die jemand programmieren muss und die Hardware bleibt abwärtskompatibel, genauso wie Anteile der Softwareumgebung und Laufzeitkomponenten.

Mir kommt das immer so vor, als kommentierst du nur, anstatt dich damit auch mal tiefergreifend zu beschäftigen.
 
Zuletzt bearbeitet von einem Moderator:
Während ein Redakteur ... im Hotel-Schlafzimmer Vergnügen findet...
Diese Stilblüte musste ich zweimal lesen, bis ich geglaubt habe, dass das wirklich da steht. :lol:Das ist ja beinahe auf dem Niveau des legendären Satzes: "Sie standen an den Hängen und Pisten."

Auf das Spiel freue ich mich wie Bolle, ganz unabhängig von solchen Berichten. Rollenspiel - CDPR - läuft :daumen: (hoffentlich)
 
Schon DX12 sind 1000-ende Zeilen Code mehr, die jemand programmieren muss und die Hardware bleibt abwärtskompatibel, genauso wie Anteile der Softwareumgebung und Laufzeitkomponenten.
Die große Unbekannte bleibt DirectX 12 U und da geht das Dilemma schon los. Was für Hardware gibt es da bisher am Markt? NVidia RTX. Für einen verkaufsträchtigen Einstieg ist das viel zu wenig. Genau das dürfte den Entwicklern die Schweißperlen ins Gesicht treiben.

Auf Steam beherrscht die 1060/1050 das Feld. No Raytracing. So sieht es aus. Marketing 5 setzen. Ohne diesen Support dürfte Cyberpunk aussehen wie jedes andere Spiel.
 
Spielbar nach 7 Jahren Entwicklungszeit und 2 Jahre RTRT? Ja klar...das ist 'ne super Zielsetzung.
Ja- Warum denn auch nicht? Gut Ding will Weile haben. Es ist ja kein Makel einer Technik per se, nur weil sie sich lange in der Entwicklungsphase befunden hat.

Der Beitrag ist mir insgesamt zu lang um auf alles zu antworten, wenn ich hier schon mit "Textwall" vollgemotzt werde, wenn man mehr als 15 Zeilen schreibt.
Argh- ich weiss. My bad. Ich hol deswegen immer so weit aus, weil ich mir davon erhoffe einen besseren Einblick in meine Gedankenwelt schaffen zu können.
Es ist extrem schwierig dem anderen zu vermitteln, was man sagen will oder meint, wenn man ihm nicht direkt gegenübersitzt.

Was du immer wieder ausblendest und viele andere gerne machen ist, nicht jeder hat eine 2080ti; und nicht jeder kann quality im Preset wählen, darauf stützt du dich aber gerne. Sieh dich einfach mal in "der freien Welt" um, da ist nicht mal eine GTX1070 Standard oder 8GiB VRAM.
Deswegen habe ich meine Links zwecks Praxisperformance ja ausschließlich mit der von Dir als nicht praxistauglich bezeichneten 2070 non Super gepostet. Mit 1080p und 1440p. Die ist im Augenblick für 389,-€ zu haben.
Weit entfernt von den von manchen hier kolportierten 1500,-€, die man ja in gewissen Kreisen als Minimum ansieht, um RT "vernünftig" nutzen zu können.

Und falls es dich interessiert, ich halte "atemberaubend und noch nie dagewesen" für deutlich übertrieben.
Naja- Szenenweise ist es halt einfach so, dass die Vorstellung in Richtung Rendertrailer geht.

Damit fängt man Dau's und du verlangst an der Stelle, jeder von denen sollte sich mit Engines beschäftigen?
Nein- verlange ich nicht. ich verlange nur, dass wenn man mir unterstellt, nicht zu wissen wovon ich rede, mich auffliegen zu lassen bzw. meine Darstellungen zu widerlegen, indem man die Probe aufs Exempel durchführt.
Ich gebe auch letztendlich für den Interessierten sehr genaue Hinweise, wie das für jeden zu bewerkstelligen ist. Wenn man mir unterstellt, Blödsinn zu schwafeln, oder Unwahrheiten zu verbreiten, so muss sich dieser schon die Mühe machen, z.B. die Kostenlose Unreal Engine runterzuladen und eben ein kleines Projekt zu erstellen. ist mittels Blueprint inzwischen wirklich kein Thema mehr. Und danach trennt sich dann die Spreu vom Weizen, weil man in der Praxis dann sehr genau sehen kann, was ich mit meiner Wall of Text wirklich meine.

Da wissen welche nicht mal, wie man ins Mainboard-Bios kommt.
Absolut- Aber mal ganz ehrlich. Bezüglich einer Kaufberatung verlässt man sich ja auch ein wenig drauf, dass das erstandene Produkt jetzt nicht unbedingt morgen schon ein Auslaufmodell ist.
Würdest Du respektive der Entwicklung der modernen Engines heute noch ruhigen Gewissens eine Pascal- karte empfehlen?

Keine Ahnung wo du sitzt und was du machst,
Ich bin GF in einem mittelständischen Systemhaus

oder wovon du träumst
Seit ich 6 Jahre alt bin, häng ich am Computer. War zwischenzeitlich in einer damals berühmten coder und releasegroup auf dem C64 tätig und habe seitdem meinen Spaß an Spielen nicht verloren.
Derzeit bin ich dabei Vorbereitungen zu treffen, in die Spiele- Entwicklung einzusteigen, weil es erstens das Geschäft zulässt und das zweitens meine nie erloschene Passion ist.
Soviel zum vermeintlichen Studenten ;)

aber mit den Innovationen bedient man bisher nur einen kleinen, den kleinsten Teil und realistisch liest sich führt mich völlig anders.
Ich kann nur wiederholt betonen, dass ich diesen ganzen Innovationszyklus innerhalb der letzten Jahrzehnte schon X- Fach mitgemacht habe. Insofern ist das im PC- Sektor vielleicht für die jüngere Generation neu, was da gerade passiert. Für mich ist es nur Iteration XY.
Ich bin zu Zeiten in den PC- Sektor eingestiegen, wo man sich seine Soundkarten für die Centronics- Schnittstelle selbst zusammengelötet hat. Wo man mit phreaking noch kostenlos in alle Mailboxen dieser Welt gelangt ist und man sich auch nicht zu schade war, für die Effizienz mal ein par Stunden zusammen am Assembler- Code zu knobeln.

Da hilft es auch nicht,dass PCGH einen 5.0GHz O.C. 9900k und eine 2080ti, die beide dann 2K kosten zum testen verwenden und dann meint alles gut. In der Realität sind wir bei 2060 und 2060s, die nicht mal das höchste Qualitätspreset per Treiber zulassen. Anscheinend ist dir das in deiner Euphorie völlig egal.
Es gibt nicht nur 9900k und 2080ti oder 2060. Es ist für mich immer ein Zeichen letztendlich am Thema uninteressiert zu sein, wenn man diesbezüglich mit Schwarz/Weissvergleichen polarisieren will oder einen Vergleich dazu forciert. Jeder kann doch nach seinem eigenen Empfinden und Geldbeutel/Ansprüchen entscheiden.

Hat man keinen Bock auf RTX, stellt man es eben aus und hat zumindest bei der 2060 noch den Vorteil von DLSS, wenn unterstützt, zu profitieren. Ich habe keine Ahnung warum hier immer mit aller Gewalt versucht wird, demjenigen, der sich ein Produkt kauft, die Mündigkeit absprechen zu wollen und ihn in eine nicht vorhandene Abhängigkeit zum Hersteller hineindiskutieren zu wollen. Muss doch jeder selbst wissen, was er will und worauf er Wert legt.

RTX ist kein Gefrickel? Was bitte hast du bisher darauf programmiert und womit?
C#, C++, Unity und UE4 bis jetzt mit Samplecodes im Visual Studio und dem beliebten Shadertoy.

Nicht nur, dass du das bisher bekannte Balancing deswegen verschieben musst, nein du musst den alten Kramp auch weiter programmieren, oder wie gibst du hybrides RT wieder, dass kann man abschalten und Spiele laufen auf alter Hardware völlig ohne!
Ja- Aber das ist ja nicht die Zielsetzung, dass es immer so bleiben wird. Es wird ganz klar forciert, dass das Primäre- Rendering künftig über Rays erfolgen kann. War ja die Überraschung in Quake 2 RT und Minecraft RT doch ziemlich groß, dass das Rendering mittels Primärstrahlenauswertung resourcentechnisch sogar deutlich genügsamer war, als ursprünglich angenommen. Deshalb waren die Projekte ja auch überhaupt erst umsetzbar.
Sowas merkt man aber halt auch erst wirklich, wenn man es mit dem aktuellen Stand der Forschung am lebenden Objekt exerziert. Es gibt Dinge, über die man in der Theorie noch so sehr bzw. lange sinnieren kann, die Treffsicherheit in Sachen Praxis wird dadurch nicht mehr höher.

Weiter im Text ->Da aufgrund der Aufgabenstellung das Rendern durch Raybeschuss erhebliches Parallelisierungspotenzial und Beschleunigungspotenzial hat, sind durch RTRT erst wieder RICHTIGE Leistungssteigerungen über die Hardware denkbar. Multi GPU, SLI, Big/Little- All das hat auf einen Schlag wieder Potenzial auf verwertbare Leistungssteigerung.
Wenn sich die Entwicklung fortsetzt, haben die RT Karten mit Raybeschuss schon übernächste Generation das Leistungspotenzial unserer Rasterkandidaten eingeholt. Einhergehend mit entsprechenden Vorteilen in der Qualität der Szene und auch einer möglichen Szenenkomplexität geschweigedenn der möglichen Szenendynamik.

Vielleicht wird man ein leichtes Rauschen im Bild noch längere Zeit in Kauf nehmen. Aber das ist der Tausch, den man für ein schlüssiges Renderbild vorerst wohl hinzunehmen ist.

Schon DX12 sind 1000-ende Zeilen Code mehr, die jemand programmieren muss und die Hardware bleibt abwärtskompatibel, genauso wie Anteile der Softwareumgebung und Laufzeitkomponenten.
Der Init ist unkompliziert. Die anderen Zeilen Code sind einmal generiert und wenn effizient auf 100erte andere Titel ausgerollt.... Wobei Du natürlich damit absolut recht hast, dass der Aufwand eine Zwischen- bzw. Hybridlösung zu pflegen tatsächlich äußerst unangenehm ist.
Deshalb ist es wichtig, dass ein Technologieswitch zeitnah erfolgt.

Mir kommt das immer so vor, als kommentierst du nur, anstatt dich damit auch mal tiefergreifend zu beschäftigen.
Das ist in Ordnung. Wie ich bereits oben erwähnt habe, kann man durch geschriebenen Text Informationen nur bruchstückhaft transportieren, wohingegen man im live- Gespräch sofort mitbekommt, wo und ob eventuell Erfahrungen oder Kompotenzen dahinterstehen.

Aber das ist halt nunmal so.

LG
Zero
 
Zuletzt bearbeitet:
Die große Unbekannte bleibt DirectX 12 U und da geht das Dilemma schon los. Ohne diesen Support dürfte Cyberpunk aussehen wie jedes andere Spiel.

Soll nur Nv PC intern so sein, erstmal. Die "Froschaugenoptik" ist aber egal in welchem, in jedem Bild erkennbar (ich ahne nunmehr Böses...;)). Die Leistung reicht hinten und vorne nicht. Crysis lässt grüßen, 30fps....:D.

Cyberpunk 2077: Ray-Traced Effects Revealed, DLSS 2.0 Supported, Playable On GeForce NOW

Wobei das GFN Support sein könnte.
 
Soll nur Nv PC intern so sein, erstmal. Die "Froschaugenoptik" ist aber egal in welchem, in jedem Bild erkennbar (ich ahne nunmehr Böses...;)). Die Leistung reicht hinten und vorne nicht. Crysis lässt grüßen, 30fps....:D.
Es wäre mehr als akzeptabel, wenn es mit next- Gen Settings in 4K 30FPS machen würde. Dafür ist so ein Setting ja schliesslich da.
Zudem trügt Dich die Erinnerung ein wenig. Mit einer zur damaligen Zeit state of the art 8800 GTX war man eher in den 15er bis 20er Regionen mit hohen Settings unterwegs:
YouTube
und entgegen der Videobeschreibung kann ich da nur Very High Settings sehen und keine Ultra Settings. Schliesslich wurde ja DX10 mit höheren Textureinstellungen etc. noch nachgeliefert.

Und dabei darf man nicht vergessen, was man damals für die Karten hinlegen musste.
New Ultra High End Price Point With GeForce 8800 Ultra

Da hat man auch entspannte 1000,-€ für ne 8800GTX Ultra ausgeben können. Wird nur inzwischen von vielen ausgeblendet. Damals gab es aber entgegen heutiger Zeiten noch positive Stimmen, dass man dem User überhaupt ermöglicht, auch "unvernünftig teure" Hardware zu erstehen, auch wenn man auch dort schon Untergangsszenarien gemalt hat, dass es ab jetzt dann bald keine Karten mehr für unter 1000€ geben würde...
Heute wird der Hersteller gekreuzigt und gesteinigt, wenn er High- End Produkte auf den Markt wirft, weil man es erstens nicht mehr gewohnt ist, so viel Geld für Hardware auszugeben und zweitens, weil sich dann deshalb einige Gruppen "vom sozialen Leben2 ausgeschlossen fühlen,

Dennoch- Die Userkommentare inkl. der Argumentationen waren damals wie heute die gleichen, wie man am obigen Link auch nachlesen kann.
Wie bereits weiter vorher beschrieben. Alles schon x- Mal mitgemacht mit dem Unterschied, dass man heute eben eher noch fortschrittskritischer und besitzstandswahrender eingestellt ist.

LG
Zero
 
Zuletzt bearbeitet:
Was? Bitte klick nochmal durchs www, 8800gt, 8800gts (320/640) und 8800gtx. 1000 Euro??? Letztere kostete MSPR 599$, der Rest war deutlich preiswerter zu haben. Ich habe die 320bit noch hier liegen. Voll funktionsfähig. Ich glaube die hat 300-379 Euro gekostet.:D

Edit sagt: Habe nochmal geschaut die Preisentwicklung sagt unter 300. Die Rechnung habe sich sicher nicht mehr, vllt. im OVP. Gab G80 und G92. Du meinst sicher die Ultra (Extreme), die kostete über 600. 1k+ kann ich mich nur an die Geforce 2/Ultra (Leadtek) erinnern und irgendwann die Titan. Damals war das ein irrer Preis, TV out inklusive. Elsa verlangte auch deutlich über 1.3k.
 
Zuletzt bearbeitet von einem Moderator:
Was? Bitte klick nochmal durchs www, 8800gt (320), 8800gts und 8800gtx. 1000 Euro??? Letztere kostete MSPR 599$, der Rest war deutlich preiswerter zu haben. Ich habe die 320bit noch hier liegen. Voll funktionsfähig. Ich glaube die hat 300-379 Euro gekostet.:D

Wie immer- Mehrwertsteuer und €- Bonus nicht vergessen. Die $ Angaben sind immer netto. Ich hab den Link zu den Preisen geliefert.
Hier nochmal:
New Ultra High End Price Point With GeForce 8800 Ultra

LG
Zero
 
Naja, dazu muss man wissen das der G80 die Revolution war und sich seit dem kaum was geänderte hatte, der ist halt legendär und Nv zerrte lange davon. Es nach dieser Hochpreisphase eine stillschweigende Vereinbarung gab, die Preise für GPU's nicht ausufern zu lassen, weil es zu einem massiven Einbruch im Absatz für dGPUs kam. Nv hat sich tatsächlich niemals daran gehalten, war aber nicht immer schneller und verbrauchte damals auch mehr.

Immer wenn sie unter Druck waren, die Presie aber annehmbar waren. Extravaganz auf der letzten Rille mal aussen vor. Heute kostet so ein Ultra knapp 3000, nur so viel dazu.
 
Mal was zum Inhalt, der Inszenierung: Ich kann mir beim besten Willen nicht vorstellen, dass sie The Witcher 3 erreichen oder gar überbieten können. Und falls doch, wäre der Spiele-Oscar überfällig.

Warum ich das gerade jetzt schreibe? Nun, ich sitze nach wie vor an meinem nunmehr dritten Durchspielversuch von The Witcher 3. Nach fast 150 Stunden des Erkundens habe ich vorhin (das zweite Mal in zwei Jahren) die Szene rund um den Uma-Fluch durchlebt. Dieser Teil des Spiels zeigt in seiner ganzen, schier grenzenlosen Pracht, warum The Witcher 3 ein Meisterwerk ist. Diese Mischung aus Atmosphäre, Charakteren, Sound, Dialogen und der Kontrast zwischen Witz und Ernsthaftigkeit sucht ihresgleichen. In einem Moment kommt man aus dem Schmunzeln nicht heraus und im nächsten findet man sich beinahe mit Tränen in den Augen wieder. Das ist großes Kino und eine verdammt hohe Messlatte. Der November kann gar nicht früh genug kommen.

MfG
Raff
 
Zurück