Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Ich wäre da vorsichtiger und würde nicht schreiben, es wird deutlich schneller
Das muss es doch garnicht. Reicht ja schon, wenn es in den Framezahlbereichen, die unter Umständen weh tun können (unter 60FPS) 50% mehr Performance bietet.
Das ist immerhin das Performanceplus einer Grafikkartengeneration, die einen größeren Sprung hinlegt. Und das kriegt man jetzt bei der RTX Generation on Top zu den 30-40% Performancezuwachs.

als derzeitiges DLSS. 2.x war/wurde schon immer lernfähig vorgestellt, muss für die entgültige Ausgabe des Bildes aber vernetzt sein, belastet also zusätzlich den Datenstrom auf dem Netzwerk.
Bei Wolfenstein und Deliver us the moon läuft es auch ohne online- Verbindung. Wie also kommst Du drauf, dass es vernetzt sein muss?

Ob das den Inputlag fördert ist nicht klar, aber zu vermuten.
Da der zeitliche Rechenanteil der Tensorcores pro Bild abgeschlagen wird, fördert es den Input- Lag, wie jedes andere Bildgebende Verfahren im post- processing und ist somit eher gekoppelt an die tatsächliche FPS Rate, die letztendlich damit erreicht wird. Also eher wird der Input- Lag durch höhere Framezahl niedriger als höher.

Nv führt aus, dass es azu mehr Vorlagen braucht die in höherer Ausgabeauflösung eingelesen werden müssen (es braucht also mehr Zeit bei der Entwicklung und dem Anlernprozess) und ein ständiger Abgleich mit Bildvorlagen von nöten ist, natürlich ausgehend von der Bildqualität im direkten Vergleich mit TAA, nicht zu vergessen.

DLSS 2.0 zeichnet sich doch lt. nvidia eben gerade dadurch aus, eben kein explizites Training durch das anzulernende Spiel mehr durchlaufen zu müssen (12:22-12:50), sondern aus den bis jetzt eingelesenen Daten inzwischen schon universal bei allen Spielen entsprechende Veränderungen herbeiführen zu können.

Die Kombination mit dem DLSS Netzwerk ist dabei wohl unumgänglich, also ein weiterer Faktor der die Framerate beeinflussen kann und Zeit kostet.
Es gehen keine Daten vom Netzwerk rein und auch nicht raus. Somit ist der Inferencing Datensatz (wie es nvidia ebenso beschreibt) unabhängig des Netzwerks, also standalone.
12:50-13:16

Ob schneller oder am schnellsten, ist nicht klar und schneller als nativ auch nicht.
Die Benchmarkwerte lügen nicht? Und ansonsten hab ich nur noch Fragezeichen im Gesicht? Es steht für Dich nicht fest, dass DLSS nicht schneller als nativ rechnet?
Mensch- Das ist mit DER Faktor, der DLSS überhaupt interessant macht.

Du bist bei dem Thema immer so euphorisch und legst dich gleich abschließend anhand theoretischer Werte fest, Paxisnah bleibt die bessere Option,
Ja- öhm... Genau? Wie glaubst Du sind die Messwerte und Bildvergleiche entstanden? Benchmarkwerte aus der Praxis sind für Dich Theorie?

bewerten wenn alles sichtbar gut läuft.
Ja- Anhand der vorhandenen DLSS Software feiern alle Publikationen unabhängig DLSS 2.0 als den großen Wurf.

Ich bin da tatsächlich skeptischer, kann auch control 2.x Nv bedeuten, ohne besondere Vorteile und hängt ja auch davon ab welche Hardware benötigt wird und wie es sich verbreitet.
Da man eben davon weggeht, dass Einzeltitel ein langes Training durchlaufen müssen und auf eine universelle Inferencing- Datenbasis zurückgreifen kann, also es für jedes Spiel unabhängig diese Option gibt, geht man eben genau auch weg von "control 2.x NV".
Wenn die GPU 4x4 matrix- Berechnungsbeschleunigungseinheiten hat (NV nennt die Tensor- Cores), kann die das ebenso durchführen.

Wichtig- Wir reden hier nicht von DLSSx2 oder 2X, welches meines Wissens noch nicht in freier Wildbahn gesichtet wurde, sondern von DLSS 2.0, wie es in dem von mir verlinkten analyse- Video bezeichnet wird. Ich fürchte deshalb entsteht hier gerade etwas Verwirrung.

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Weil du damit das DNN trainierst. Du fütterst das Ding also ständig. Hoffen wir mal nicht das endet in einer DLSS/DNN Cloud. Das DLSS Framerendering kann auch nur aktiv sein, wenn die Ausgabezeit unter nativer Auflösung länger ausfällt, als unter DLSS, weil es GPU Zeit kostet (siehe NGX). Das erkennt der Algorithmus dann allein. Es war schon immer dafür gedacht bei niedriger Ausgabeauflösung die Framerrate ansteigen zu lassen oder bei höherer Ausgabeauflösung und gleicher Frametime die Qualität zu verbessern. Nv peilt da um 60fps an.

Ich wollte es nur schreiben, mach damit was du willst. Zwischenzeitlich wird es ja weiterentwickelt oder sich weiterentwickeln, ist ja alles möglich. Mit höherer Rechenpower im DNN, steigt auch deren AI und damit die Leistung stetig an.
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

-Mit dem neuen DLSS muss nicht mehr spielspezifisch trainiert werden, sondern es kann ein "Generaldatensatz" dafür herhalten.
-Dadurch wird es anderen Herstellern deutlich einfacher gemacht, das Feature zu integrieren.
-Das Feature soll im Allgemeinen leichter zu integrieren sein.
-Es liefert teils bessere Qualität als das nativ aufgelöste Bild inkl. überlegener Kantenglättung.
-Je niedriger die Frameraten umso besser greift DLSS und kann dann auch z.B. in Raytracing- Szenarien auch mal 50% drauflegen.
-Der Hauptdatensatz von DLSS 2.0 kann regelmäßig weiterverbessert werden. Alle Spiele die DLSS 2.0 nutzen profitieren davon automatisch und bieten über die Zeit automatisch bessere Qualität.

Danke, dass du auch eine Zusammenfassung gepostet hast. Holy shit, das klingt zu gut um wahr zu sein. Was muss das für ein NN sein, das universell eingesetzt werden kann?! Wie "brutal" haben die das trainiert?

-Der Hauptdatensatz von DLSS 2.0 kann regelmäßig weiterverbessert werden. Alle Spiele die DLSS 2.0 nutzen profitieren davon automatisch und bieten über die Zeit automatisch bessere Qualität.

Noch einmal konkret zu diesem Punkt hier. Was meinst du damit? Wird das NN auf dem lokalen System durch Training verbessert oder passiert das auf Nvidias Servern? Ersteres kann ich mir nur schwer vorstellen. Gleichzeitiges Traversieren und Trainieren geht soweit ich weiß nicht sonderlich performant.
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Danke, dass du auch eine Zusammenfassung gepostet hast. Holy shit, das klingt zu gut um wahr zu sein. Was muss das für ein NN sein, das universell eingesetzt werden kann?! Wie "brutal" haben die das trainiert?
Was ich nicht wusste ist, dass sie das gesamte bisherige DLSS System in die Tonne getreten haben. Auch nicht, dass das DLSS bei Control nur eine Shadergestützte Vorstufe zum DLSS von Deliver us the Moon und Wolfenstein war.

Sie haben jetzt einen ganz anderen Ansatz und in ihrem neuronalen Netz inzwischen genug Daten gesammelt und das DLSS soweit verändert (neben temporalen Komponenten werden auch sonst unerwünschte Artefakte benutzt um die "ground trouth" anzunähern), dass das System mit allen Spielen funktioniert.

Das heisst, dass jetzt jeder Eintwickler einen DLSS Schalter einbauen könnte und dieser dann ohne spezielles Training funktioniert (mit wird natürlich trotzdem besser sein).

Noch einmal konkret zu diesem Punkt hier. Was meinst du damit? Wird das NN auf dem lokalen System durch Training verbessert oder passiert das auf Nvidias Servern?
Das passiert auf den nvidia Servern, wobei der Trainingsaufwand mit steigenden Grundinformationen immer geringer wird und auch generischer ausfallen kann.
Somit muss eben nicht jeder Hersteller mit seiner Software zu NVIDIA rennen um das Spiel für DLSS trainieren zu lassen.
Und es muss per Treiber auch nicht mehr pro Spiel ein DLSS Datensatz integriert werden.
Es wird nur noch ein Datensatz gepflegt, was automatisch z.B. auch bedeuten würde, dass ältere Titel nicht explizit verbessert werden müssen, sondern automatisch vom aktuellen Datensatz bzw. dem erweiterten Training durch bessere Bildqualität profitieren kann.

Auch durchaus interessant zu erfahren, dass NVIDIA selbst mit den ersten Versionen von DLSS ordentlich ins Schleudern geraten ist. Das hat man sich wohl anders vorgestellt. Wobei ich mir dann wirklich die Frage stelle, ob die Pfeifen das nicht vorher ausprobiert haben, bevor sie so massiv ins Marketing gegangen sind.
Das hinterlässt schon einen "faden" Beigeschmack.
Nachdem sie aber nun in letzter Konsequenz tatsächlich mit ihren Ankündigungen Wort halten und die Erwartungen teils übertreffen, sei ihnen das mal verziehen, wenn man die Tragweite dieser "Erfindung" ins Kalkül miteinbezieht.

Dennoch frag ich mich immer wieder, was das Marketing und die Werbe-/Sales Abteilung da manchmal den armen Ingenieuren/Entwicklern aufhalst. Ich kenne das nur zu gut in der IT, dass große Firmen anrücken, das Blaue vom Himmel versprechen und ich sitz dann als externer IT Berater in den Krisensitzungen mit den armen Tröpfen, die das dann umsetzen sollen.
Das klappt oftmals einfach nicht, wie angeprisen.

Ersteres kann ich mir nur schwer vorstellen. Gleichzeitiges Traversieren und Trainieren geht soweit ich weiß nicht sonderlich performant.
Alles andere als performant. Die kratzen ja jetzt schon jeden Milimeter an Leistung zusammen, den sie kriegen können, mit dem Ergebnis, dass die Renderkosten trotzdem prozentual zur Leistung der Karten sehr hoch sind.

Dennoch- Der absolut richtige Weg, der hier eingeschlagen wird und die Technik wird mit der Zeit auch sicher nicht schlechter....

LG
Zero
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Auch durchaus interessant zu erfahren, dass NVIDIA selbst mit den ersten Versionen von DLSS ordentlich ins Schleudern geraten ist. Das hat man sich wohl anders vorgestellt. Wobei ich mir dann wirklich die Frage stelle, ob die Pfeifen das nicht vorher ausprobiert haben, bevor sie so massiv ins Marketing gegangen sind.
Das hinterlässt schon einen "faden" Beigeschmack.
Nachdem sie aber nun in letzter Konsequenz tatsächlich mit ihren Ankündigungen Wort halten und die Erwartungen teils übertreffen, sei ihnen das mal verziehen, wenn man die Tragweite dieser "Erfindung" ins Kalkül miteinbezieht.

Interessant wäre ja noch zu wissen, inwiefern DLSS 2.0 da bereits eingeplant war. Aber wenn die Vorteile so extrem sind, warum haben sie nicht direkt so begonnen? Das Basis Know-How für DLSS 2.0 wird ja schon existiert haben zu dem Zeitpunkt. Aber der Teufel steckt halt fast immer im Detail...
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Interessant wäre ja noch zu wissen, inwiefern DLSS 2.0 da bereits eingeplant war. Aber wenn die Vorteile so extrem sind, warum haben sie nicht direkt so begonnen? Das Basis Know-How für DLSS 2.0 wird ja schon existiert haben zu dem Zeitpunkt. Aber der Teufel steckt halt fast immer im Detail...
Ehrlich ich weiß nicht was es ihm bringt, darüber immer seinen Rand zu verbreiten, die ganze Utopie in seinen Posts ist mehr als grenzwertig.

Nv nutzt unter Control und Wolfenstein, dass ursprünglich gleiche DLSS Verfahren, nur setzt zusätzlich auf eine Kombination aus einer Upscalingvariante und einem Image Processing Algorithmus, kann so deutlich mehr Kanten glätten und Artefakte filtern.

Nv hat also absolut nichts an dem Therm geändert, sondern wird alsbald Vorlagen in 2160p einlesen lassen oder ist schon dabei, was die Ausgabeauflösung steigert. Das DNN braucht man dafür, es ist weder obsolet noch hat Nv etwas Grundlegendes an den Vorausetzungen geändert, man geht dazu über auf das Anfangs beworbene 64x Sampling pro Pixel zu setzen (DLSS 2x), bei einer angestrebeten Ausgabeauflösung von 2160p und 60fps.

Nv sprach im September davon, dass es möglich sein wird und wenn man die 4K Anlernphase abgeschlossen hat, noch höher aufgelöste Sample einzulesen. Desto mehr damit gearbeitet wird, um so mehr kann DNN davon profitieren.

Was Hardware Unboxed dazu im Video sagen, DLSS 2.0 ist der reinste FUD. Woher die solche Infos haben, weiß kein Mensch. Nicht mal Nv! Die Trainigsdaten müssten bei obsoletem DNN und über das interne GPU-Netzwerk unendlich groß sein, um auf DNN zu verzichten (wo bitte speichert man so eine Datenmenge als Vergleichsdatenmenge auf einem Gamer PC?) und DLSS ermöglich als Technologie keine Bildausgabe ohne Unreinheiten oder Artefakte, sie werden nur kaschiert. Um Unregelmäßigkeiten zu beseitigen, kann man gezieltes Image Processing einsetzen, was man unter Control und Wolfenstein so umgesetzt hat. Dabei sollte man DLSS in einer dx oder Vulkan Laufzeitumgebung voneinander trennen, weil Vulkan grundsätzlich höhere Frameraten ermöglicht (llv, Overhead usw.) und das Imaging stärker eingesetzt werden kann, ohne viel an der Framerate zu verlieren.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Ehrlich ich weiß nicht was es ihm bringt, darüber immer seinen Rand zu verbreiten, die ganze Utopie in seinen Posts ist mehr als grenzwertig.

Eigentlich hat er den ganzen Schmarrn, den du bezüglich deiner "Netzwerk-Last" hier wieder ins Forum gekotzt hast komplett widerlegt und danach kam von dir wieder null Gegenwehr, was mich zu dem Fazit kommen lässt, dass du hier ausgedachte Lügen verbreitest, welche du mit deiner zweifelhaften technischen Expertzise zu kaschieren versuchst, ein Grund mehr jeglichen Beitrag von dir ab sofort zu ignorieren, weils einfach Lebenszeitverschwendung ist.
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Kommt von Dir, lächerlich. Weder du noch er sind da eine Expertise. Wenn man den ganzen allgemeinen Rand liest den er im Computerbaseforum postet weiß man schon was los ist. Das DNN wird auf jeden Fall Geforce Now unterstützen und Kapazitäten darin sind nicht obsolet und auch nicht kostenlos.

Er hat absolut gar nichts widerlegt, weil er darüber absolut gar nichts weiß und einfach nur umherspekuliert. Das man unter Control und Wolfenstein ein geupscaltes Image Processing einsetzt, das geplant war und er etwas darüber faselt das Nv den Algorithmus grundlegend abgeändert hat, zeigt sehr deutlich das der Großteil einfach Wunschdenken von ihm ist.

Das ist für Entwickler schon seit August launchbar (war also weit vorher bekannt) und trotzdem haben nur zwei Spiele den Weg gefunden!
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Kommt von Dir, lächerlich. Weder du noch er sind da eine Expertise.
Exlipso, es wäre schön, wenn Du mit mir und nicht über mich reden würdest.

Wenn man den ganzen allgemeinen Rand liest den er im Computerbaseforum postet weiß man schon was los ist.
Eclipso- Fängt das schon wieder an? Bist Du der einzig ultimativ "Wissende", obwohl Du (in meinem bescheidenen Kosmos) mit Deinem letzen Post bewiesen hast, dass Du niemals eine der relevanten APIs/Bilbliotheken, geschweige denn einer der Grafikkarten in Deiner Hand gehabt hättest?

Verstehst Du- Das ist so weit weg von den aktuellen Gegebenheiten wovon Du hier sprichst, dass ich mir echt schwer tue.

Das DNN wird auf jeden Fall Geforce Now unterstützen und Kapazitäten darin sind nicht obsolet und auch nicht kostenlos.
Das DNN hat nichts mit dem Geforce Now zu tun. Den inferencing Datensatz bekommst Du mit DLLS "2.0" unabhängig davon mitgeliefert.

Er hat absolut gar nichts widerlegt, weil er darüber absolut gar nichts weiß und einfach nur umherspekuliert.
Dann lass uns doch endlich an Deinem tiefgreifenden Wissensschatz teilhaben und erklär mir, wie das alles funktioniert. Wie bindest Du die APIs in Deinen Code ein? Wie funktioniert das in der Renderengine? Wie setzt Du das ganze Async?
Wie regelst Du die andauernde Kommunikation mit dem Rechnezentrum, die Du hier als gegeben ansetzt? Wie verbirgst Du die Latenzen?

Das man unter Control und Wolfenstein ein geupscaltes Image Processing einsetzt, das geplant war und er etwas darüber faselt das Nv den Algorithmus grundlegend abgeändert hat, zeigt sehr deutlich das der Großteil einfach Wunschdenken von ihm ist.
Aufgrund dieser Behauptung komme ich leider nicht umhin, von Dir zu verlangen, dass Du den Beweis antrittst.
Frag mal bei nvidia an, was es benötigt um, um DLSS zu integrieren.
Du wirst erstens erstaunt sein, wie schnell Du Antwort und detailierte Instruktionen und Code Snippets erhältst, als auch wie transparent das Verfahren inzwischen ist.

Nein- Ich akzeptiere da keinen Wust mehr. Tu es. Frag nach.

Das ist für Entwickler schon seit August launchbar (war also weit vorher bekannt) und trotzdem haben nur zwei Spiele den Weg gefunden!
Wo konntest Du denn DLSS in der aktuellen Iteration denn schon abrufen?
Stimmt- Garnicht. Weil es bis jetzt "on the fly" bei diesen beiden Titeln durch externe Teams eingebunden wurde.

Eclipso- Such den Kontakt mit nvidia, Du wirst überrascht sein, was Du da für einen Support erfährst und welche Informationen Dir da geliefert werden.
Die kümmern sich...

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Eclipso- Such den Kontakt mit nvidia, Du wirst überrascht sein, was Du da für einen Support erfährst und welche Informationen Dir da geliefert werden.
Die kümmern sich...

LG
Zero
NGX = Software und DNN = Support und das bleibt auch so, NGX = Teil von RTX Gameworks. Ich brauche den Support nicht. Warum auch?

Es gibt kein DLSS2.0, es gibt DLSS 2x was von Anfang an vorgestellt wurde. Wozu brauchst du Hardware Unboxing Videos um dir das bestätigen zu lassen? Das weiß jeder Entwickler schon viel länger und die gesamte Community seit Erscheinen von DLSS und Nv Vorstellung.

Man setzt bei höherer Qualität keinen bikubischen Filter mehr ein, sondern einen AI-UP-Res Mode. Nvidia nennt das Qualitätsmodus, es ist zum Beispiel unter Wolfenstein ein 1080p Upscaling+Image Processing das auf höher aufgelösten Vorlagen beruht, wie das auch fürs 64x Sampling pro Pixel von Anfang an vorgesehen war.

Wenn du das alles schon weißt, schreib es einfach und eier nicht mit wirren Aussagen von DLSS Versionswechseln umher, von denen nicht mal Nv was weiß und meinst dabei, du wüsstest das nur weil du selbst von Nv irgendwelchen Support erhälst.

NGX besteht grundsätzlich aus einem Anteil Software (die mit Treibern ausgeliefert wird) und einem Anteil Support (der über das DNNs ausgeliefert wird). Der Treiber prüft dafür permanent, ob neue Algorithmusvorlagen für das Inferencing vorhanden sind.

Schreib also nicht so einen FUD. Das ist die zweite Stufe von DLSS, wie sie schon bei Launch des Feature beworben wurde und wo die meisten Enthusiasten auch drauf warten. Weil DLSS 1x nie so wirklich in 1080p geplant war, sondern die Gamer das forderten und Nv es zwischendurch einschob. Auflösungen bis1080p waren nie für einen weitreichenden DLSS Support vorgesehen. Nv sah sich trotzdem dazu genötigt, weil die ursprünglich versprochene Framerate bei RTRT nicht gehalten werden konnte (siehe Dice Implementierung in BF5 im ersten Versuch usw.). Gleichzeitig hat sich die leistungsfähige RT Hardware wie die 2080 zum Beispiel zu schlecht verkauft, die wurde anfänglich kaum beachtet. Nv setze aber auf die 2080ti und 2080 Käufer. Unten rum und ab der 2070 brauchte man dann DLSS für 1080p RTRT Ausgabeauflösungen.

Ehrlich, ich mag mir euer Gelaber dazu nicht mehr durchlesen. Meldet euch bei Fudzilla an!
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

NGX= Software und DNN und das bleibt auch so, NGX = Teil von RTX Gameworks. Ich brauch den Support nicht. Warum auch?
Ist Gameworks per se etwas schlechtes? Wenn Standardbibliotheken/Funktionen für Entwickler zur Verfügung gestellt werden, die die Integration eines Features übernehmen?
AI Based muss erstmal nichts mit dem nvidia DNN zu tun haben...

Es gibt kein DLSS2.0, es gibt DLSS 2x was von Anfang an vorgestellt wurde.
Nenn es wie Du willst. Seit Deliver us the Moon und Wolfenstein wurde DLSS inkl. einer neuen Funktionsweise integriert. Wie willst Du es nennen?

Wozu brauchst du Hardware Unboxing Videos um dir das bestätigen zu lassen? Das weiß jeder Entwickler schon viel länger und die gesamte Comunity seit erschienen von DLSS und Nv Vorstellung.
Warum schreibst Du dann dagegen an? Wieso kannst Du keine Fakten, Messergebnisse von auf dem Markt befindlicher Software akzeptieren?
Weisst Du es besser als es die Realität bereits beweist?
Tritt doch mal den Beweis an! Unterlege Deine Aussagen mit eigens ermittelten Ergebnissen.

Man setzt bei höherer Qualität keinen bikubischen Filter mehr ein, sondern einen AI-UP-Res Mode.
Aha- DLSS war bikubisch? Quelle?
Ansonsten ja- man könnte DLSS einen AI-UP-Res Mode nennen... Obwohl es der ursprünglichen Funktionsweise widerspricht. Du machst das UP- Res ja letztenendes aus einem ursprünglichen down- res.
Die Frage- Ist DLSS jetzt anders, weil Du es AI-UP-Res Mode nennst? Nebelkerze?

Nvidia nennt das Qualitätsmodus und es ist zum Beispiel unter Wolfenstein ein 1080p Upscaling+Image Processing das auf höher aufglösten Vorlagen beruht, wie das auch für 64x Sampling pro Pixel von Anfang an vorgesehen war.
DLSS ist inzwischen auflösungsunabhängig. Und ja- Jedwede Manipulation/Änderung des Bildes könnte man auch "image processing" nennen (das AI fehlt noch). Nur- Was trägt das jetzt zum Thema bei?

Wenn du das alles schon weißt, schreib es einfach und eier nicht mit wirren Aussagen von DLSS Versionswecheln umher und meinst dabei du wüsstest das, weil du selbst von Nv irgendwelchen Support erhälst.
Ich warte auf Deine Erklärungen/Ausführungen... Wie immer vergebens...

Schreib also nicht so einen FUD.
Wie gesagt- Du bist so weit weg von der Praxis und bist auch nicht nur rudimentär in der Lage Deinen Standpunkt zu untermauern, dass es mir fast schon Respekt abverlangt mit welche Vehemenz Du Deine Theorien hier verteidigst.
Liefere doch bitte nur EIN EINZIGES MAL irgendwelche Belege für Deine Behauptungen. Ich streue immer wieder Links, Analysevideos, Quellen von nvidia etc. ein, und Du lieferst 0, nada, zero, ... und das immer und immer wieder.
Das ist wirklich inzwischen sehr ermüdend.
Behauptungen durch weiter Behauptungen ohne auch nur eine Quelle zu stützen, wie Du es nun seit etlichen Kommentaren machst, bringt hier niemanden weiter.

Ich verlange von Dir endlich mal handfeste, tiefgreifende Erklärungen.

Das ist die zweite Strufe von DLSS wie sie schon bei Launch des Feature beworben wurde und wo die meisten Enthusiasten auch drauf warten.
Quelle?

Weil DLSS 1x nie so wirdklich in 1080p geplant war
Quelle?

sondern die Gamer das forderten
Quelle?

und Nv es zwischendurch einschob.
Quelle?

Auflösungen bis1080p waren nie für einen weitreichenden DLSS Support vorgesehen.
Quelle?

Nv sah sich trotzdem dsazu genötigt weil die ursprünglich versproche Framerate bei RTRT nicht halten konnten, weil der eigne Weg steiniuger war als sie gedacht haben (siehe Dice usw.).
Ja- DLSS war von Anfang an dafür gedacht, die Artefakte und den Geschwindigkeitsverlust, den RTRT mit sich tragen würde, abzumildern.

Du machst mich fertig...

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Du machst mich fertig...

LG
Zero

Und wo sind deine Quellen, Hardware Unboxed. Lol. Wieso ich keinen Support brauche, logisch oder. Ich habe nicht geschrieben das Gameworks nicht genutzt wird oder würde.

Du machst dich selber fertig, weil du versuchst aus irgendwelchen Infos Tatsachen zu basteln, die dir irgendwie weiterhelfen, wobei auch immer.

Das gesamte Marketing um RTRT, DLSS und RT fähiger Hardware wurde umgestellt, dass hat aber nichts mit dem Algorithmus, seiner Plaung und Umsetzung zu tun. Du willst 10 Jahre Entwicklungszeit, x Jahre AI/KI Training, Supercomputerkapazitäten, nach einem Jahr über den Haufen werfen, weißt du überhaupt wovon du redest? Nicht umsonst hat man sich mit untiy, vorab werbeträchtigen Umfeldern für RTX angenommen. BMW ist dort eingestiegen.

Die S-Serie wurde eingeschoben, um mit der 2070s mehr GT104 zu verkaufen, weil die Dinger das auch schaffen, mehr VRAM für die 2060s inklusive, wobei man die alte 2060 gegen Navi Entry Level stellt.

An der NGX Geschichte hat sich nie was grundlegendes geändert, dass ist das Potential was viele schon vorab gesehen haben, Nv bisher aber nicht abrufen konnte. Sie kommen da auch nicht mehr so einfach raus und müssen das jetzt durchziehen. Das ist deren Zukunft.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Und wo sind deine Quellen, Hardware Unboxed. Lol.
Das ist EINE der Quellen, die ich im Threadverlauf neben vielen anderen gepostet habe. Was ist Deine Quelle?
Ich akzeptiere kein Ausweichen mehr.

Wieso ich keinen Support brauche, logisch oder.
Nö- Wieso denkst Du ohne Information von NVIDIA den Überblick zu haben?
Ansonsten Quelle? Ich akzeptiere kein Ausweichen mehr.

Ich habe nicht geschrieben das Gameworks nicht genutzt wird oder würde.
Stimmt- Ich schreibe ja auch nicht, dass Gameworks nicht genutzt wird oder würde...
Also?

Du machst dich selber fertig, weil du versuchst aus irgendwelchen Infos Tatsachen zu basteln, die dir irgendwie weiterhelfen, wobei auch immer.
Dann geh doch einfach mal darauf ein, auf das, was ich mir so "zusammenbastle".

Konkrete Frage:Hast Du eine RTX Karte? Hast Du mit den Libraries/Apis schon programmiert?
Ich akzeptiere kein Ausweichen mehr.

Das gesamte Marketing um RTRT, DLSS und RT fähiger Hardware wurde umgestellt
Quelle? Ich akzeptiere kein Ausweichen mehr.

dass hat aber nichts mit dem Algorithmus, seiner Plaung und Umsetzung zu tun.
Quelle? Ich akzeptiere kein Ausweichen mehr.

Du willst 10 Jahre Entwicklungszeit, x Jahre AI/KI Training, Supercomputerkapazitäten, nach einem Jahr über den Haufen werfen
Quelle? Wo sage ich dass ich das will?
weißt du überhaupt wovon du redest?
Ja

Nicht umsonst hat man sich mit untiy, vorab werbeträchtigen Umfeldern für RTX angenommen. BMW ist dort eingestiegen.
Themenbezug?

Die S-Serie wurde eingeschoben, um mit der 2070s mehr GT104 zu verkaufen, weil die Dinger das auch schaffen, mehr VRAM für die 2060s inklusive, wobei man die alte 2060 gegen Navi Entry Level stellt.
Themenbezug? Wo rede ich von 2060 geschweige denn Navi Entry?
Du springst komplett zu einem anderen Thema.

Elaborate!

An der NGX Geschichte hat sich nie was grundlegendes geändert, dass ist das Potential was viele schon vorab gesehen haben, Nv bisher aber nicht abrufen konnte.
Quelle, bitte ausarbeiten. Ich habe keine Ahnung, wovon Du genau sprichst.

Sie kommen da auch nicht mehr so einfach raus und müssen das jetzt durchziehen. Das ist deren Zukunft.
Wo kommen sie nicht mehr raus? Beispiele, Belege, Quellen?

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Das ist EINE der Quellen, die ich im Threadverlauf neben vielen anderen gepostet habe. Was ist Deine Quelle?
Ich akzeptiere kein Ausweichen mehr.


Nö- Wieso denkst Du ohne Information von NVIDIA den Überblick zu haben?
Ansonsten Quelle? Ich akzeptiere kein Ausweichen mehr.


Stimmt- Ich schreibe ja auch nicht, dass Gameworks nicht genutzt wird oder würde...
Also?


Dann geh doch einfach mal darauf ein, auf das, was ich mir so "zusammenbastle".

Konkrete Frage:Hast Du eine RTX Karte? Hast Du mit den Libraries/Apis schon programmiert?
Ich akzeptiere kein Ausweichen mehr.


Quelle? Ich akzeptiere kein Ausweichen mehr.


Quelle? Ich akzeptiere kein Ausweichen mehr.


Quelle? Wo sage ich dass ich das will?

Ja


Themenbezug?


Themenbezug? Wo rede ich von 2060 geschweige denn Navi Entry?
Du springst komplett zu einem anderen Thema.

Elaborate!


Quelle, bitte ausarbeiten. Ich habe keine Ahnung, wovon Du genau sprichst.


Wo kommen sie nicht mehr raus? Beispiele, Belege, Quellen?

LG
Zero
Blah Blub, zerhakte Schachtel-Sätze, ohne jemals auf ein Argument einzugehen, ohne geschlosse Sätze oder Fließtext zu schreiben. Du kannst das Thema für dich haben und einfach weitermachen wie bisher. Das du nicht verstehst was ich schreibe ist faktisch klar.:D

Du verlangst?, du weichst nicht aus?, alles noch klar im Kopf bei dir? Ausarbeiten?, was 'ne Masterarbeit über Raytracing, die kannst du bereits abrufen. Einfach mal google anschmeißen.
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Blah Blub, zerhakte Schachtel-Sätze, ohne jemals auf ein Argument einzugehen, ohne geschlosse Sätze oder Fließtext zu schreiben.
Dann schau Dir die Texte von mir vorher an. Da sind teilweise sehr lange und detailierte Erläuterungen dabei. Nur musst Du halt auch verstehen, dass wenn es irgendwann so ankommt, dass jemand nicht gewillt ist seine eigenen Behauptungen argumentativ zu untermauern, sondern nur weitere Behauptungen hinterherschiebt, das irgendwann in einer Sackgasse mündet.

Du kannst das Thema für dich haben und einfach weitermachen wie bisher. Das du nicht verstehst was ich schreibe ist faktisch klar.:D
Der Diskurs dient dazu, solche Dinge aufzuklären.

Du gehst kaum auf meine Texte ein. Wenn Du dies nicht tun willst, sondern nur einen Monolog abliefern, dann ist auch für mich die Auseinandersetzung mit Deinen Texten unnütz.


!!
Ich frage Dich nochmals ganz konkret: Besitzt Du eine RTX Karte und hast Du mir den zur Verfügung gestellten APIs Bilblitheken jemals programmiert?

Und Du weisst, dass wenn Du jetzt entgegen der Wahrheit ja antworten solltest, eine einfache Verifizierungsfrage von meiner Seite nachfolgt.
!!

Das ist eine ganz einfache Frage, die man mit Ja/Nein beantworten kann, die Dich aber offensichtlich, da Du Dich mehrfach der Antwort verweigerst in eine Zwickmühle manövriert....

du weichst nicht aus?
Beantworte oder belege nur ein Mal die von Dir getätigten Behauptungen.
Ich gebe Dir in Sachen DLSS noch eine zweite Quelle an die Hand:
YouTube

, alles noch klar im Kopf bei dir?
Ja

Ja- So macht man das im Allgemeinen in Foren, wenn Unklarheiten bestehen...

was 'ne Masterarbeit über Raytracing, die kannst du bereits abrufen. Einfach mal google anschmeißen.
Und dann? Themenbezug? Keiner fordert eine Masterarbeit, wenn wir schon an der Oberfläche eines Themas scheitern...

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Und Du weisst, dass wenn Du jetzt entgegen der Wahrheit ja antworten solltest, eine einfache Verifizierungsfrage von meiner Seite nachfolgt.
Du solltest dir schnell nochmal die Forenregeln durchlesen. Du darfst hier Verifizierungsanfragen stellen? Gewiss nicht.

Deine vorhergehenden Erläuterungen zu DLSS sind schon im Kontext falsch, weil es kein DLSS 2.0 gibt, das ist eine Erfindung von Hardware Unboxed und im Rahmen der Pressefreiheit klar möglich.

Es gibt im Bereich der Computervisualistik genug Material, über das frei abrufbar verfügt werden und eingesehen werden kann, dass kannst du gerne abrufen. Ich habe dir geschrieben was ich von deinen Beiträgen hier halte und das ist mein gutes Recht. Soweit tust du einfach nur so, als wäre das faktisch nicht vorhanden und meinst, als gäbe es ohne mein zusätzliches Zutun nicht genug Informationen um das Geschriebene auch nachvollziehen zu können und irgendwann ist mal gut.

Deine persönlichen Aussagen sind keinesfalls belegt nirgends, sie sind einfach von dir verfasst und gelten für dich als unumstößlich. Du solltest dich tiefergreifend mit Forenkulturen auseinandersetzen und nicht nur dein eigenes Bild darüber kundtun.

Welche Hardware ich besitze, was ich damit mache, wo und wem gegenüber ich mich zu verifizieren habe, ist meine persönliche Lebensgeschichte und geht dich nichts an.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Du solltest dir schnell nochmal die Forenregeln durchlesen. Du darfst hier Verifizierungsanfragen stellen? Gewiss nicht.

Antworte einfach- Ist das wirklich so schwer? Hast Du eine RTX Karte und die entsprechenden APIs/Bibliotheken in der Programmierung schon getestet?
Wenn ja- Bist Du bereit mir dann dazu eine Frage zu beantworten, die Deine Aussage belegt?

Deine vorhergehenden Erläuterungen zu DLSS sind schon im Kontext falsch, weil es kein DLSS 2.0 gibt, das ist eine Erfindung von Hardware Unboxed und im Rahmen der Pressefreiheit klar möglich.
Exakt- Wie ich es in meinem Text auch angemerkt habe. Du musst Dir meine Texte schon auch mal durchlesen.
Zudem -> Themenbezug?

Grüße
Zero
 
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Ganz interessanter aktueller Bericht/Analyse dazu:
YouTube

Wir halten Fest:

-Mit dem neuen DLSS muss nicht mehr spielspezifisch trainiert werden, sondern es kann ein "Generaldatensatz" dafür herhalten.
-Dadurch wird es anderen Herstellern deutlich einfacher gemacht, das Feature zu integrieren.
-Das Feature soll im Allgemeinen leichter zu integrieren sein.
-Es liefert teils bessere Qualität als das nativ aufgelöste Bild inkl. überlegener Kantenglättung.
-Je niedriger die Frameraten umso besser greift DLSS und kann dann auch z.B. in Raytracing- Szenarien auch mal 50% drauflegen.
-Der Hauptdatensatz von DLSS 2.0 kann regelmäßig weiterverbessert werden. Alle Spiele die DLSS 2.0 nutzen profitieren davon automatisch und bieten über die Zeit automatisch bessere Qualität.

->Na wenn sich das mal nicht zu einem Killerfeature entwickelt. Bildqualität und deutlicher Leistungsgewinn for free...

Wenn nvidia tatsächlich den großen Wurf mit der nächsten GK Generation gelingt (die Spatzen pfeifen es von den Dächern) und sie dieses Feature weiter ausbauen, dann sehe ich harte Zeiten auf Big Navi zukommen...

LG
Zero
Das ist deine Behauptung, die du mit einem Video belegst!

Und dann kommt schon gleich dein eigner kleiner GPU-War! Was interessiert es einen Entwickler ob Big-Navi langsamer wird, viel wichtiger ist, wie er ihn programmieren kann, dass die Anwendung die der Entwickler auf ihm laufen lassen will genauso schnell ist. Du hast das ganze Konzept hinter der Entwicklung und was sich Entwickler wünschen, nicht verstanden. Das kann man an deinen Äußerungen immer wieder gut festmachen. Das dich jemand wie schaffe89 auf dieses Board holt, ist nie ein gutes Omen.:D

Im Rahmen meiner Meinungsfreiheit kann ich aber schreiben, dass du in deiner obigen Liste mehrere größere Böcke schießt. Der DLSS Algorithmus kann nie "besser greifen", wenn die Auflösung niedriger ist, weil er eine Vorlage braucht die höher aufgelöst ist, um besser greifen zu können und die Ausgabeauflösung nicht zu weit von dieser entfernt sein sollte (720p@1080p, 1080p@1440p, 1400p@2160p). Und das hat seine Gründe. Wie soll man auf so einen Unsinn antworten? DLSS skaliert das Bild von einer niedrigen Auflösung hoch, nicht runter. Unter einer niedrigen Auflösung korrigiert DLSS viel weniger, es wird schneller aber die Qualität nimmt ab, was man an DLSS 1x gut sehen kann.

Vermutlich wird Nvidia jetzt mit höher aufgelösten Zwischenformaten wie beispielsweise XGA+,UXGA, OXGA, WXGA kommen um dann native Auflösungen mit DLSS auszugeben. 900p@1080p usw..

Man will nicht abstreiten und ich tue das generell nicht, dass DLSS sich weiterentwickelt hat, doch auch im neusten Ausgabeformat und auch unter Vulkan ist die Technik sporadisch immer noch von Artefakten geplagt, wobei man nun endlich "ähnliche" Ausgabequalität wie nativ+TAA erreicht. 18 Monate gingen dafür ins Land. Das zeigt die Komplexität auf und ich möchte nicht wissen was das gekostet hat. Umsonst ist da gar nichts, dass bezahlst du gleich mit.

Ich beantworte dir ab sofort keinerlei Fragen mehr, für mich ist Anonymität ein digitales Grundrecht und ich wüsste nicht, warum ich mich dir gegenüber legitimiern oder verifizieren sollte. Ich melde mich hier an, ganz normal wie jeder andere Forennutzer. Das reicht als Legimitation Beiträge schreiben zu dürfen. Solange ich nicht gegen die Zensur oder das Regelwerk verstoße, ist das grundsätzlich möglich und erlaubt.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia zeigt Minecraft RTX erneut und kündigt sechs weitere Spiele mit Raytracing an

Das ist deine Behauptung, die du mit einem Video belegst!
Und Du belegst Deine Behauptungen garnicht.

Und dann kommt schon gleich dein eigner kleiner GPU-War!
Ich persönlich würde mir wünschen, das Big-Navi ein Erfolg wird. Befürchte aber aufgrund mehrerer Faktoren (einen hatte ich in diesem Zusammenhang genannt), dass der vermutlich zu schnell fahrende Hype- Train, der sich darum aufgebaut hat, auch ebenso eine unsanfte Bremsung hinlegen könnte. Das wäre sehr schade, wird aber mit steigender Erwartungshaltung in der Community immer wahrscheinlicher.

Somit- Was stimmt nicht an der Aussage, dass diverse Anzeichen dafür stehen, dass es Big Navi sehr sehr schwer haben wird?
Ich bin gespannt. Und wo rufe ich aufgrund dieser einfachen feststellung einen GPU War hervor?
Rufe ich den auch hervor, wenn ich schreibe, dass es die neuen Intel Consumer CPUs sehr schwer gegen die Zen 3 Pendants haben werden?
Reicht das jetzt schon aus, um "Krieg" auszulösen?

Was interessiert es einen Entwickler ob Big-Navi langsamer wird, viel wichtiger ist, wie er ihn programmieren kann
Die Leistung ist das Hauptgestaltungsmerkmal

, dass die Anwendung die der Entwickler auf ihm laufen lassen will genauso schnell ist.
Damit widersprichst Du Dir selbst. Ist es jetzt egal, ob es langsamer wird oder nicht?

Du hast das ganze Konzept hinter der Entwicklung und was sich Entwickler wünschen, nicht verstanden. Das kann man an deinen Äußerungen immer wieder gut festmachen. Das dich jemand wie schaffe89 auf dieses Board holt, ist nie ein gutes Omen.:D
Natürlich nicht. Und Herr Aaltonen&co., die vom großen Wurf sprachen und dass Turing viel von dem liefert, was sich Entwickler wünschen auch nicht. Wer zur Hölle ist schaffe89?
https://twitter.com/sebaaltonen/status/1063153928857104384
https://twitter.com/sebaaltonen/status/1042786499396362240

Im Rahmen meiner Meinungsfreiheit kann ich aber schreiben, dass du in deiner obigen Liste mehrere größere Böcke schießt.
Dann sage ich dazu im Rahmen meiner Meinungsfreiheit, dass wir inzwischen wissen, dass Du keine Test mit Turing- GPUs durchgeführt hast und auch noch nichts dafür programmiert.
Und da wir das jetzt in einem mühsamen Prozess über Seiten hinweg aus Dir rausgekitzelt haben, kann jeder sich ein Bild machen, was die unbelegten und nicht unterfütterten Aussagen, die sich hinter Deiner Meinungsfreiheit verbergen, zum Teil wert sind.

Der DLSS Algorithmus kann nie "besser greifen", wenn die Auflösung niedriger ist, weil er eine Vorlage braucht die höher aufgelöst ist,
Ich bitte um die Stelle, in der ich schreibe, dass DLSS bei niedrigen Auflösungen besser greift.
Stimmt- Gibt es nicht. Legst mir, wie Du es nicht zum ersten Mal machst einen Spruch in den Mund und argumentierst dann schön gegen den von Dir aufgestellten Strohmann.

um besser greifen zu können und die Ausgabeauflösung nicht zu weit von dieser entfernt sein sollte (720p@1080p, 1080p@1440p, 1400p@2160p). Und das hat seine Gründe. Wie soll man auf so einen Unsinn antworten?
Eben- Siehe oben. Du führst gerade Selbstgespräche. Wie soll man mit jemandem Diskutieren, der die einfachsten Regeln einer Diskussion misachtet und auf einfachste Rückfragen keine Antwort liefert?

DLSS skaliert das Bild von einer niedrigen Auflösung hoch, nicht runter. Unter einer niedrigen Auflösung korrigiert DLSS viel weniger, es wird schneller aber die Qualität nimmt ab, was man an DLSS 1x gut sehen kann.
Du blendest immer noch nur Teilbereiche der Funktionspipeline von DLSS ein und lässt andere Teile weg?

18 Monate gingen dafür ins Land. Das zeigt die Komplexität auf und ich möchte nicht wissen was das gekostet hat. Umsonst ist da gar nichts, dass bezahlst du gleich mit.
Na selbstverständlich. Wie jede Technologie muss auch diese in der Praxis reifen. Klar zahlt man das Gesamtpaket einer Grafikkarte irgendwie monetär.

Ich beantworte dir ab sofort keinerlei Fragen mehr
Na dann ändert sich ja eigentlich nichts ;)

für mich ist Anonymität ein digitales Grundrecht
..unter welchem sehr viele Leute sehr viele Dinge tun, die sie so nicht tun würden, müssten sie nicht- anonym Farbe bekennen. Hat alles sein Für- und Wider.

und ich wüsste nicht, warum ich mich dir gegenüber legitimiern oder verifizieren sollte.
Nachdem Du ja der Weltmeister darin bist andere zu delegitimieren, solltest Du das eigentlich schon erschließen können.

Ich melde mich hier an, ganz normal wie jeder andere Forennutzer. Das reicht als Legimitation Beiträge schreiben zu dürfen. Solange ich nicht gegen die Zensur oder das Regelwerk verstoße, ist das grundsätzlich möglich und erlaubt.
Und das ist auch gut so.

LG
Zero
 
Zuletzt bearbeitet:
Zurück