Nvidia Geforce RTX 3000: Bundle mit Watch Dogs: Legion und 1 Jahr Geforce Now

Laut Nvidia geht 8K-UHD nur im neuen Modus namens "DLSS Ultra Performance" und nur mit einer Nvidia Geforce RTX 3090. So soll wohl Deep Learning - sprich KI - verstärkt genutzt werden, um Spielen in 8K-UHD möglich zu machen.
-> Sprich: Es werden noch mehr Bilddetails mittels Artefakte über den Algorithmus von Nvidia berechnet und eben NICHT lokal direkt auf der Grafikkarte Nvidia RTX 3090...Aber man kann Werbung damit machen, in 8K-UHD Spiele möglich zu machen...
Verstehe die Erklärung nicht. Wozu braucht man eine 3090, wenn die Berechnung nicht lokal erledigt wird? Selbst wenn sich zwei lokale Grafikkarten die Berechnung teilen, gibt es schon deutliche Probleme bei der Bildausgabe und jetzt möchtest du bzw. nVidia uns weismachen, dass das über das Internet funktioniert? Bei 90Fps müsste alle 11,1ms ein Bild vom Client zum Server, dort berechnet, wieder zurück und dargestellt werden. Selbst wenn man IM Rechenzentrum wohnen würde, halte ich das für schwer umsetzbar (vorsichtig ausgedrückt).
 
Verstehe die Erklärung nicht. Wozu braucht man eine 3090, wenn die Berechnung nicht lokal erledigt wird? Selbst wenn sich zwei lokale Grafikkarten die Berechnung teilen, gibt es schon deutliche Probleme bei der Bildausgabe und jetzt möchtest du bzw. nVidia uns weismachen, dass das über das Internet funktioniert? Bei 90Fps müsste alle 11,1ms ein Bild vom Client zum Server, dort berechnet, wieder zurück und dargestellt werden. Selbst wenn man IM Rechenzentrum wohnen würde, halte ich das für schwer umsetzbar (vorsichtig ausgedrückt).

So funktioniert DLSS nicht.
Die KI wurde mit zusätzliche Infos aus bereitgestellten, hochauflösenden Bildern des gerade laufenden Spiels gefüttert und kann es daher hochskalieren.
Mit einem Bildaustausch mit dem Server in Echtzeit hat das nichts zu tun. Meines Wissens nach befinden sich die Daten dafür im Treiber.
 
So funktioniert DLSS nicht.
Die KI wurde mit zusätzliche Infos aus bereitgestellten, hochauflösenden Bildern des gerade laufenden Spiels gefüttert und kann es daher hochskalieren.
Mit einem Bildaustausch mit dem Server in Echtzeit hat das nichts zu tun. Meines Wissens nach befinden sich die Daten dafür im Treiber.

Nicht ganz in den RTX Karten sind Tensor-Kerne, für die KI.
Mit dem Treiber zusammen wird eine Framework (NGX) installiert und diese Kerne können damit rechnen bzw. Hochskalieren :)
 
Verstehe die Erklärung nicht. Wozu braucht man eine 3090, wenn die Berechnung nicht lokal erledigt wird? Selbst wenn sich zwei lokale Grafikkarten die Berechnung teilen, gibt es schon deutliche Probleme bei der Bildausgabe und jetzt möchtest du bzw. nVidia uns weismachen, dass das über das Internet funktioniert? Bei 90Fps müsste alle 11,1ms ein Bild vom Client zum Server, dort berechnet, wieder zurück und dargestellt werden. Selbst wenn man IM Rechenzentrum wohnen würde, halte ich das für schwer umsetzbar (vorsichtig ausgedrückt).

Die DLSS-Funktion sitzt im Treiber, wie iDarkx1e richtig erklärt hat. Ich zitiere ihn mal. Der Nvidia-Treiber besitzt also ein spezielles Framework, welches bei den neuen RTX 3000 Grafikkarten die Tensor-Kerne für die KI-Berechnung ansprechen kann. Deep Learning bedeutet, dass die KI sich Trainingsdatensätze und somit die Vorgehensweise zum Hochskalieren immer mal wieder von den Nvidia-Servern herunterladen kann, um das dann im Nvidia-Treiber einzubauen. Die Nvidia Geforce RTX 3090 rechnet eigentlich das jeweilige Bild nur zu 1/9 der 8K-UHD-Auflösung aus und lässt es dann von der KI und den Tensor-Kernen der Geforce RTX 3090 auf 8K hochskalieren. Im Endeffekt wird also erstmal "nur" mit 1/9 der 8K-UHD-Auflösung (7.680 x 4.320 Pixel sind 8K-UHD) lokal von der RTX 3090 berechnet und dann wird mittels Tensor-Kerne und KI im "DLSS Ultra Performance"-Modus das Bild lokal auf 8K-UHD-Auflösung hochgerechnet.

Nicht ganz in den RTX Karten sind Tensor-Kerne, für die KI.
Mit dem Treiber zusammen wird eine Framework (NGX) installiert und diese Kerne können damit rechnen bzw. Hochskalieren :)
 
Zurück