Die Frage ist: Wollen wir überhaupt Fotorealismus? Es gibt da nämlich so eine Akzeptanzkurve von künstlichen Figuren in Abhängigkeit zum Realismus bei den Menschen und die ist bei Fotorealismus garnichtmal am höchsten.
Ich denke, das hat auch was mit dem Verlust jedes Raumen für Fantasie und Kreativität in unserem Kopf zu tun.
Gedanke: Warum hocken wir in der Bude und spielen Computerspiele, wenn doch vor der Tür das schon jetzt fotorealistische Lebensspiel auf jeden von uns wartet? Und warum waren gerade die alten Spiele mit der schlechten Grafik die geilsten in unserer Erinnerung und warum können wir uns an den letzten Hochglanzshooter kaum noch erinnern?
Man kann ja trotzdem stilisieren. Fotorealismus ist vielleicht das falsche Wort bzw. trifft es nicht so genau. Es geht eben um physikalisch korrekte Beleuchtung.
Aktuelle Animationsfilme werden auch mit Pathtracing gerendert. Und trotzdem sehen sie stark stilisiert und comichaft aus.
Der Vorteil ist eben, dass man mit Pathtracing eine stimmige, konsistene Beleuchtung erzeugen kann.
Mit klassischem Rasterizing hat man ja leider viele Probleme wie Light Leaking oder fehlende indirekte Beleuchtung, was einfach seltsam aussieht.
Ich sehe den Trend, den NV hier aufzeigt klar Richtung "Game-Streaming" ausgerichtet, denn für ein derart aufgebohrtes KI-Grafik-Modell wird absehbar kaum irgendeine in einen "Personal Computer" einbaubare geschweige denn finanzierbare Hardware ausreichen, da hier enorme Datenmengen quasi in Echtzeit abgearbeitet und teils schon bei der Spieleentwicklung vorberechnet und vorgehalten werden müssten
Ich bin mir nicht sicher, ob das wirklich so sein muss. Ich verweise nochmal darauf, dass Nvidia jetzt bereits 7/8 der Pixel generieren lassen kann. Und dafür braucht es keine Unmengen an Daten oder unmengen an Rechenleistung.
Die NN Algos sind sogar sehr schlank.
Man muss ja dem NN nicht die ganze Spielgrafik oder sogar das Spiel selbst haluzinieren lassen. Es würde ja reichen, wenn einfach nur der Rendering Part ersetzt wird, so dass wir das gleiche Ergebnis bekommen, das man mit Bruteforce Rendering hätte, nur viel schneller. Der KI Renderer würde dann die gleichen oder ähnliche Inputs von der Spielengine bekommen, wie es aktuell bereits bei normalem Rendering der fall ist. Nur die finale Berechnung der Pixel würde dann das NN übernehmen. Was ja wie gesagt heute bereits zu 7/8 passiert.
Und GameStraming ist so ne Sache. Rein theoretisch könnte das die Zukunft sein. Der Vorteil wäre effizientere Nutzung von Ressourcen bzw. Hardware.
Aber in der Praxis wird die Internetverbindung der meisten Leute immer sehr viel langsamer sein, als das was gerade State of the Art hinsichtlich Bildqualität in Spielen möglich ist oder gefordert ist. Es wird also wohl immer ein mehr oder weniger großer Kompromiss für die meisten Spieler sein, auf den weder Nvidia noch der Spieler einfluss nehmen kann. Und selbst wenn die Leitung schnell genug ist, steht letztendlich bei den meisten Leuten ein WLAN Router herum. Und WLAN ist gerade durch Wände und auf etwas größere Entfernung einfach totaler Mist. Ja, es gibt stetig Verbesserungen, aber auch da wird man bei der Datenrate auch nur das bedienen können, was übers Internet rein kommt. Sind also schon zwei Flaschenhälse.
Zudem musste ich feststellen, dass bei mir trotz 100 Mbit VDSL selbst ein 1080p Stream über Stadia nicht perfekt flüssig lief, und das obwohl mein Jitter sehr gering war und meine Latenz nur bei 9ms lag. Das Problem ist hier leider, dass die Infrastruktur, also Backbones usw. nicht immer darauf ausgelegt sind, größere Datenmengen mit der notwendigen Latenz und sauberem Jitter zu verarbeiten. Soll heißen. Ein Telefongespräch oder ein 360p Stream wäre in echtzeit praktisch ohne Latenz und ohne Ruckeln möglich. Aber sobald es mal 1080p oder gar 4K sind, flutscht das einfach nicht mehr so problemlos durch die Leitung, die Latenzen steigen dann eben ein wenig an und schon hakt es. Selbst wenn die Bandbreite nur zu 10% ausgelastet wird. Das ist also regionsabhängig ein sehr großes Problem, da nicht nur die Anforderungen an die Bandbreite ausschlaggebend sind, sondern viele weitere Faktoren dazu kommen, die vermutlich stärkere Hardware bei den netzbetreibern erfordern würde, um die engen Latenzanforderungen einzuhalten.
Interessant ist dabei, dass ich mit Twitch Streams bei "geringer Latenz" und Youtube Streams selbst in 4K keinerlei Probleme habe. Einfach, weil da noch genug Latenz erlaubt wird, bevor neu synchronisiert wird, so dass die Anforderungen an die Verbindung bei weitem nicht so hoch sind, wie beim Gaming.
Daher wird dedizierte Hardware wohl noch ziemlich lange Standard bleiben.