Diablo 2: Fan nutzt neuronales Netzwerk und gibt dem Klassiker eine Remaster-Optik

Ich hätte auch nichts gegen Remakes der ersten beiden Teile. Das waren noch richtige Hack & Slay Games die man suchten konnte.
 
Ich weiß nicht ... Ein Remake von D2 (eventuell auch D1, nur als Snack für zwischendurch) hat eine gewissen Reiz, andererseits gibt es genug neuere oder sogar ziemlich aktuelle Vertreter des Genres, die allesamt besser sind als das, was ich nach D3 und den jüngsten Eskapaden Blizzard zutraue.
 
Neuronales Netzwerk hört sich immer so toll und beeindruckend and für einen simplen Algorithmus :D

Ganz so simpel ist das ganze nicht. Ein simpler Algorithmus macht immer das gleiche. Hier hat man aber ein GAN, also zwei KIs die gegeneinander arbeiten. Die erste KI soll ein hochskaliertes Bild erschaffen und die zweite KI soll sagen ob es hochskaliert wurde oder nicht. Sagt die zweite KI dass das Bild hochskaliert wurde, dann wird der ersten KI gesagt woran der "Fake" erkannt wurde und die macht einen neuen Versuch bis das Ergebnis von der zweiten KI nicht mehr als Fake erkannt wird. Das ist z.B. was Nvidia per DLSS macht. Hier ist jetzt das Problem dass man beide KIs antrainieren muss. Die erste KI braucht viele Daten in niedriger Auflösung zum hochskalieren und die zweite KI braucht die selben Daten in hoher Auflösung damit die weiß wie das Endergebnis aussehen sollte. Trainiere ich jetzt die KIs mit Mangabildern an, dann wird die eine KI versuchen ein Bild zu erschaffen was als Manga Bild durchgeht und die andere KI dies prüfen. Da die Screenshots von Diablo 2 meiner Meinung nach nicht wie Bilder aus einem Manga ausschauen ist der in der News genutzte Datensatz nicht optimal, wurde aber wahrscheinlich genutzt weil der frei verfügbar ist.
 
Offenbar hast du keine Ahnung :) Aber kein Thema, ich kann dir einfach zeigen, dass du kein Plan hast. Nimm bitte diesen Screenshot und skaliere ihn "in ein paar Minuten" mal kurz hoch: https://www.chip.de/ii/4/2/0/1/4/3/1/8a646be968d26de5.jpg

Aus einem tot komprimierten JPEG holt man natürlich nichts mehr raus.
Worum es mir ging: es gibt mittlerweile diverse neuronale Netze zum Hochskalieren von Bildern (das bekannteste dürfte vielleicht Waifu2x sein), die sich jeder in wenigen Minuten auf dem PC installieren kann. Der User schreibt auf Reddit ja auch selber "[FONT=&quot]Was playing around with ESRGAN and decided to see how it would handle Diablo 2." Er hat nichts aufwendig angepasst, damit es besonders gut mit Diablo 2 harmonisiert, sondern schlicht ein paar Screenshots da durch gejagt.[/FONT]
 
Aus einem tot komprimierten JPEG holt man natürlich nichts mehr raus.
Worum es mir ging: es gibt mittlerweile diverse neuronale Netze zum Hochskalieren von Bildern (das bekannteste dürfte vielleicht Waifu2x sein), die sich jeder in wenigen Minuten auf dem PC installieren kann. Der User schreibt auf Reddit ja auch selber "[FONT=&quot]Was playing around with ESRGAN and decided to see how it would handle Diablo 2." Er hat nichts aufwendig angepasst, damit es besonders gut mit Diablo 2 harmonisiert, sondern schlicht ein paar Screenshots da durch gejagt.[/FONT]
Genau. Und vor allem sollte niemand erwarten, dass sowas in Bewegtbildern gut aussieht. Da versagt das System und produziert massive Bildfehler (flackernde Bereiche, fehlerhafte Transparenzeffekte, "übersehene" Kanten = inkonsistente Treppchenbildung etc.). Deshalb gibt es bei Nvidia auch nur moderate Auflösungssprünge (z.B. von 1440p auf 2160p) um die Sichtbarkeit dieser Fehler zu minimieren und nicht wie hier eine Achsenverdoppelung.

Im Grunde eine Clickbaitnews, denn korrekt hätte man sagen müssen "Diablo Spieler jagt Screenshots durch modernen Upscaling Filter". Klingt halt nicht so spannend.
 
Das ist einfach:

If XYZ (3 mal schwarzer Kater)
then ABC (Apfelkompott mit Fliegenschißbeilage)

Der schwerere Algorythmus wäre dann:

If XYZ (3 mal schwarzer Kater)
then ABC (Apfelkompott mit Fliegenschißbeilage)
if not XYZ and ABC then (Schlemmerfilet und Wirsingkraut)
 
So reden nur Leute, die keine Informatikingenieure UND selbstübetschätzend sind. Erklär mal den "simplen" Algorithmus. Was ist für dich ein "komplexer" Algorithmus?

Nein, tatsächlich ist das grundlegende nicht sooo kompliziert. Ein Outputwert o_j ist einfach die Summe über a_ij * sig(x_i), wobei, a_ij beliebige Faktoren sind, x_i die Inputwerte und sig(x) eine beliebige sigmoid Funktion, zB sig(x)=1/(1+exp(-x)). Dann trainierst du das Netzwerk, dh du kennst Input- und Outputwerte und kannst so deine Faktoren a_ij verbessern.
Gibt eine sehr gute Videoreihe von 3Blue1Brown dazu, kann ich sehr empfehlen.
 
Zuletzt bearbeitet:
Und GENAU DAS ist das, was mir so gefällt. Ich muss mich nicht über 98726345 Skills und Funktionen 3 Tage in ein How-To einlesen und ich muss nicht zehntelsekundengenau klicken und Fähigkeiten auslösen und ich muss kein Mathematiker sein um zu verstehen wie ein Schadenswert zustande kommt. Der Bildschirm ist nicht derart überladen dass man gar nichts mehr erkennt und das Spiel ist nicht so schnell dass man nen Herzinfarkt bekommt. Man wird nicht mit drölfzig Gear vollgeschmissen wo man nicht mal mehr lesen muss/kann was es ist und hat statt stupidem Dauerfarmen Zeit, gemütlich die beklemmende Atmosphäse des Spiels zu erleben. Und es kommen nicht alle paar Monate Veränderungen die alles wieder über den Haufen werfen.

Allesamt Dinge, die den Leuten über die Jahrzehnte der Spieleentwicklung durch "höher, schneller, weiter (,komplizierter)" abtrainiert wurden.

Fandest du das so schlimm in Diablo 2 mit den ganzen skills ? Was die Ladder angeht das nervt schon und Blizzard war auch nie Fan davon weil es ebend diesen Hetzcharackter hat. Mich hat es in D2 auch genervt und fand das ziemlich künstlich. In Diablo 3 kam die Ladder ja wieder obwohl das nie gewollt war.

Das Third Person Diablo wurde ja leider eingestellt hätte mal gerne was davon gesehen. Nen Remaster zu Diablo 2 wäre ganz nett, Blizzard meinte aber das sei nicht umsetzbar.
 
Zurück