AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video
 
Kann man nur hoffen das so Titel wie CP etc das schnell Softwaremäßig implementieren.
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
 
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
DLSS wird wohl eher nicht in den nächsten Jahren verschwinden, es kommen ja jetzt gerade erst die Engines mit nativem Support:

1. Unreal, hat bereits RT + DLSS
2. Unity, bekommt bald RT + DLSS
3. Amazon Lumberyard
4. CryEngine

Dann gibt es da noch die, nennen wir sie "Studio Engines":

ID Tech - Doom Eternal etc, bekommt aktuell RT + DLSS
Disrupt Engine - Watch Dogs Legion, hat bereits RT + DLSS
RED Engine - CP2077, hat bereits RT + DLSS
IW Engine - CoD, hat bereits RT+DLSS
Snowdrop Engine - The Division, Die Siedler, RT + DLSS Support unklar
Frostbite - Battlefield, hat bereits RT+DLSS


Warten wir mal ab wie gut FSR am Ende im Vergleich aussieht. Wenn es deutlich schlechter als DLSS ist, warum sollte es ein Entwickler nehmen wenn in der Engine beides verfügbar ist?
 
Das steht und fällt mit der höchsten auswählbaren Qualität, kann diese mit DLSS 2.0 mithalten wüsste ich nicht warum man sich weiter die Mühe machen sollte DLSS zu Supporten, selbst ältere Nvidia Karten wie Pascal unterstützen wohl Fidelity FX. Mal sehen was am Ende bei rauskommt, Nvidia hat am Ende auch einen zweiten Anlaufen gebraucht um DLSS interssant zu gestalten aber das war eben vor knapp einem halben Jahr. Generell finde ich es aber wieder höchst löblich das AMD einen offenen Standard wählt.
 
DLSS wird wohl eher nicht in den nächsten Jahren verschwinden, es kommen ja jetzt gerade erst die Engines mit nativem Support:

1. Unreal, hat bereits RT + DLSS
2. Unity, bekommt bald RT + DLSS
3. Amazon Lumberyard
4. CryEngine

Dann gibt es da noch die, nennen wir sie "Studio Engines":

ID Tech - Doom Eternal etc, bekommt aktuell RT + DLSS
Disrupt Engine - Watch Dogs Legion, hat bereits RT + DLSS
RED Engine - CP2077, hat bereits RT + DLSS
IW Engine - CoD, hat bereits RT+DLSS
Snowdrop Engine - The Division, Die Siedler, RT + DLSS Support unklar
Frostbite - Battlefield, hat bereits RT+DLSS


Warten wir mal ab wie gut FSR am Ende im Vergleich aussieht. Wenn es deutlich schlechter als DLSS ist, warum sollte es ein Entwickler nehmen wenn in der Engine beides verfügbar ist?
DLSS ist keine schlechte Technik aber warum sollten Entwickler Zeit und Geld investieren und am Ende nur die halbe Käuferschaft ansprechen, wenn sie mit einer offenen Technik alle inklusive Konsolen erreichen?

AMD hat die Technik nicht umsonst Harwareunabhängig gemacht. Die wussten schon das NV sauber in die Studios investiert hat um DLSS durchzusetzen, ist aber dank einer offenen Technik dank AMD obsolet geworden. War sicher ein Seitenhieb von AMD. NV hat den Braten schon gerochen und ihre Technik mit noch mehr Druck verbreitet, wird nichts helfen.
Am Ende wollen die Studios auch Gewinne einfahren, alle Gamer abholen und nicht nur die Grünen.

Es sei denn es ist nicht aufwendig für die Studios beide Techniken zu implementieren oder NV übernimmt den Hauptteil der Arbeit, dann sehe ich noch eine Chance für DLSS.
 
Zuletzt bearbeitet:
Da auch die Konsolen davon profitieren, wird sich die Technik schnell durchsetzen. Eine offene Technik die auf jeder Hardware funktioniert dürfte die Spieleentwickler interessieren, man steht nicht vor der Entscheidung entweder oder.
Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
Wichtig ist erstmal das FSR ähnlich gut wie DLSS funktioniert. Es bringt mir nichts wenn FSR mit allem kompatibel ist aber kacke aussieht.
 
Bezüglich der AMD-Präsentation:
Finde die Bildvergleiche relativ durchsichtig.

AMD FSR Off --> hellere, detailreichere Bildbereiche
AMD FSR ON --> dunkle, schlecht ausgeleuchtete Bildbereiche

Man dreht den Winkel immer so, dass die Unschärfe der Presets nicht auffällt.
Es ist aber im Zoom schon jetzt erkennbar.

Denke, wenn unabhängige Reviewer später die gleichen Maßstäbe wie bei DLSS ansetzen, wird man zu einem vernichtenden Urteil bezüglich der Qualität kommen.

Volle Auflösung:


vlcsnap-2021-06-02-09h35m56s484.jpg vlcsnap-2021-06-02-09h36m07s954.jpg

vlcsnap-2021-06-02-09h36m18s094.jpg

Man muss nicht mal großartig suchen und es ist schon trotz Youtube-Bildkompression sichtbar.
Da können die ihre Ansichten drehen und wenden wie sie wollen.
Und das da ist das "Ultra-Quality-Preset":

1.png


2.png



---


Nvidias KI-Upscaling DLSS ist spätestens seit Version 2.0 so erfolgreich, dass AMD dringend eine Alternative benötigt.
AMD hat ein Problem: Immer mehr Titel setzen auf das aufwendige Lichtrenderverfahren Raytracing und Nvidias KI-Upscaling DLSS. Die Technologie bringt teils massive Leistungsgewinne und erzeugt gerade in hohen Qualitätseinstellungen ein hochgerechnetes Bild, das der originalen Auflösung nahekommt und in den Augen manch eines Betrachters sogar übertrifft – dank zusätzlicher KI-generierter Details.
Ja, auch schon gemerkt? :fresse:
Auf einmal merken alle, dass intelligentes Upscaling die Zukunft ist.

Titel wie Cyberpunkt 2077, die visuell stark von Raytracing profitieren, lassen sich nur mit DLSS in spielbaren Bildwiederholraten erleben.
Ob Cyberpunk 2077 ein gutes oder schlechtes Spiel ist, entscheiden die AMD-Fanboys abhängig davon, wie gut AMD FSR dort funktioniert. :D Aktuell ist das Game natürlich schlecht und Raytracing ist kompletter Müll. Mal gucken, wie der Wind dreht, wenn AMD FSR genutzt werden kann und es hoffentlich "gut" ist.

Laut AMD soll sich die Bildwiederholrate im Performance-Modus durchschnittlich verdoppeln im Vergleich zum nativen 4K-Rendering.
Im Qualitätspreset sind es ca 60%, so wie bei DLSS2.0 auch.
Die Leistungsverbesserung ist augenscheinlich gut.
Mal schauen wie die Qualität dann aber auch in der Realität ist, denn:

Wie genau FSR funktioniert, ist weiter unklar. Allerdings verriet AMD gegenüber Anandtech, dass FSR eine räumliche Upscaling-Technologie sein wird und daher nur jedes Bild separat hochrechnet, ohne Bewegungsdaten (Bewegungsvektoren) aus dem Spiel zu berücksichtigen.
Einen ähnlichen Ansatz verfolgte Nvidia mit DLSS Version 1.0, deren Ergebnisse qualitativ weit hinter denen von DLSS 2.0 liegen, das zusätzlich Bewegungsvektoren mit in die Upscaling-Berechnungen integriert.
Das Upscaling soll ab dem 22. Juni als GPUOpen-Technologie verfügbar sein und zu Beginn in “zehn Titeln und Engines” zum Einsatz kommen. Welche das sind, verrät AMD nicht.
Also überall und nirgendwo.
Das ist ja schlimmer als bei DLSS. :lol:

DLSS kam im Februar 2019. AMD FSR kommt jetzt zweieinhalb Jahre später im Juni 2021 und kämpft wohlmöglich mit den gleichen Kinderkrankheiten, die DLSS damals hatte.

Wenige Games und suboptimale Umsetung bis zum Refresh der Technologie mit der nächsten Generation.
Außerdem wohl kein vernünftiger KI-Ansatz.
16K-Rohmaterial kam auch erst mit DLSS2.0.

Das wird ne richtig bittere Nummer für einige Gehypte - im Vergleich natürlich.
Grundsätzlich ist die Technologie natürlich super für alle Beteiligten.

Bin sehr gespannt auf die Direktvergleiche hinsichtlich Qualität und Performance!

Das ist auf jeden Fall für uns Gamer der richtige Schritt gewesen, NVs DLSS Technik wird dann nach und nach von der Bildfläche verschwinden.
Schwachsinn. DLSS ist gerade mal in den wichtigsten Engines implementiert worden. Das lässt sich mittlerweile mit wenigen Klicks per Plugin hinzuschalten. Das bleibt jetzt garantiert erst mal ne ganze Weile.

Ganz davon haben BigNavi-Grafikkarten im Vergleich zu Turing/Ampere-Grafikkarten kaum einen relevanten Marktanteil, wenn man sich die Hardware-Surveys anschaut. DLSS-Nutzer gibt es mittlerweile extrem viele.

DLSS ist keine schlechte Technik aber warum sollten Entwickler Zeit und Geld investieren und am Ende nur die halbe Käuferschaft ansprechen, wenn sie mit einer offenen Technik alle inklusive Konsolen erreichen?
Weil es kein großer Akt ist DLSS zu aktivieren.
Das hat jetzt quasi Nativ-Support in der UnrealEngine und in Unity, weitere folgen.
Man kann das eine machen ohne das andere zu lassen.
 
Zuletzt bearbeitet:
Am Anfang war ich ein wenig skeptisch, aber die Werte sehen doch schon ganz gut aus. Bleibt abzuwarten, ob es ähnlich gut aussieht, wie DLSS.

Interessant, dass nur die 500er erwähnt wurde, das könnte blöd für die Besitzer einer 400er Karte sein, wobei die Funktion alle gebrauchen können, selbst meine GTX 670 könnte ordentlich davon profitieren. Wenn es dafür käme, dann könnte die R9 390X die erste Karte sein, mit der man auch nach 10 Jahren ordentlich zocken kann und das sogar in 4K.

DLSS wird wohl eher nicht in den nächsten Jahren verschwinden, es kommen ja jetzt gerade erst die Engines mit nativem Support:

Ich fürchte, da könntest du recht haben, da steht uns wohl ein Formatkrieg ins Haus. Am Ende könnte sich AMDs Ansatz durchsetzen, bei Free Sync haben sie es auch geschafft.

Warten wir mal ab wie gut FSR am Ende im Vergleich aussieht. Wenn es deutlich schlechter als DLSS ist, warum sollte es ein Entwickler nehmen wenn in der Engine beides verfügbar ist?

Weil es dann auf 80-100% der Karten, die in Umlauf sind läuft und nicht nur auf den gut 20% RTX Karten. Das ist ein starkes Argument. Nvidia nutzt DLSS um neue Karten zu verkaufen, AMD will Nvidia hingegen rausdrängen.
 
Weil es dann auf 80-100% der Karten, die in Umlauf sind läuft und nicht nur auf den gut 20% RTX Karten. Das ist ein starkes Argument. Nvidia nutzt DLSS um neue Karten zu verkaufen, AMD will Nvidia hingegen rausdrängen.
Ja es läuft auf allen Karten, aber was nützt es, wenn die Qualität nicht mal im Ansatz an das AI-Upscaling von DLSS2.0 herankommt? DLSS1.0 wurde damals noch zurecht ordentlich kritisiert und wenn man sich die Bildvergleiche bei der AMD-Präsentation, wo man obendrein noch von Cherrypicking ausgehen kann, anschaut, dann würde ich mir nicht zu viel versprechen.

Fehlt der AI-Ansatz, dann kann man sich die Nummer schenken, sofern es auch ohne spielbar ist.
Der Grundsatz war, eine Leistungssteigerung bei gleichbleibender Qualität zu erreichen.

Das hier ist was anderes:


Das ist Matsch mit Schadensbegrenzungsfilter und wohlgemerkt auf "Ultra-Quality". :ugly:
 
Zuletzt bearbeitet:
Nicht alles was jedes Spiel macht, macht Sinn. Es gibt auch solche Beispiele:

Beispiel 1 - Vorher:
Objekt in 4k Szene -> weniger fps dank ordentlich Motion Blur -> effektive Auflösung des Objekts nach dem Verschmieren 1440p

Beispiel 2 - Nachher:
Objekt in 4k Szene -> mehr FPS weil Szene in 1440p gerechnet wird -> weniger fps dank Motion Blur -> effektive Auflösung des Objekts nach dem Verschmieren 1080p -> DLSS rechnet Szene von 1440p auf 4k hoch -> das von Motion Blur betroffene Objekt wird ebenfalls nachgeschärft -> Objekt sieht jetzt besser aus als vorher (weil rekonstruiert von native 1440p ohne (!) Motion Blur und nicht rekonstruiert aus dem 1080p Motion Blur Endergebnis -> Objekt landet auf der Nvidia Homepage als Beispiel wie toll DLSS ist.

Währenddessen:
User beschweren sind über zu viel Motion Blur in dem Spiel.

Ich finde ja auch DLSS und FSR gehört die nahe Zukunft, aber manchmal.....
 
Hier wird schon wieder fabuliert, sowas wie nativ in die Engine integriert gibt es nicht, eine Engine kann höchstens in dem Bausatz aus dem diese besteht mit einem Modul ausgestattet werden um die Funktion leichter zu integrieren. Mit Plug & Play hat das alles nichts zu tun,zudem müssen die Libarys auf jedes Spiel angepasst werden.

Hauseigene Engines sind auch meist kein beliebiger Baukasten wie die Lizensengines von Unity und Epic sondern meist auf ein recht konkretes Einsatzgebiet abgestimmt wo man dann den Grundstock an die neuen Gegebenheiten anpassen kann und selbst die Lizensierbaren Engines müssen auf jedes Projekt entsprechend abgestimmt werden damit da was brauchbares bei raus kommt.

Die krude Annahme, dass nur weil ein Titel ein Feature unterstützt das nun facerollmäßig überall integriert werden kann ist schlicht nativ naiv.

Richtig ist, das je mehr vergleichbare Projekte auf Basis der Engine es gibt, um so besser wird der Rohdatenstamm mit der Zeit und eine implementierung mit der Zeit immer simpler. Hinzu kommt das vor allem Engines von den Techniken profitieren die grundsätzlich schon eine sehr hohe temporale Komponente haben die unschärfe kaschieren soll, nimmt man diese raus erhältman meist den gegenteiligen Effekt und Objekte werden sehr unruhig. Da sind anpassungen auch von Hand immer nötig, allein schon um grobe Artefakte zu vermeiden.
 
DLSS ist keine schlechte Technik aber warum sollten Entwickler Zeit und Geld investieren und am Ende nur die halbe Käuferschaft ansprechen, wenn sie mit einer offenen Technik alle inklusive Konsolen erreichen?
Nicht alle Konsolen haben AMD Chips drin. Zumindest in Nintendo Switch werkelt Nvidia Chip. Angeblich soll ja jetzt wirklich Switch Pro mit DLSS Support kommen.
Also hat man zumindest eine Konsomenplattform die man neben PC mit DLSS supporten könnte.

Glaube auch eher dass es erst mal kooexistieren wird. Nvidia wird auch in weiteren Ausbau investieren um sich vielleich wieder Stück abzuheben.
Hängt galt davon ab wie viel Skalierungspotenzial beide Verfahren haben.

Denn schon zur PS4/One hat man bessere AMD Ports bescheinigt aber letzten Endes liefen Konsoleports von Gears Ultimate und Co oft auf Team Grün erst mal potenter.

Die Marktanteile am PC scheinen Entwickler hier und da trotz der Hardwarebasis der Playstation/Xbox nicht davon abzuhalten erst für Nvidia zu optimieren.
 
Nun mal nicht so schnell mit der Totsagung von AMDs Technik . Die Technik war weder von NV neu noch von AMD. Schon vorher war in Spieleengines ähnliche Techniken implementiert die gut funktionierten. Was jetzt beide HW Hersteller dazu gebracht haben ist eine Globale KI-Datenbank. Auch wenn NV natürlich weil sie die Technik länger am Markt haben einen Zeitvorteil haben, wird AMD diesen durch die breite Masse die sie ansprechen diesen Zeitvorteil schnell aufholen können. Eine Technik die Harwareunabhängig ist und nicht nur auf den letzten 2 Generationen eines Herstellers läuft + die letzten beiden Konsolengerationen mitnimmt, die muss sich durchsetzen.
Welcher Entwickler will schon ausschließlich NV 2000er und 3000er Besitzer ansprechen wenn die Konkurrenz alle erreicht? Genau Keiner!

Wenn AMDs Technik nicht ein totaler Fehltritt wird, was ich nicht glaube da die Techniken an sich schon älter sind, wird es sich durchsetzen.
 
Denn schon zur PS4/One hat man bessere AMD Ports bescheinigt aber letzten Endes liefen Konsoleports von Gears Ultimate und Co oft auf Team Grün erst mal potenter.

Die Marktanteile am PC scheinen Entwickler hier und da trotz der Hardwarebasis der Playstation/Xbox nicht davon abzuhalten erst für Nvidia zu optimieren.
Das hat eher was mit dem Scheduler des Treibers zu tun als mit einer Optimierung auf irgendeinen Hersteller.
Die Portierungen erfolgen mit so wenig aufwand wie nur möglich, das war eben DX11 mit entsprechendem Overhead.Die Sachlage hat sich da aber grundlegend geändert durch die API´s.
 
Hier wird schon wieder fabuliert, sowas wie nativ in die Engine integriert gibt es nicht, eine Engine kann höchstens in dem Bausatz aus dem diese besteht mit einem Modul ausgestattet werden um die Funktion leichter zu integrieren. Mit Plug & Play hat das alles nichts zu tun,zudem müssen die Libarys auf jedes Spiel angepasst werden.

Hauseigene Engines sind auch meist kein beliebiger Baukasten wie die Lizensengines von Unity und Epic sondern meist auf ein recht konkretes Einsatzgebiet abgestimmt wo man dann den Grundstock an die neuen Gegebenheiten anpassen kann und selbst die Lizensierbaren Engines müssen auf jedes Projekt entsprechend abgestimmt werden damit da was brauchbares bei raus kommt.

Die krude Annahme, dass nur weil ein Titel ein Feature unterstützt das nun facerollmäßig überall integriert werden kann ist schlicht nativ naiv.

Richtig ist, das je mehr vergleichbare Projekte auf Basis der Engine es gibt, um so besser wird der Rohdatenstamm mit der Zeit und eine implementierung mit der Zeit immer simpler. Hinzu kommt das vor allem Engines von den Techniken profitieren die grundsätzlich schon eine sehr hohe temporale Komponente haben die unschärfe kaschieren soll, nimmt man diese raus erhältman meist den gegenteiligen Effekt und Objekte werden sehr unruhig. Da sind anpassungen auch von Hand immer nötig, allein schon um grobe Artefakte zu vermeiden.
Also ein Plugin aktivieren ist nicht Plug-and-Play? Das definieren wir wohl anders. Klar muss man da noch manuell nachsteuern, aber das wird bei FSR ja nicht anders sondern sogar schlimmer sein. Da gibt's nämlich offenbar kein Training seitens AMD, das müssen die Entwickler selber machen. Und die haben keine Neural-Network-Serverfarmen wie NV wo sie mit 16K Bildmaterial mal eben so den Algorithmus trainieren können.
 
Also ein Plugin aktivieren ist nicht Plug-and-Play? Das definieren wir wohl anders. Klar muss man da noch manuell nachsteuern, aber das wird bei FSR ja nicht anders sondern sogar schlimmer sein. Da gibt's nämlich offenbar kein Training seitens AMD, das müssen die Entwickler selber machen. Und die haben keine Neural-Network-Serverfarmen wie NV wo sie mit 16K Bildmaterial mal eben so den Algorithmus trainieren können.
Mit aktivieren hat das nichts zu tun, das muss INTEGRIERT werden. Ein entscheidender Unterschied.
Die Art des Trainings ist für die Entwickler sogar besser würde ich sagen,man benötigt keine zuarbeit und verwendet seine eigenen Daten im laufenden Prozess zum trainieren. Das wird man einfach over night aktivieren und rechnen lassen und generiert sich so seinen eigenen Datenstamm der einem selbst gehört und der sich selbst editieren lässt.Ich sehe da kein Problem darin, die "Cloud" dürfte sogarlangfristig deutlich mehr Daten generieren und vor allem deutlich breiter angelegte.
 
Wie gesagt, ich bin höchst gespannt auf faire Direktvergleiche zwischen FSR und DLSS, aber mehr aufgrund des Unterhaltungswertes. Das Ergebnis kann man sich nämlich jetzt schon denken bzw sehen. AMD betreibt hier die übelste Schadensbegrenzung. Das Feature sollte eigentlich schon unmittelbar mit der RX6900XT launchen und jetzt ist ein halbes Jahr vergangen und in wenigen Wochen ist dann "Abgabe". :ugly: Da wird das Ding dann auf den Tisch geklatscht und der Hypetrain passt nicht durch den Tunnel. :fresse:


Man kann das dolle Feature dann mit ganzen 10 Games testen.
Hat da irgendwer ein Déjà-vu? Ich schon.

Jetzt wo ein Upscaling-Feature auch bei AMD-Karten verfügbar wird, verschieben sich die Maßstäbe, denn man wird sich einem Direktvergleich stellen müssen und jetzt guckt man sicherlich nicht mehr so genau hin bei "Unschärfen". Und den KI-Ansatz braucht man ja auch nicht. Und am besten schnell weg mit DLSS. :lol:

Und man hört es ja auch schon in dieser Diskussion heraus:

DLSS wird in die Unreal Engine eingepflegt und ist als PlugIn herunterladbar und aktivierbar. Bei Unity das gleiche.
--> "Dauert JAHRE bis das implementiert wird."

AMD FSR wird für die gleichen Engines als PlugIn herunterladbar und aktivierbar.
-->"Das wird jetzt ganz ganz schnell überall Einzug finden."

Ihr müsst euch mal selbst zuhören. :lol::lol::lol:
 
Wie gesagt, ich bin höchst gespannt auf faire Direktvergleiche zwischen FSR und DLSS, aber mehr aufgrund des Unterhaltungswertes. Das Ergebnis kann man sich nämlich jetzt schon denken bzw sehen. AMD betreibt hier die übelste Schadensbegrenzung. Das Feature sollte eigentlich schon unmittelbar mit der RX6900XT launchen und jetzt ist ein halbes Jahr vergangen und in wenigen Wochen ist dann "Abgabe". :ugly: Man kann das dolle Feature dann mit ganzen 10 Games testen. Hat da irgendwer ein Déjà-vu? Ich schon.

Jetzt wo ein Upscaling-Feature auch bei AMD-Karten verfügbar wird, verschieben sich die Maßstäbe, denn man wird sich einem Direktvergleich stellen müssen und jetzt guckt man sicherlich nicht mehr so genau hin bei "Unschärfen". Und den KI-Ansatz braucht man ja auch nicht. Und am besten schnell weg mit DLSS. :lol:
Weiß garnicht warum du so scharf schiessen mußt, wird doch auch auf deiner 3090 laufen ;).
 
Zurück