Hannesjooo
BIOS-Overclocker(in)
Klasse AMD <3
unknown_2021.06.01-07.13.png - hochgeladen am 01.06.2021 | ImageBanana
Entdecke unknown_2021.06.01-07.13.png auf ImageBanana. Dieses Bild wurde von einem Nutzer hochgeladen und bereits 768 mal angesehen.www.imagebanana.com
Interessant! Erzählst du uns auch, wieso du den Unterschied zwischen klaren und "vaselinigen" Kontaktlinsen so gut beurteilen kannst?Sieht ja aus als hätte ich mir Vaseline auf die Kontaktlinsen geschmiert...^^ Wie soll man das denn so beurteilen?
Das ist vielleicht der mieseste Imagehoster den ich in 20 Jahren gesehen habe. lol
Was für ein hässliches GUI and eine schlechte UX.
Hashtag #BananaDas ist vielleicht der mieseste Imagehoster den ich in 20 Jahren gesehen habe. lol
Was für ein hässliches GUI and eine schlechte UX.
Ja einen hochwertigen downsampler hätte ich mir auch eher gewünscht, andereseits liefert AMD ja mit VSR da eigentlich schon das beste auf dem Markt.
Das ist schon witzig, alle Leute sagen sie erkennen keinen Unterschied zwischen Streaming und einer Bluray, aber bei Spielen wo man eher weniger auf die Umgebung achten kann, ist es auf einmal ein riesen Problem.
Mir geht es sogar häufig so das ich beim zocken oft die Umgebung nicht richtig war nehme, da es oft genug die Situation gar nicht zulässt.
Ob es gut oder schlecht ist hängt vermutlich von Spiel zu Spiel ab und lässt sich ja gegeben falls ausschalten und damit kein Problem.
Soweit ich das mitbekommen habe, basiert FSR durchaus auch auf Deep Learning, allerdings wird das nicht spielespezifisch eingesetzt. Frag mich grad aber nicht nach ner Quellenangabe, ich schau bei Gelegenheit mal, ob ich das nochmal finde.
Naja, "Supergau", so weit würde ich dann nicht gehen. Wenn die Performance stimmt, hätte AMD sein Ziel erreicht, denn hierbei geht es im Wesentlichen darum die Konsolen "echt" 4K-tauglich zu machen. (Auf dem PC ist der Anteil an AMD-Hardware relativ gering und mit den ersten Vertriebsmonaten von RDNA2 hat sich die Situation gar eher verschlimmbessert.)
Aber ja, wäre ein NN im Spiel, könnte es tatsächlich sein, dass das auf nVidia-Hardware performanter läuft, aber hier wird man erst mal abwarten müssen, ob AMD nun tatsächlich auch einen AI-basierten Ansatz umgesetzt hat.
Mit Fidelity FX Super Resolution liefern se auch das beste am Markt.Ja einen hochwertigen downsampler hätte ich mir auch eher gewünscht, andereseits liefert AMD ja mit VSR da eigentlich schon das beste auf dem Markt.
Ich denke die Fury wird supportet werden, auch wenn die nicht zwangsläufig mit erwähnt wird.Hmm. Als Fury Besitzer schaue ich wohl leider in die Röhre, schade.
Bin dennoch sehr gespannt wie das Ganze dann wirklich ausschaut.
Ja das bedeutet Open Source. Es kostet nichts und es kann jeder nutzen.Auf den ersten Blick sieht DLSS schon etwas besser aus. Dennoch gefällt mir der offene Standard und für den ersten Wurf ist die Qualität nun nicht so schlecht.
Krass finde ich allerdings, dass AMD mir als Besitzer einer GTX 1060 die Möglichkeit einräumt ihre Technik zu nutzen
Nvidia war ja mit DLSS nicht so "freigiebig"
Ich sehe das mit dem Marketing anders. So gut wie jedes Spiel der "breiten Masse" hat DLSS oder bekommt es in Zukunft, genau wie Raytracing Features. Die Aussage mochte 2018 und 2019 noch zutreffen. Aber mittlerweile ist DLSS als Plugin in der UE4 und kann von jedem genutzt werden, Unity hat (meine ich gelesen zu haben) dasselbe vor. Wie viel Prozent der Indytitel nutzen diese Engines?So richtig gut gefällt mir DLSS auch nur im Quality Modus und da reicht mir auch der gemäßigte fps Zuwachs. Mit Super Resolution wird das nicht anders sein. Keine Wunder erwarten, lieber dem Spiel den Schliff von 45 auf 60fps geben und gut ist.
Über die Konsolen und DirectX muss sich AMD nicht die Sorgen machen wie Nvidia. DLSS und RTX brauchen Marketing um sich zu etablieren. Das was AMD für Sony und MS macht ist schon längst Standard, wir wissen es nur noch nicht.
Zweifellos, weil viele nicht verstehen worum es hierbei geht und der Industrie ist vermutlich auch gar nicht daran gelegen den Mythos um KI (bzw. in diesem Kontext genauer gesagt, ML oder noch konkreter vielfach DL) herum aufzuheben, weil sich alles KI-erweiterte heute als die Killerapplikation schlechthin zu verkaufen scheint, die angeblich jedwedes Problem lösen kann."AI" ist auch nur ein Buzzword, über das man [...]
...AMD, als dann doch recht kleines Unternehmen...
Noch nie in einen BIlanzbericht geschaut? Die sind kleiner als nVidia und erwirtschaften auch deutlich weniger (schlicht weil sie deutlich weniger ab/umsetzen) und gegen einen Riesen wie Intel braucht man diesbezüglich keinen Vergleich zu versuchen.[... AMD, als dann doch recht kleines Unternehmen ...]
Wot?!?
Zweifellos, weil viele nicht verstehen worum es hierbei geht und der Industrie ist vermutlich auch gar nicht daran gelegen den Mythos um KI (bzw. in diesem Kontext genauer gesagt, ML oder noch konkreter vielfach DL) herum aufzuheben, weil sich alles KI-erweiterte heute als die Killerapplikation schlechthin zu verkaufen scheint, die angeblich jedwedes Problem lösen kann.
Zum Thema Hype, Missverständnissen, etc. erklärte Prof. Peter Liggesmeyer mal: "Wenn [diese DL-] KI-Systeme als 'neuronale statistische Datenanalysen' bezeichnet würden, was der Realität wesentlich näher käme, dann würde sich wahrscheinlich keiner Gedanken darüber machen [und man würde sich der aktuellen Technik mit einer realistischeren Erwartungshaltung nähern]."
Ergänzend zum Trainig: Das vermeintliche Patent gibt nichts über den Ort des Trainings her ... fiel hierzu eine Aussage in der Präsentation?
Darüber hinaus, wenn dieses nun wieder auf die Entwickler verlagert wird, wäre das genau das, was man ursprünglich DLSS als einen der Hauptkritikpunkte anlastete ... neben der technischen Implementation das zusätzlich aufwendige Traning pro Spiel, ggf. gar pro einzelnem Level, was den Entwickelraufwand natürlich beträchtlich erhöht.
Darüber hinaus, steht es aber auch DLSS-Anwendern frei das von nVidia frei Haus gelieferte NN weiter zu trainieren und an einen konkreten Titel anzupassen um noch etwas bessere Resultate zu erzielen, nur scheint das so gut wie keiner zu machen, weil der Arbeitsaufwand anscheinend in keinem Verhältnis zu dem steht, was deren NN (und Algorithmus) schon out-of-the-box zu liefern vermag.
Es wird auf jeden Fall interessant sein, das alles zu vergleichen und wie ich schon zuvor anmerkte, da kann man dann auch gleiche UE5's Temporal Super Resolution und Intel's XeSS mit hinzunehmen ... "Spieglein, Spieglein an der Wand, wer hat das schönste Upsampling im ganzen Land"
Ich denke der einzig richtige Ansatz wäre ein dezentralisiertes KI Learning, also so etwas wie Folding@Home und Konsorten. Vorteil der Entwicklung wäre dabei, dass man eben nicht aufwendig alle Workstations für viel Geld laufen lassen müsste. Vorteil wäre auch, dass eine riesige und geballte Userschaft bei Triple AAA Titeln binnen kürzester Zeit eine große Datenbasis legen würde. Ich denke, dass dies der Ansatz der Zukunft sein wird, denn es macht keinen Sinn (so verstehe ich DLSS 2.0), dass jeder User immer alles berechnen muss und es macht eigentlich auch keinen Sinn das Ganze zentral zu berechnen, da die Kosten dort wahrscheinlich recht schnell ins Unermeßliche steigen. Wenn aber bei einem Titel wie Battlefield 7 Mio Nutzer eine Datenbasis legen, dann wird man ganz schnell ins Gefilde kommen, die das Bild wirklich gut hochskalieren und eben die nötigen Infos haben.Das Problem bei DLSS 1.0 war dagegen, dass eben nicht die Entwickler, sondern Nvidias Treiberabteilung so etwas machen musste. Und während sich jeder Entwickler für sein Spiel interessiert und qualifiziert ist, da zusätzliche Routinen einzubauen oder bereits in frühen Stadien eine lauffähige Version ins Training zu schicken, hatte Nvidia wenig Muße, DLSS für mehr als ein 1-2 Dutzend fertige Titel überhaupt anzufassen.