AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

Interessant wird es, ob AMD auch das Upscaling hinbekommt. [...]
Das müssen sie ja, da sie ja ihr Fidelity FX Super Resolution explizit als Gegenstück zu DLSS positionieren. Würde es sich hierbei nur ein ein verbessertes AA handeln, wäre das zwar nett, würde aber an dem was benötigt und erwartet wird komplett vorbei gehen.
nVidia's aktuelle Gens können mittels der Technik signifikante GPU-Ressourcen freihalten, um komplexere Grafik zu berechnen *), d. h. damit haben die grundsätzlich einen Vorteil ggü. AMD-GPUs (wenn man ihnen die Verwendung von DLSS zugesteht ... vielfach wird es ja auch aus eher psychologischen Gründen kategorisch abgelehnt. ;-)).

*) Und das ist noch nicht einmal auf eine gemeinsame Verwendung mit Raytracing beschränkt.
Bei Nvidia sehe ich das klassische Henne Ei Problem. War es nicht eher so das die Tensor Cores aus dem Profibereich kommen und DLSS eingeführt wurde, damit sie beim gaming kein toter wertloser Ballast sind? ;-)
Ob so eine Lösung die zwangsläufig besseren Ergebnisse bringt würde ich einfach mal anzweifeln.
Das wäre durchaus möglich und ist keinesfalls eine abwegige Interpretation, jedoch vollkommen unabhängig davon generieren die Tensor Cores in Verbindung mit DLSS auch für Gamer einen signifikanten Mehrwert und nur darauf kommt es am Ende an.
 
Naja, Fidelity FX Upsampling macht in Cyberpunkt auch nicht so einen miesen Job. Andersherum habe ich hier im Forum schon DLSS Szenarien gesehen, die echt gruselig waren. Bei den Vergleichen in Death Strandig steht das AMD-Upsampling auch gar nicht so viel schlechter dar. Ich verstehe den ganzen Aufriss irgendwie nicht, aber klar wäre schön eine Technologie zu haben, die den Leistungsverlust durch den Raytracing kompensieren kann. Andererseits aber auch albern, dass so was überhaupt notwendig werden kann, statt die Karten einfach mit ner angebrachten Mengen an Raytracinggedöhns auszustatten.
 
Eine RTX 2070 super zB lässt die RX 6800 in Cyberpunk dank DLSS/Qualität locker stehen.




DLSS ist einfach gut und AMD wäre gut beraten schnellst möglich eine Alternative zu bringen.
Für derartige Bildvergleiche nimmt man keine komprimierten JPEG Bilder. Ansonsten ist DLSS = :kotz:

Wen jucken FPS, wenn das Gameplay kacke ist oder das angezeigte Bild auf dem Monitor?
 

Mit Fidelity FX Super Resolution wird AMD den Sack komplett zu machen, den dann spricht nichts mehr für die Nvidia Karten, die zu laut sind, zuviel Strom verbrauchen, kein OC Potential haben.

Äh ja. Erstmal wird sich zeigen müssen wie gut Fidelity-FX-SR überhaupt läuft hinsichtlich Performanceschub und vor allem Qualitätsverlust. Es basiert nämlich meines Kenntnisstandes nicht auf künstlicher Intelligenz bzw neuronalen Netzwerken. Also das ist schon mal gar nicht so gut, denn DLSS wird sich in der Zukunft völlig automatisch immer weiter verbessern.

Zweitens stimmt es ja nun nicht, dass Nvidias Karten aktuell nur wegen DLSS und der RTX-Cores in entsprechenden Spielen besser sind, was ja definitiv der Fall ist (vergleiche mal Cyberpunk auf einer RTX3080 und einer 6900XT - letztere kann einpacken), sondern sie sind auch noch auf anderen Ebenen überlegen.

AMDs VCE Hardwareencoder stinkt im Direktvergleich komplett gegen NVENC ab. Dieses Feature wird nicht nur von Streamern, sondern auch zunehmend von ganz normalen Spielern verwendet. Für aktuelle VR-Headsets (Oculus Quest im PCVR-Modus) ist der NVENC-Encoder sogar eine Vorraussetzung, sprich mit einer AMD-Karte geht es einfach nicht, außer über AMD ReLive, was wie gesagt dank des schwaren Encoders deutlich schlechter läuft.

AMD hat und kann kein CUDA, was für viele Anwender essenziell ist.

AMD hat keine machine-learning Funktionen, wie NVIDIA Broadcast mit RTX Voice und AI-Webcam-Background-Removal, was beides ebenfalls nicht nur von Streamern verwendet wird, sondern auch hier von ganz normalen Leuten, die vielleicht Onlinemeetings mit Zoom abhalten und ihr Webcam-Bild, sowie die Audioqualität von sich UND anderen optimieren möchten. RTX Voice ist meiner Meinung nach ein völlig unterschätztes und übersehenes Feature. Hintergrundgeräusche werden komplett gekillt. Kein nerviges Rauschen, Tippen, Atmen mehr in der Übertragung, nur noch die saubere Stimme.

Was hat AMD?

- RAM
- weniger Stromverbrauch, worauf sich viele berufen, es aber dann aushebeln, damit die Karten schneller werden :ugly:
- SAM // bekommen die Nvidia-Karten und ältere CPUs und Chipsätze jetzt auch, also irrelevant

AMD hat diesmal mit RDNA2 klar die besseren Karten am Start, wenn jetzt noch die versprochenen Features geliefert werden, sehe ich für Nvidia mit Thermi 2.0 keine Chancen mehr.
Das ist das Problem. Es bleibt ja immer bei Versprechungen.

"4.75GHz bei Ryzen3000 sind mit PBO easy möglich."
"Es werden genügend Karten verfügbar sein."
"AMD Fidelity FX Super Resolution kommt mit der 6900XT."

AMD macht sicherlich gute Hardware, aber beim Marketing übertreiben sie es immer so heftig.
 
Was hat denn jetzt eine Tech die Bilder "hockskaliert / rendert", mit einer Kantenglättung zutun?

Das lässt sich doch überhaupt nicht vergleichen außer das beide auf eine andere Art Performance bringen soll.

DLSS ist zwar schön aber die Bilder sind immer noch extrem unscharf, selbst bei Einstellungen die auf Qualität abziehlen.
Da gibt es zum hockskalieren wohl schon bessere Methoden
 
AMD hat und kann kein CUDA, was für viele Anwender essenziell ist.

Welche sollen das denn sein?
Fakt ist, dass die Rasterleistung von RDNA2 viel höher ist und Nvidia mit Ampere eine reine compute Architektur für Gamer nur aufgebohrt hat, ergo ein Kompromiss ist.

Während AMD bereits mit RDNA3 auf den MCM Zug aufspringen wird, ist dieser für Nvidia bereits abgefahren.
 
Wie gesagt, warten wir auf den Direktvergleich. Jetzt kann man immer viel rumposaunen. DLSS2.0 ist zumindest schon mal da und AMD muss erstmal nachlegen. Solange AMD das tolle Fidelity FX Super Resolution nicht rausgebracht hat, kann man viel erzählen, wie toll es doch sein wird. Ich bezweifle, dass es im Direktvergleich beim gleichen Spiel bei gleicher Framerate (man muss sich ja auf irgendeinen Referenzpunkt einigen) irgendwie an DLSS2.0 rankommen kann. Auf dem Papier klingt das immer super - wie alles von AMD. ;)
 
Und man darf nicht vergessen, eine 6900XT ist schon jetzt in vielen Bereichen schneller unterwegs als eine 3080/3090.

Dieser Vorsprung wird mit Fidelity-FX weiter ausgebaut werden können.
 
Die Frage für AMD ist doch auch, auf welchem Chip im Portfolio diese Berechnungen hingehören. Im Bezug auf mehr Frames wie bei DLSS, muss die GPU Machine und Deep Learning unterstützen. Im Bezug auf KI, Simulationsaspekte und andere Anwendungen wäre ein ML/DL Chiplet auf einem Ryzen eigentlich verlockender, weil da einfach mehr Platz ist, auch thermisch gesprochen.

Hat man vor ein paar Jahren noch von der APU gesprochen und CPu/GPU kombiniert, zeigt der neue Apple Chip eigentlich einen Aufbau aus drei Teilen. CPU, GPU und einem KI Bereich. Smartphone SOCs gehen in eine ähnliche Richtung.
 
Ich finde dlss 2.0 super man kann einfach mehr grafikkleistung in die "grafik" stecken und nicht alles für die Auflösung verschwenden.
Ich finde 4k dlss quality reicht auch auf einen großen tv locker aus. Und ich finde auch 8k nativ ist sowieso die größte Leistungsverschwendung ich hoffe sowas wird nie zum standart diese upscaling methoden sind einfach die zukunft.
 
Für derartige Bildvergleiche nimmt man keine komprimierten JPEG Bilder. Ansonsten ist DLSS = :kotz:

Wen jucken FPS, wenn das Gameplay kacke ist oder das angezeigte Bild auf dem Monitor?
Was erwartest Du wenn das Bild von 6-7MB auf ~300KB runterskaliert wird. Bedank Dich mal bei der tollen neuen Forensoftware, die es nicht mehr erlaubt solche Screens nativ hochzuladen.

Die FPS jucken natürlich. Ich hab mit der RTX 2070 super 3440x1440 DLSS Qualität in Ultra die selben FPS als eine VII in Low zustande bringt.
Und ob das Gameplay für Dich kacke ist, hat jetzt was mit DLSS zu tun?
 
Zuletzt bearbeitet:
Aber wir haben das doch gesehen, Nvidia hat Ampere völlig überhastet auf den Markt gebracht, weil sie die Hosen voll hatten und wussten was AMD mit RDNA2 geleistet hat.
AMD kann jetzt die Architektur in Ruhe weiter entwickeln, währen Nvidia ganz neu ran muss, dazu kommt noch der entwicklungs Vorsprung den AMD bei MCM inne hält, es sieht für die Grünen mittelfristig nicht gut aus.

Meine Vermutung ist gar, dass Nvidia das gleiche Schicksaal wie Intel ereilen wird, eher früher als später.
 
Meine Vermutung ist gar, dass Nvidia das gleiche Schicksaal wie Intel ereilen wird, eher früher als später.
Denke ich nicht. Wenn Nvidia wollte, könnten sie ja an vielen Stellschrauen noch nachziehen. Der Unterschied bei Intel war, dass sie Jahrelang völlig einfallslos waren und sich nur auf den Lorbeeren ausgeruht haben. Nvidia legte in der Vergangenheit eine Technologie nach der anderen nach und verbessert die vorhandenen stetig. Und deine letzten Posts hier sind auch fernab von jeglicher Realität. :ugly:

Die könnten auch einfach mal sagen die RTX3080Ti gibts jetzt für 799€ mit 20GB bzw 3080 Super mit 12GB für 699€ in gigantischer Stückzahl und dann wäre das Lineup von AMD "instant RIP". :haha: Machen sie natürlich nicht. Ein gutes Pferd springt nur so hoch wie es muss. Aktuell reicht es ja vollkommen aus was sie tun.
 
...

Da hat nV halt zwei, drei Jahre Vorlauf in der Zusammenarbeit mit einzelnen Projekten. Sobald die nächsten RT-Implementierungen kommen, wird sicher auch der Ansatz, den AMD dort aktuell fährt, adäquat bedient.

Was heißt hier AMDs Ansatz adequat bedienen? Soll es in Zukunft etwa wieder weniger RT geben? AMDs Ansatz ist doch einfach in der Einführungsphase von RT nicht auf dedizierte Einheiten zu setzen um in den sehr vielen Anwendungen wo noch kein RT zum Einsatz kommt mehr Leistung bieten zu können was man auch in den Tests zur RX6000 Serie sieht. In Spielen ohne RT und ohne DLSS geht AMDs Ansatz voll auf und man hat ein sehr gutes Preis-Leistungs Verhältnis. Kommt RT oder DLSS ins Spiel schaut es wieder anders aus.

Beim DLSS Konkurrenten wird es ähnlich sein. Irgendwo muss die Leistung her kommen. Bei Nvidia liegt Leistung brach, wenn man DLSS nicht nutzt. AMD hat keine dedizierte Einheiten dafür und da liegt dann auch keine Leistung brach. Wenn jetzt aber viele Spiele mit DLSS kommen, kann Nvidia ungenutzte Leistung der Karten aktivieren, AMD bleibt keine andere Wahl als die vorhandene Leistung umzuschichten wie sie es schon bei RT machen und da wird man wie bei RT irgendwo Abstriche machen müssen.
 
Aber wir haben das doch gesehen, Nvidia hat Ampere völlig überhastet auf den Markt gebracht, weil sie die Hosen voll hatten und wussten was AMD mit RDNA2 geleistet hat.
AMD kann jetzt die Architektur in Ruhe weiter entwickeln, währen Nvidia ganz neu ran muss, dazu kommt noch der entwicklungs Vorsprung den AMD bei MCM inne hält, es sieht für die Grünen mittelfristig nicht gut aus.

Meine Vermutung ist gar, dass Nvidia das gleiche Schicksaal wie Intel ereilen wird, eher früher als später.

Wieso sollte AMD in Ruhe weiter entwickeln und Nvidia von 0 anfangen?
MCM ist doch überhaupt nicht gesichert und ein reines Gerücht. Das es mit RDNA3 kommt darf stark angezweifelt werden.

Man kann ja seine Lieblingsprodukte haben aber deine Sichtweise ist schon etwas unrealistisch.
AMD spricht selbst bei RDNA3, das diese wieder 50% effizienter werden soll. Nvidia wird bei der nächsten Generation dann ggf. auch auf die gleiche oder ein gleichwertiges Vertiefungsverfahren setzen.

Ich glaube nicht, das eine Firma extrem davon ziehen wird. Natürlich wäre es schön wenn AMD weiter Marktanteile gewinnen kann. RDNA 2 ist eine tolle Architektur aber sicher nicht Ampere überlegen.
 
RDNA 2 ist eine tolle Architektur aber sicher nicht Ampere überlegen.

Nun doch in einigen Bereichen so ist das Taktpotential massiv bei den 6000er Karten, alle Karten nahezu können bis 2.6GHZ takten und einige weit darüber hinaus, was nochmals ordentlich Leistung frei setzen kann, während Nvidia mit Ampere schon an der Kotzgrenze ausgeliefert wird, das kann es nicht sein, Premium sieht einfach anders aus.
Kann es sein, dass deine Posts ironisch gemeint sind?

Wozu das bringt doch nichts, man muss einfach auch mal sagen dürfen, was Sache ist.

Ampere ist groß, laut, heiß und viel zu teuer
 
Zuletzt bearbeitet:
Zurück