• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

Rund um die neuen Radeon-Grafikkarten wie etwa der RX 6800 XT, hat Hersteller AMD verkündet, dass man an der KI-Kantenglättung namens Fidelity FX Super Resolution arbeitet, um Nvidias DLSS etwas entgegensetzen zu können. Nun gibt's ein Gerücht zum Marktstart der Technologie.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?
 

RtZk

Lötkolbengott/-göttin
Herbst 21 wäre ziemlich spät. Abgesehen davon hört sich das auch nicht sonderlich vielversprechend an, NVIDIA nutzt mit den Tensor Cores spezialisierte Einheiten, die gibt es bei AMD gar nicht und an diese Rechenleistung kommt AMD nie im Leben ran, die aber wohl notwendig sein wird, wenn ähnliche Qualität und Performance erzielt werden soll.

Wenn weiterhin für quasi jedes relevante Spiel DLSS kommt sehe ich schwarz für AMD, aktuell vermöbeln Last Gen Karten, bei gleicher Grafik-Qualität, die High End Riege von AMD problemlos sobald DLSS implantiert wird, was durch die Integration in die Unity Engine noch öfter vorkommen wird.
 

xDave78

Software-Overclocker(in)
DLSS ist mit 2.0 über ein Jahr nach Release da angekommen wo es starten wollte. Erste Spiele sind da und ich nehme an ab Mitte/Ende 2021 werden soviele Spiele mit DLSS pro Jahr kommen wie zuvor insgesamt kamen. Leider werden sich auch Viele ENtwickler zurückhalten- besonders bei Multi-Plattform Entwicklungen.

Ich finde, wenn sich eine propertiäre Technik als "gut" bewährt hat, sollte man das in DirectX aufnehmen und es zum Standard machen, den dann alle nutzen. Letztendlich käme es den Spielern zugute.
Momentan nutzt NVIDIA Tensor Kerne dafür, aber ich vermute es gäbe auch eine "Software Variante" die DLSS dann vielleicht auf der CPU ausführt oder einen Kompromiss bildet auf nicht NVIDIA Hardware. Die Abermillionen Dollar hätte man dann auch möglicherweise in Lizensierung der Kerne/ oder der Technologie stecken können und uns PClern und auch den Konsoleros somit zeitnah auch Ergebnisse beschert mit der im Prinzip alle zufrieden sein dürften.

Stellt sich sowieso die Frage, ob die Technologie auf der aktuellen RDNA2 läuft, wie gut sie läuft und Allem voran: bringt sie den Konsolen vielleicht noch den nötigen Performance-Schub um in Sachen Raytracing das Gap zum PC etwas zu verringern?
 

warawarawiiu

Volt-Modder(in)
Was? Das gibts noch Immer nicht?

Was’n trauriger Haufen......da hat Nintendo ja schneller nen neues super Mario jump And run Spiel komplett entwickelt, als amd nen bisschen Algorithmus zum kantenglätten

lame
 

mihi83

PC-Selbstbauer(in)
Ich seh für die Technik insofern schwarz als dass Sie keine spezialisierten Rechnenwerke dafür verwendet, sprich das wird wohl auf den normalen Shadern laufen.
Wie gut das ist hat uns DLSS 1.0 gezeigt :what:
Ich würde es begrüßen wenn MS soeine Funktion in der DirectX API verankern würde und Nvidia und AMD diese dann mit ihren "Techniken" ansprechen würden
 

Inras

Freizeitschrauber(in)
Ja was denn jetzt? FFSS, FSR oder eventuell doch eher FFSR? ^^

Jedenfalls halte ich die Technik - den Zweck für sehr wichtig. Rechenleistung dort einsparen wo sie nutzlos ist und somit mehr Performance zu generieren ist ein super Ansatz. Wenn dabei sogar wo anders das Bild noch besser werden kann und totzdem höhere Performance bei rum kommt ist das das i-Tüpfelchen. AMD hat einfach keine andere Wahl als da was vergleichbares zu DLSS zu liefern. Jedenfalls wenn sie weiterhin mitreden möchten.
 

RavionHD

PCGH-Community-Veteran(in)
Ich seh für die Technik insofern schwarz als dass Sie keine spezialisierten Rechnenwerke dafür verwendet, sprich das wird wohl auf den normalen Shadern laufen.
Wie gut das ist hat uns DLSS 1.0 gezeigt :what:
Das befürchte ich auch, bin daher gespannt wie die AMD Lösung qualitativ wird.
DLSS 2.0 ist eine AI Lösung die entsprechende AI Leistung benötigt, und da ist selbst eine RTX 2060 doppelt so schnell wie die Xbox Series X GPU (103 vs 50 INT 8 TOPS).
Heißt eine RX 6800 XT oder 6900 XT dürften demnach gleich btw etwas mehr AI Leistung anbieten (sofern eine lineare Steigerung gegeben ist) als die schwächste RTX Karte weil diese rein auf normale Shader setzen während Nvidia dedizierte AI Shader a la Tensor Cores eingebaut hat.
 

4thVariety

Software-Overclocker(in)
Wenn Nvidia 10 Millionen Karten bis Ende das Jahres mit DLSS an Spieler ausliefert und AMD nicht, dann wäre Herbst21 ein Problem. Derzeit sieht es nicht danach aus. Das obwohl Nvidia eine Jahresproduktion von 20 - 40 Millionen Karten haben sollte geschätzt am Jahresumsatz aus den Quartalsberichten.

Potentielle Kunden müssen sich erst gegen Cryptominer durchsetzen und werden dann durch den Engpass von Ebay-Abzockern oder Händlern mit gesalzenen Aufpreisen getrieben.

DLSS hin oder her, es müsste erst mal Karten für 350€ -500€ Realpreis geben von beiden Herstellern bevor DLSS entscheidend werden würde. Wer 400€ Budget hat, der kauft eine 3060 oder 6700XT doch eh blind wenn er sie für UVP bekommen würde.
 

Rorschach123

PC-Selbstbauer(in)
Man muss schon sagen, dass DLSS schon eine sehr überzeugende Technologie ist und ich im nachhinein sehr froh bin auf eine Nvidia Karte gesetzt zu haben, obwohl DLSS bei mir gar nicht so als das Argument auf dem Schirm war.

Jetzt macht DLSS bei neuen Spielen meine gewünschten 144fps oft erst möglich und das trotz einer 3090 Strix.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Was? Das gibts noch Immer nicht? ...lame
Das ist doch nicht schlimm, hauptsache es kommt dieses Jahr noch. Viele potenzielle Käufer warten bei Nvidia / AMD sowieso noch auf ihre Bestellung...
:ugly::kaffee:
Davon abgesehen glaube ich auch nicht, dass Nvidia DLSS damals in ein paar Wochen programmiert hat. Da gab es sicherlich einige Varianten und lange Testphasen, siehe DLSS 1.0 / 2.0.

Zudem kommen der Microcode-Aufwand für die Zen 3 Verbesserungen, Chipsatztreiber und die üblichen Updates der Grafikkartentreiber bei AMD hinzu.
Da ich zum Spaß von RX 480 @580 auf GTX 1070 umgestiegen bin, weiß ich nun endlich diese edlen Nvidia-Treiber zu schätzen.
Es gibt seltene Freezes in AC: Origins und Crash to Desktop ohne Fehlermeldung in Division 2 mit einigen Treiber-Versionen (nicht allen). An der Grafikkarte kann es nicht liegen, andere Games laufen fehlerfrei.
Da muss man sich erstmal dran gewöhnen, der olle Polaris lief bombenstabil.
 
Zuletzt bearbeitet:

BaMichi

Komplett-PC-Käufer(in)
DLSS hin oder her, es müsste erst mal Karten für 350€ -500€ Realpreis geben von beiden Herstellern bevor DLSS entscheidend werden würde.
Was hat denn der Preis damit zu tun? Wenn ich recht informiert bin dann bringt DLSS die 3070 oberhalb einer 6900XT raus und das ohne eine schlechtere Optik zu bekommen.
Für den halben Preis. Müsste nur mal gut lieferbar sein. Für 499 würde ich eine kaufen.
 

mihi83

PC-Selbstbauer(in)
Man muss schon sagen, dass DLSS schon eine sehr überzeugende Technologie ist und ich im nachhinein sehr früh bin auf eine Nvidia Karte gesetzt zu haben, obwohl DLSS bei mir gar nicht so als das Argument auf dem Schirm war.

Jetzt macht DLSS bei neuen Spielen meine gewünschten 144fps oft erst möglich und das trotz einer 3090 Strix.
Also für mich war DLSS das Killerargument für den NVIDIA Kauf.
Ohne DLSS ist auch Nvidia verloren bei 1440p/2160p und RT, was AMD hier abliefert erwähne ich erst garnicht.

Und selbst ohne RT beeindruckt DLSS (zB Death Stranding)
 

Illithide

Freizeitschrauber(in)
Das befürchte ich auch, bin daher gespannt wie die AMD Lösung qualitativ wird.
DLSS 2.0 ist eine AI Lösung die entsprechende AI Leistung benötigt, und da ist selbst eine RTX 2060 doppelt so schnell wie die Xbox Series X GPU (103 vs 50 INT 8 TOPS).
Heißt eine RX 6800 XT oder 6900 XT dürften demnach gleich btw etwas mehr AI Leistung anbieten (sofern eine lineare Steigerung gegeben ist) als die schwächste RTX Karte weil diese rein auf normale Shader setzen während Nvidia dedizierte AI Shader a la Tensor Cores eingebaut hat.
Ein TC ist ein "AI Shader"? Really? 🤣
Wirklich wieder einmal sehr inspirierend. Thx!

Zur Sache:
Bin schon sehr gespannt auf die Lösung, die AMD da mit seinen Branchen-Partnern auskaspert. Auf DirectML-Basis (fehlt leider im PCGH-Artikel, ist in der Originalquelle aber drin), sollte sich das schnell als neuer Standard etablieren können, wenn es den inhaltlich etwas taugt.
 

belle

PCGH-Community-Veteran(in)
Ich möchte in Zukunft eine sparsame Karte für native 1440p, deren Leistung ohne Raytracing ausreichend sein muss (ca. 60 fps). Genug Speicher für maximale Texturqualität ist Pflicht.
Umso weniger Leute es auf die RX 6700 XT abgesehen haben, desto eher bekomme ich eine ab.
Danke an dieser Stelle.
 

mihi83

PC-Selbstbauer(in)
Nope. Irgendwie überhaupt nicht.

D.h., wenn er sagen will: "nV rulezzz und AMD suckzzz" versteht man es, ja. Aber auch nur dann. Damit könntest Du natürlich Recht behalten. :-)
Was er damit sagen will ist das NV dezidierte Rechenwerke fürs Upscaling mit "Leistung x" verwendet, AMD diese aber nicht anbietet.
Weiters sagt er das eine aktuelle 6800XT/6900XT die halbe Leistung dieser Rechenwerke (auf ihren Shadern) bietet im Vergleich zu einer bestimmten RTX Karte.

PS: Wenns um (KI) Upscaling geht dann steht deine Formulierung auch: "nV rulezzz und AMD suckzzz"
 

cunhell

Komplett-PC-Käufer(in)
Ich finde, wenn sich eine propertiäre Technik als "gut" bewährt hat, sollte man das in DirectX aufnehmen und es zum Standard machen, den dann alle nutzen. Letztendlich käme es den Spielern zugute.
Etwas propertäres kann nicht zu einem Standard werden. Der Hersteller dieser Funktion hat alle Rechte darauf und kann jederzeit andere Hersteller davon ausschließen oder einschränken. Standard kann es erst dann werden, wenn es für alle frei verfügbar ist um es in die eigene Hard-oder Software zu integrieren.
Alles andere ist ein Pseudo-Standard der einen Hersteller bevorzugt. Und das will man als Enduser ganz sicher nicht.

Bestes Beispiel dafür, was passieren kann, ist PhysX. Ich denke dass sollte für alle abschreckendes Beispiel genug sein.

Cunhell
 

Illithide

Freizeitschrauber(in)
Was er damit sagen will ist das NV dezidierte Rechenwerke fürs Upscaling mit "Leistung x" verwendet, AMD diese aber nicht anbietet.
Weiters sagt er das eine aktuelle 6800XT/6900XT die halbe Leistung dieser Rechenwerke (auf ihren Shadern) bietet im Vergleich zu einer bestimmten RTX Karte.

PS: Wenns um (KI) Upscaling geht dann steht deine Formulierung auch: "nV rulezzz und AMD suckzzz"
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
 

mihi83

PC-Selbstbauer(in)
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
Bekannt ist wohl das es auf den AMD Chips keine dezidierten Rechenwerke dafür gibt - es lässt einfach mit angrenzender Sicherheit darauf schließen das dieses Upscaling auf den normalen Shadern laufen wird.
Auch Wissen wir von DLSS 1.0 wie das aussehen kann. "Intelligentes" Upscaling braucht nunmal Rechenleistung, die kann AMD nicht einfach aus dem Hut zaubern.
Ich unterstelle dir hier keinesfalls ein AMD Fanboy oder Nvidia Hater zu sein, aber deine persönliche Abneigung gegen RavionHD ist eindeutig zu erkennen - was seine (unglücklich Formulierte) Kernaussage aber nicht unrichtiger macht
 

Blackout27

Volt-Modder(in)
Ich bin gespannt was AMD da programmiert. Gerüchte von RDNA3 besagen doch glaube auch, das AMD auf solche Tensor Cores setzen will oder?

Ich konnte jetzt ein paar Spiele mit DLSS testen. Am 1440p Monitor und DLSS Qualität war ich schon ganz zufrieden.
Besonders gut gefällt mir das aber am OLED TV in 4K und DLSS Qualität. Das ist ein echter FPS Booster und rein von der Bildschärfe konnte ich bei ~3m Entfernung zum TV, keinen wirklichen Unterschied zu nativen 4K feststellen :daumen:

Nur die Spieleauswahl ist noch etwas begrenzt aber wird ja gefühlt von Woche zu Woche mehr :)
 

doedelmeister

Freizeitschrauber(in)
DLSS war bei Cyberpunk schon ganz hilfreich, FPS Gewinn war schon erheblich.

Zocke grad Metro Exodus und da führt DLSS zu nem echt mega verwaschenen Bild. Ka. scheint nicht in jedem Spiel gleich sinvoll zu sein.
 

Illithide

Freizeitschrauber(in)
Etwas propertäres kann nicht zu einem Standard werden. Der Hersteller dieser Funktion hat alle Rechte darauf und kann jederzeit andere Hersteller davon ausschließen oder einschränken. Standard kann es erst dann werden, wenn es für alle frei verfügbar ist um es in die eigene Hard-oder Software zu integrieren.
Alles andere ist ein Pseudo-Standard der einen Hersteller bevorzugt. Und das will man als Enduser ganz sicher nicht.

Bestes Beispiel dafür, was passieren kann, ist PhysX. Ich denke dass sollte für alle abschreckendes Beispiel genug sein.

Cunhell
Vor allem wollen es die Devs dann nicht, die den Spaß irgendwie anwenden müssten.. Turing wurde 2018 (!) released und bislang hat sich da so gut wie nichts getan. Falls AMD das gemeinsam mit Sony und MS und ein paar Publishern/Devs richtig angeht, könnte die Bilanz da durchaus schnell deutlich besser aussehen. PhysX ist da schon ein gutes Bsp., adaptive Sync wäre das nächste. Hängt imho halt sehr davon ab, was es dann tatsächlich praktisch für Ergebnisse bringt und wie leicht es anwendbar ist. Darin, die Branche mitzunehmen, war AMD bislang jedenfalls immer mit Abstand besser als Mister Lederjacke, dem die Kooperationspartner immer schneller abhanden zu kommen scheinen, als er neue nachkaufen kann.
 

Cleriker

PCGH-Community-Veteran(in)
Nope. Irgendwie überhaupt nicht.

D.h., wenn er sagen will: "nV rulezzz und AMD suckzzz" versteht man es, ja. Aber auch nur dann. Damit könntest Du natürlich Recht behalten. :-)
Was er aber nicht tun würde, ist es doch eine ganz schön dumme Aussage.

Ich bin ebenfalls auf die Ergebnisse Gespannt. Von mir aus muss es ja gar nicht genau so schnell laufen, dafür aber immer optisch korrekt. In Deahth Stranding sieht der Asphalt mies aus und manche Übergänge an Wasserkanten sind merkwürdig versetzt. In Watch Dogs Legion ebenfalls Wasserkanten z.B. an Schiffen funktionieren manchmal gar nicht und manche Pfützen spiegeln total heftig, zeigen aber keine Auswirkungen wenn Autos sie durchfahren. In Cyberpunk gibts nachts Spiegelungen der Umgebung in Schaufenstern die sogar das Licht von Innen überdecken. Was ein Quatsch. Nicht falsch verstehen, das ist Gemecker auf hohem Niveau, aber wenn ich schon "realistische Spiegelungen" erstelle, dann will ich auch dass sie realistisch sind und nicht nur vorgekaukelt. Jetzt fragt ihr euch warum ich augenscheinlich DLSS und Raytracing verwechsle? Zu Recht! Allerdings nicht ohne Grund. Denn Wenn man RT aktiviert, ohne DLSS, klappen diese Dinge besser. Die AI hinter DLSS scheint da manchmal zu flunkern/schludern und ich persönlich störe mich daran sehr.
 

Cohen

PC-Selbstbauer(in)
Wenn Nvidia 10 Millionen Karten bis Ende das Jahres mit DLSS an Spieler ausliefert und AMD nicht, dann wäre Herbst21 ein Problem. Derzeit sieht es nicht danach aus.

Schon wieder so eine Schwachsinns-Einschätzung von dir.

Wenn die Steam-Statistik auch nur ansatzweise Hand- und Fuß hat, sind bereits jetzt über 10 Millionen Spielerechner im Umlauf, die von DLSS profitieren.

RTX 2060 bis RTX 3080 sind immerhin, 13,2% der erfassten Steam-Hardwarebasis, bei 120 Mio. monatlichen Nutzern wären das ca. 16 Millionen PC-Systeme.

Plus bereits im Einsatz befindliche RTX3070- und RTX3060-Ti-Systeme, die in der Statistik noch nicht aufgeschlüsselt sind und einen nicht unerheblichen Anteil der auf ca. 8 Millionen angewachsenen "DirectX 8 GPUs and below"-Kategorie ausmachen dürften. Denn in dieser Kategorie landen auch brandneue GPUs, die im Steam-Survey-System noch nicht definiert und gesondert ausgewiesen sind.
 
Zuletzt bearbeitet:

DaHell63

BIOS-Overclocker(in)
Was hat denn der Preis damit zu tun? Wenn ich recht informiert bin dann bringt DLSS die 3070 oberhalb einer 6900XT raus und das ohne eine schlechtere Optik zu bekommen.
Für den halben Preis. Müsste nur mal gut lieferbar sein. Für 499 würde ich eine kaufen.
Eine RTX 2070 super zB lässt die RX 6800 in Cyberpunk dank DLSS/Qualität locker stehen.
RX 6800.JPG


RTX 2070 super.JPG


DLSS ist einfach gut und AMD wäre gut beraten schnellst möglich eine Alternative zu bringen.
 

RavionHD

PCGH-Community-Veteran(in)
Metro Exodus nutzt DLSS 1.0, das ist grundsätzlich nicht empfehlenswert.

DLSS 2.0 hat je nach Mode eine höhere Bildqualität wie die native Auflösung und einen hohen FPS Boost wie bereits einige male nachgewiesen wurde.
 

gaussmath

Lötkolbengott/-göttin
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
Klar, man kann und sollte das ganze weniger reißerisch behandeln. Aber auch ich sehe das eher verhalten mit der AI Upscaling Konkurrenz von AMD. Im Kern muss ein neuronales Netz dafür verwendet werden, ansonsten muss man von klassischen Ansätzen sprechen, welche nicht an die Performance oder die Bildqualität der AI Ansätze ranreichen können.

Für das Traversieren eines neuronalen Netzwerkes braucht's Matrixoperation Power, eben genau das, was die Tensor Cores von Nvidia bieten. A*B + C in zwei Taktzyklen, wobei 4x4 Matrizen verwendet werden. Ich sehe nicht, wie man das effizient mit normalen Shadern umsetzen will. Das wird zu deutlichen Kompromissen bei der Performance und Bildqualität führen. Sie machen es, weil es gemacht werden muss, aber wirklich konkurrenzfähig wird es erst mit RDNA 3, wenn nämlich die dedizierten Einheiten dafür kommen.
 

Rorschach123

PC-Selbstbauer(in)
Was er aber nicht tun würde, ist es doch eine ganz schön dumme Aussage.

Ich bin ebenfalls auf die Ergebnisse Gespannt. Von mir aus muss es ja gar nicht genau so schnell laufen, dafür aber immer optisch korrekt. In Deahth Stranding sieht der Asphalt mies aus und manche Übergänge an Wasserkanten sind merkwürdig versetzt. In Watch Dogs Legion ebenfalls Wasserkanten z.B. an Schiffen funktionieren manchmal gar nicht und manche Pfützen spiegeln total heftig, zeigen aber keine Auswirkungen wenn Autos sie durchfahren. In Cyberpunk gibts nachts Spiegelungen der Umgebung in Schaufenstern die sogar das Licht von Innen überdecken. Was ein Quatsch. Nicht falsch verstehen, das ist Gemecker auf hohem Niveau, aber wenn ich schon "realistische Spiegelungen" erstelle, dann will ich auch dass sie realistisch sind und nicht nur vorgekaukelt. Jetzt fragt ihr euch warum ich augenscheinlich DLSS und Raytracing verwechsle? Zu Recht! Allerdings nicht ohne Grund. Denn Wenn man RT aktiviert, ohne DLSS, klappen diese Dinge besser. Die AI hinter DLSS scheint da manchmal zu flunkern/schludern und ich persönlich störe mich daran sehr.
was philosophierst du hier eigentlich von DLSS und RT, wenn du eine "ATI Technologies Radeon VII" Grafikkarte verwendest :D ansonsten Signatur updaten ;)
 

RavionHD

PCGH-Community-Veteran(in)
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
Shader sind nichts anderes als Rechenkerne, Zitat Wikipedia:
Hardware-Shader (auch Shadereinheiten, Shader Units) sind kleine Recheneinheiten in aktuellen Grafikchips...
Tensor Cores sind auch Recheneinheiten, siehe Nvidia:
Die Formulierung AI Shader ist daher nicht falsch.
 

BaMichi

Komplett-PC-Käufer(in)
Von mir aus muss es ja gar nicht genau so schnell laufen, dafür aber immer optisch korrekt.
Mit Radeon VII im PC bis du glaube ich auch nicht sonderlich qualifiziert, wobei das denkt man sich auch ohne die Signatur gelesen zu haben. Ein Haufen voller komischer Behauptungen die unwahr sind.
 
Zuletzt bearbeitet:

RavionHD

PCGH-Community-Veteran(in)
Ich bin gespannt was AMD da programmiert. Gerüchte von RDNA3 besagen doch glaube auch, das AMD auf solche Tensor Cores setzen will oder?
Handfeste Gerüchte gibt es keine, es wird aber spekuliert dass AMD mit RDNA3 ähnliche Einheiten auf Hardwarebasis einbauen wird.
Das würde natürlich auch zeigen wie weit Nvidia bereits 2018 gedacht hat wenn AMD das erst frühestens Ende 2022 auf den Markt bringt.
 

Cleriker

PCGH-Community-Veteran(in)
was philosophierst du hier eigentlich von DLSS und RT, wenn du eine "ATI Technologies Radeon VII" Grafikkarte verwendest :D ansonsten Signatur updaten ;)
Ob du es glaubst oder nicht, ich habe exakt einen PC an dem ich sitze und hier tippe und zu dem gehört die Signatur. Muss ich jetzt jedes mal den PC umrüsten um zu einer Karte etwas zu schreiben? Schau mal auf den Tacho, es ist erst 15 Uhr, also Arbeitszeit und zu der sitze ich nun einmal meist am Arbeits-PC. Deshalb auch die Radeon VII. Freu dich doch lieber dass es auch User gibt die nicht einfach einer Marke nachrennen, sondern beides testen und nutzen.

Edit
Du siehst es doch auch auf den Bildern die dahell63 oben gepostet hat. Die 2070 hat höhere fps, aber das Bild ist qualitativ deutlich schlechter. Schau dir feine Konturen wie Zäune an und die Dächer der Hütten, oder aucht mal auf Licht und Farben. Fällt dir auf, dass die Farben von Lichtquellen blasser sind mit DLSS? Danke an dahell für dieses Beispiel. Hier sieht man gut dass DLSS einfach noch nicht wie nativ ausschaut, aber immerhin schon mal ganz okay mMn. War ja schon immer so. Mehr fps gehen auf Kosten der Qualität, da braucht man sich nichts vormachen.
 

rumpeLson

Komplett-PC-Aufrüster(in)
Wenn ich meine Glaskugel anwerfe, könnte ich mir vorstellen, dass AMDs Lösung qualitativ zwischen DLSS 1.0 und 2.0 liegen könnte. Bei gleichem Geschwindigkeitsgewinn wäre die Bildqualität schlechter als DLSS 2.0 und bei gleicher Bildqualität der Performancegewinn wieder geringer.

Was AMD aber bezüglich Raytracing das Genick bricht, sind meines Erachtens fehlende angepasste Profile. In vielen Spielen hat man nur die Möglichkeit einzelne RT-Effekte an- und auszuschalten (bspw. in Control). Viel besser fände ich es jedoch, pro Effekt die Qualität regulieren zu können. Im Zweifel hätte ich z.B. lieber unscharfe / leicht flackernde aber korrekte Reflektionen als stattdessen gleich auf den klassischem Ansatz zurückfallen zu müssen.
 

Rolk

Lötkolbengott/-göttin
Bei Nvidia sehe ich das klassische Henne Ei Problem. War es nicht eher so das die Tensor Cores aus dem Profibereich kommen und DLSS eingeführt wurde, damit sie beim gaming kein toter wertloser Ballast sind? ;-)
Ob so eine Lösung die zwangsläufig besseren Ergebnisse bringt würde ich einfach mal anzweifeln.
 

Illithide

Freizeitschrauber(in)
Shader sind nichts anderes als Rechenkerne, Zitat Wikipedia:

Tensor Cores sind auch Recheneinheiten, siehe Nvidia:
Die Formulierung AI Shader ist daher nicht falsch.
Shader sind Recheneinheiten aber nicht alle Recheneinheiten sind Shader.

Ich wollte letztlich ja auch nur darauf hinaus, dass die Rolle der TCs für DLSS (also generell die der Hardwareeinheiten für DLSS) imho nach wie vor weitestgehend unklar und eine Blackbox ist. M.E. wurden sie unter DLSS 1.0 z.Bsp. gar nicht genutzt, d.h. da lief wohl alles -und läuft ggf. auch heute bei DLSS2.0 noch oder jedenfalls größtenteils- über die allgemeine Shader. Fakt ist doch, dass diese Matrizenrechenkerne in erster Linie für den HPC-Bereich entwickelt wurden und für DLSS bestenfalls dual use oder eben vielleicht auch Ballast sind. Gerne Korrektur, wenn es jemand (begründbar) besser weiß.

Was FidelityFX SS angeht, sollte man imho abwarten, wie es überhaupt funktioniert bevor man pauschal irgendwelche vermeintlich fehlenden hardwaretechnischen Voraussetzungen kritisiert. Dazu weiß man ja noch weniger, als zur DLSS-Funktionalität.
...

Was AMD aber bezüglich Raytracing das Genick bricht, sind meines Erachtens fehlende angepasste Profile. In vielen Spielen hat man nur die Möglichkeit einzelne RT-Effekte an- und auszuschalten (bspw. in Control). Viel besser fände ich es jedoch, pro Effekt die Qualität regulieren zu können. Im Zweifel hätte ich z.B. lieber unscharfe / leicht flackernde aber korrekte Reflektionen als stattdessen gleich auf den klassischem Ansatz zurückfallen zu müssen.
Da hat nV halt zwei, drei Jahre Vorlauf in der Zusammenarbeit mit einzelnen Projekten. Sobald die nächsten RT-Implementierungen kommen, wird sicher auch der Ansatz, den AMD dort aktuell fährt, adäquat bedient.
 
Oben Unten