AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Ich will SGSSAA unter jeder API zur Verfügung haben.
Diese ganze AA-Modi sind doch nur halbgares Zeug.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Wann ist es denn mal soweit ? Immerhin möchte Nvidia dafür ziemlich viele hart erarbeitete Euros von mir haben, dafür das DLSS bei weitem noch nicht soweit ist.
Warum konnte Nvidia damit nicht noch 1-2 Generationen warten bis die Basis ausgereift und Kinderkrankheiten beseitigt sind ?
Dafür, dass du seit 2009 hier angemeldet bist, verstehst du irgendwie überraschend wenig über den Software/Hardwareentwicklungszyklus.
Man kann nicht einfach eine neue Technik bringen und die dann sofort ausgereift haben. Es braucht immer ein Produkt -> Verkauf -> Anwendungen -> Feedback aus den Anwendungen -> Weiterentwicklung, War schon immer so.
Warum hat man nicht 64 Bit Prozessoren erst jetzt eingeführt? Erst jetzt scheint es ordentlich genutzt zu werden.
Warum Mehr als 2 Kerne, Spiele nutzen kaum mehr als 4 Threads (2Kerne +HT).
Warum überhaupt gibts schon Shader? Ist offenbar auch noch nicht ausgereizt.

Warum wartet man nicht einfach, biss Prozesstechnologie am Ende ist und DANN bringt man einmal einen guten Chip und wartet wieder 10 Jahre?

Gerade Deep Learning basierende Anwendungen müssen eben zuerst Lernen. Und das anlernen funktioniert nunmal über große Erfahrungswerte und man kann nicht einfach "warten bis alles super ist" und es dann bringen.
Bei DLSS kann es sogar so sein, dass es bei jedem Spiel extra angepasst wird und es anfangs IMMER eher schwach ist und mit jedem Patch bessr wird.
So kommt mir als potenzieller Kunde eher das Gefühl, das ich es hier mit dem Hardware-Pendant der ach so "geliebten" Early Access Software zu tun habe.
Ich habe nichts gegen die Technik an sich, aber Status des Experimentellen, verbunden mit der Einschränkung auf einen Hersteller ist mir einfach zu wenig um Nvidia gegenüber derart in Vorleistung zu gehen.
Auch Raytracing finde ich äußerst interessant, aber hier gilt das Gleiche wie beim DLSS, ist mir zu unausgereift und experimentell für das verlangte Geld.
[/QUOTE]Ich wusste nicht, dass man eine Gebühr zahlt für RTX oder DLSS. Hab kein Monatsabo gesehen bislang.
Nvidia lässt sich ihre Karten fürstlich bezahlen weil keine Konkurrenz dazu da ist (bzw die Konkurrenz gerade sehr dankend die Preise von Nvidia angenommen hat - ganz ohne DLSS und RTX. Aber da beschwert sich niemand, weil 16 GB RAM als Todschlagargument verwendet wird.

Prinzipiell lässt sich sagen, dass alles was mit Deep Learning zu tun hat einige Zeit zum Reifen benötigen wird.



Mantle ist in Vulkan aufgegangen, quasi der Inbegriff der modernen Open Source API, und ja das ist zum größten Teil AMD zu verdanken.
Der TREND zu low level APIs am PC ist sicher von AMD beflügelt worden. Geben tuts die Dinger schon ewig.
Nvidia hat sich trotz Sitz in der Khronos Group nicht gerade mit Ruhm bekleckert, sprich es ist ihnen quasi am Hintern vorbei gegangen.
War natürlich eine politische Entscheidung, da man in der aktuellen API gegenüber der Konkurrenz Jahre voraus ist (was Drawcalls/Overhead/Treiberoptimierung betrifft).
Erst mit Turing haben sie plötzlich ernsthaftes Interesse an einer modernen API entwickelt...Das Urteil darüber überlasse ich anderen.
Das Urteil hast du aber schon eingebaut. Das Interesse ist nicht plötzlich, Nvidia hat APIs viele Jahre vorangebracht und es gibt in den Vorgängern zu DX12 und Vulkan genug Vendor Spezifische Optimierungen von Nvidia.

Um dir den Unterschied von TressFX und HairWorks klar zu machen.
Hairworks -> Nur Nvidia hatte Zugriff auf den Quellcode, AMD hatte keinerlei Einsicht. Das heisst Optimierungen auf die eigene Hardware war extrem schwer bis unmöglich.
TressFX -> JEDER interessierte hatte Zugriff auf den Quellcode, sprich Optimierungen für die eigene Hardware sind ohne größeren Aufwand möglich.

Der GPU Part ist quasi tot, und das obwohl damit so viel mehr möglich gewesen wäre, hätte man sich mit AMD und Intel auf einen gemeinsamen Standard geeinigt.
Das ist richtig. Leider ist das nie passiert und 10 Jahre alte Spiele haben teils eine wesentlich bessere Physik als heutige.
Schön wie Su antwortet.
Jensen: "Wir vernichten sie wenn wir DLSS anschalten"!
Lisa: "Lieber Onkel, bitte setze deine Brille auf denn dein Bild ist völlig unscharf. Du kannst von uns nicht im Ernst verlangen das wird so einen Fail unterstützen. Das kann ja sogar unsere MI besser."!
Das Internet mal wieder. 1x ein Gerücht in die Welt gesetzt, dann hält sich das auch. Überprüft wird nicht, auch wenns nur 5 Sekunden lang dauern würde...
Jensen ist kein Onkel von Su.
GPU PhysX ist seit langem tot. Danke an AMD.

Was hat AMD damit zu tun? Ach ja, ich vergaß, da gibts ja noch ein Gerücht, dass angeblich AMD PhysX angeboten wurde... und niemand denkt nach wie schlecht das gewesen wäre, wenn AMD einen Standard verwendet hätte, den der Konkurrent entwickelt und auf die eigenen GPUs hin optimieren kann und selber kann man das nicht. Ja das hätte viele hier gefreut, wenn dann jedes Spiel PhysX verwendet und jedes auf Nvidia 2x so gut läuft, trotz ähnlicher Hardware.
Ich will SGSSAA unter jeder API zur Verfügung haben.
Diese ganze AA-Modi sind doch nur halbgares Zeug.
Ist ja ein alter Hut, gibts seit 2000 ca Anti-Aliasing | 3DCenter.org

Könnte wirklich jeder mal implementieren
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Haben die mit dem neuen Vega Clown ,überhaupt ein einziges neues Feature in Petto?

Und trauen sich wirklich hier noch rumzumosern:daumen:

Verstehe ich auch nicht ! :lol: Die können doch nicht einmal das grandiose HBAO+ in klassikern ala COD MW2 aktivieren.

HBAO+ Compatibility Flags - Google Tabellen
HBAO+ Compatibility Flags Thread | guru3D Forums

Ein beispiel (HBAO+ - F.E.A.R)

NO HBAO+
http://i.picpar.com/xMhb.png

0x00000023 (Bit)
http://i.picpar.com/pMhb.png

0x00000008 (Bit)
http://i.picpar.com/BMhb.png


und wie kann man nur Physx-GPU kritisieren ?! Das ist doch purer Neid ! Das sind die mit abstand eindrucksvollsten grafischen effekte die es in den letzten jahren gab.

https://www.youtube.com/watch?time_continue=95&v=oUA0WG1hRto

AMD bietet dem gamer leider nichts, kein Physx, kein Raytracing, keine HBAO+ bits, keine AA-bits etc !

MSAA/SGSSAA Bits !

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867
https://forums.guru3d.com/threads/nvidia-anti-aliasing-guide-updated.357956/


und was bietet mir AMD ? Ganz genau, nichts ! :lol:
 

Anhänge

  • 1.jpg
    1.jpg
    573,1 KB · Aufrufe: 37
  • 2.jpg
    2.jpg
    565,2 KB · Aufrufe: 29
  • 3.jpg
    3.jpg
    563,2 KB · Aufrufe: 29
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

SMAA? Das ist mit die schlechteste Kantenglättung, da bevorzuge ich sogar noch eher FXAA. TAA ist gut ab WQHD und aufwärts. Beste was ich bisher gesehen hab TXAA aber auch nicht bei allen Games, kommt dann auf die Engine und Entwickler an. MSAA ist zu primitiv bzw veraltet.
Ich denke DLSS wird noch besser werden in Zukunft.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Verstehe ich auch nicht ! :lol: Die können doch nicht einmal das grandiose HBAO+ in klassikern ala COD MW2 aktivieren.

HBAO+ Compatibility Flags - Google Tabellen
HBAO+ Compatibility Flags Thread | guru3D Forums

Ein beispiel (HBAO+ - F.E.A.R)

NO HBAO+
http://i.picpar.com/xMhb.png

0x00000023 (Bit)
http://i.picpar.com/pMhb.png

0x00000008 (Bit)
http://i.picpar.com/BMhb.png


und wie kann man nur Physx-GPU kritisieren ?! Das ist doch purer Neid ! Das sind die mit abstand eindrucksvollsten grafischen effekte die es in den letzten jahren gab.

https://www.youtube.com/watch?time_continue=95&v=oUA0WG1hRto

AMD bietet dem gamer leider nichts, kein Physx, kein Raytracing, keine HBAO+ bits, keine AA-bits etc !

MSAA/SGSSAA Bits !

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867
https://forums.guru3d.com/threads/nvidia-anti-aliasing-guide-updated.357956/
Gibt hier 2 verschiedene arten von Spielern: die einen, denen das egal ist und die anderen, denen sowas wichtig ist.

Prinzipiell kümmern mich diese Zusatzfeatures wenig. Sie sind "nice to have" aber eben nicht überlebenswichtig für mich, vorallem weil sie nicht global aktiviert werden können und es jedesmal ein bisschen "Daumendrücken" erfordert, obs denn nun aktivierbar ist oder nicht.

Dennoch finde ich, dass sowas prinzipiell immer erwähnt werden sollte und man nicht nur auf die "Länge des Balkens" achten sollte.

Was das Mirrors Edge Video betrifft: naja der Nachfolger kam dann doch gänzlich ohne die Effekte, wenngleich ich zustimme, dass die toll ausgesehen haben:
https://youtu.be/bT7tV_d9l3A?t=2098
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

SMAA? Das ist mit die schlechteste Kantenglättung, da bevorzuge ich sogar noch eher FXAA. TAA ist gut ab WQHD und aufwärts. Beste was ich bisher gesehen hab TXAA aber auch nicht bei allen Games, kommt dann auf die Engine und Entwickler an. MSAA ist zu primitiv bzw veraltet.
Ich denke DLSS wird noch besser werden in Zukunft.

FXAA finde ich schrecklich. Das bild wird viel zu unscharf, dann lieber ohne kantenglättung !

;)

Prinzipiell kümmern mich diese Zusatzfeatures wenig. Sie sind "nice to have" aber eben nicht überlebenswichtig für mich, vorallem weil sie nicht global aktiviert werden können und es jedesmal ein bisschen "Daumendrücken" erfordert, obs denn nun aktivierbar ist oder nicht.

Das einfügen von Bits dauert doch keine 5 Sekunden (NV Inspector) und die optischen unterschiede sind gewaltig. Ich liebe HBAO+ ;)
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Dafür, dass du seit 2009 hier angemeldet bist, verstehst du irgendwie überraschend wenig über den Software/Hardwareentwicklungszyklus.
Man kann nicht einfach eine neue Technik bringen und die dann sofort ausgereift haben. Es braucht immer ein Produkt -> Verkauf -> Anwendungen -> Feedback aus den Anwendungen -> Weiterentwicklung, War schon immer so.

DLSS und RT in der derzeitigen Form wirken schlicht und ergreifend mit der heißen Nadel gestrickt, da wäre mehr Zeit in der Entwicklung für das Endprodukt und damit auch für den Kunden Gold wert gewesen.
Natürlich sind neue Technologien auch immer auf die entsprechende Software angewiesen, aber für genau so etwas gibt es eben das RoI(Return of Investment).
Niemand hat Nvidia gezwungen RT & DLSS schon mit Turing auf den Markt zu bringen, die Investition in diese Features verpuffen doch nicht einfach, wenn man mit den Dev Studios noch ein bis zwei Jahre länger an den übrigen Unzulänglichkeiten gearbeitet hätte.
Jeder große Publisher hat inzwischen ein oder mehrere Engines in Eigenproduktion, auch hier sehe ich kein Problem länger an der Implementierung solch komplexer Dinge zu arbeiten.
Dann wäre RT & DLSS eben erst "nativ" mit der nächsten Iteration der Frostbite Engine in Form von Battlefield VI gekommen, aber dafür ausgereift, ohne mühsames Patchwork wie es zur Zeit statt findet.
Man muss Dingen auch entsprechend Zeit geben, und nicht nur von Quartalsbericht zu Quartalsbericht denken.
Ich weiß dass das gerade aus wirtschaftlicher Sicht ein frommer Wunsch ist, aber so kommt nur Bananensoftware bei raus, und genau das ist mein Kritikpunkt.
Wie gesagt, die Technologie ist grundsätzlich interessant, aber man sollte es erst auf den Kunden loslassen wenn es wie man so schön sagt "when its done!"
So hat man nur ein laues "It just works",...mit biegen und brechen, auf dem Rücken der Kundschaft.

Ich wusste nicht, dass man eine Gebühr zahlt für RTX oder DLSS. Hab kein Monatsabo gesehen bislang.

Du bezahlst das in Form der extrem hohen Preise die Nvidia aktuell für ihre RTX Karten haben möchte.
Oder glaubst du die Dinger heißen umsonst RTX ? Das wurde im vollen Bewusstsein gemacht, obwohl man wusste das man dem Kunden kaum einen nutzbaren Mehrwert in Form von verfügbarer Software bieten kann.
Also ja, das ist immer noch "Early Access" für mich , denn keiner von uns kann mit Sicherheit sagen was mit RT & DLSS in 3 Jahren sein wird.
Das Geld für diese Features will Nvidia aber dennoch schon heute von mir haben, findest du das tatsächlich in Ordnung ?

Das Urteil hast du aber schon eingebaut. Das Interesse ist nicht plötzlich, Nvidia hat APIs viele Jahre vorangebracht und es gibt in den Vorgängern zu DX12 und Vulkan genug Vendor Spezifische Optimierungen von Nvidia.

Ich habe nicht geurteilt, ich habe einfach Tatsachen festgestellt.
In wie fern hat Nvidia DX11 vorangebracht ? Sie haben ihr eigenes Süppchen damit gekocht, und haben tut davon niemand anderer etwas als Nvidia selber, da dies natürlich properitäre Erweiterung sind, die auf die eigenen GPUs zugeschnitten sind.
AMD hat mit Mantle jedoch die gesamte Industrie vorwärts gebracht,das kann man objektiv gesehen schlicht nicht negieren.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

AMD hat doch schon viel länger die allseits beliebte Morphologische Filterung! Noch Sichtfeld-Motion-Blur auf Ultra, fett Film-Grain rein, dann steppt der Bär. :devil:
Ich behaupte, wenn es beim Spielen aktiviert ist, wurde blos vergessen es auszuschalten. :)
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

AMD hat doch schon viel länger die allseits beliebte Morphologische Filterung! Sichtfeld-Motion-Blur auf Ultra, fett Film-Grain rein, dann steppt der Bär. :devil:
Ich behaupte, wenn es beim Spielen aktiviert ist, wurde blos vergessen es auszuschalten. :)

Ja die Morphologische Filterung war alles,aber nicht schön :D
Und dennoch war AMD nach 3Dfx der erste Hersteller der SGSSAA wieder offiziell im Treiber implementierte, auch wenn das nicht unter allen API`s funktioniert hat.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

@Danielneedles: AMD hat schon lange vor NV mit RT experimentiert (z.B. Radeon Rays)und aus eben dem Grund "läuft noch nicht gut mit existierender HW" eben ausgesetzt. NV war also nicht zuerst da, bürdet aber dem Fan-Käufer die Malus von unausgereifter Technik auf und läßt Diesen sogar noch dafür richtig bluten.
Gruß T.

ich behaupte mal, dass nvidia schon seit jahren rt (iray) für den professionellen bereich anbietet.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

@Danielneedles: AMD hat schon lange vor NV mit RT experimentiert (z.B. Radeon Rays)und aus eben dem Grund "läuft noch nicht gut mit existierender HW" eben ausgesetzt. NV war also nicht zuerst da, bürdet aber dem Fan-Käufer die Malus von unausgereifter Technik auf und läßt Diesen sogar noch dafür richtig bluten.
Gruß T.
Nur damit liegst du dann einfach falsch. Nvidia hat GPU beschleunigtes Raytracing schon seit einigen Jahren im Angebot - schön mit guter SDK und Support, während AMD erst später dazugestoßen ist und noch so vor sich hinkränkelt mit einigen Problemen (auch in Sachen Performance obwohl die Rohleistung der AMD GPUs da doch höher wäre).
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Ich finde es interessant, wie einfach das Buzzword "KI" auftaucht im Zusammenhang mit Bildqualität und alle sind getriggert und sind sich sicher, dass es nur gut werden kann.
DLSS ist für mich eine BlackBox. Wie genau es nun wirklich funktioniert, weiss anscheinend keiner so wirklich zu beantworten.
Nvidia selbst schrieb in etwa, dass man Bilder mit 64x Supersampling und Raw Renderbilder (ohne Bildoptimierungen) genommen hat und damit die KI trainiert hat. So, dass sie möglichst nahe an ein Bild mit 64x Supersampling herankommt. Das wäre meinem Verständnis nach aber letztendlich trotzdem nur eine Aproxximation die, bei sich ändernder Umstanden, immer Fehleranfällig (bzw. ungenau) bleibt.
Weiterhin bedeutet dies, dass die (trainings-)Daten für DLSS nur von Nvidia selbst kommen können, oder liege ich da falsch?
Selbst trainiert man seine tensor cores ja nun nicht, was auch langfristig interessant sein könnte bezüglich Bereitstellung optimierter DLSS Algorithmen seitens Nvidia.
Und letztendlich: Mein Gefühl sagt mir, dass eine KI in absehbarer Zeit niemals ein so gutes Ergebnis liefern kann wie schnödes Sampling, AntiAliasing Methoden oder gar Downscaling wo der Kosten-/Nutzenfaktor einzig von der verfügbaren Rechenleistung abhängt.
DLSS ist als Techdemo recht interessant aber es scheint (in dieser Grafikkartengeneration) eher einem Gedankengang a la: "was machen wir mit den brachliegenden Tensorkernen?" geschuldet, als dass es von langer Hand geplant war.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

(...)
und wie kann man nur Physx-GPU kritisieren ?! Das ist doch purer Neid ! Das sind die mit abstand eindrucksvollsten grafischen effekte die es in den letzten jahren gab.(...)
Darum ging es aber nicht, sondern um das "fallen lassen" von GPU-PhysX.

Bezüglich Metro: Das AdvancedPhysX dort ist nach bisherigen Tests CPU-PhysX.
Aktueller AAA Kracher, welcher vor 3 Tagen raus kam nutzt PhysX = tot. Verstehe... (...)
Nach wie vor, es ging um Fallenlassen von GPU-PhysX bzw. allgemein um das Feature-Fallenlassen, welches ja nun bereits zu genüge geklärt ist, das mit GPU-PhysX ist nur noch ein Nebenschauplatz! Und es sieht halt danach aus, als wäre es CPU-PhysX. Aber selbst wenn es GPU-PhysX wäre hast du, wie gesagt, mittlerweile genügend fallen lassen-Beispiele erhalten.

@sunyego: Der NvidiaInspector als ganzes ist das, was mich am meisten bei Nvidia halten würde, wenn es in Zukunft mal einen Kaufzeitpunkt gäbe, bei dem ansonsten eine Radeon eine Alternative darstellen würde. (was zu meinen letzten Kaufzeitpunkten nie der Fall war)
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Nur damit liegst du dann einfach falsch. Nvidia hat GPU beschleunigtes Raytracing schon seit einigen Jahren im Angebot - schön mit guter SDK und Support, während AMD erst später dazugestoßen ist und noch so vor sich hinkränkelt mit einigen Problemen (auch in Sachen Performance obwohl die Rohleistung der AMD GPUs da doch höher wäre).

hmmm, mal so als frage von jemandem der nicht alles im GPU-markt immer im auge hat:

wie heisst dieses raytracing was NV da schon seit jahren mit SDK undso im markt hat?
und wie heisst das wo AMD erst später dazugestossen ist und noch so probleme hat?
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Ich finde es interessant, wie einfach das Buzzword "KI" auftaucht im Zusammenhang mit Bildqualität und alle sind getriggert und sind sich sicher, dass es nur gut werden kann.
DLSS ist für mich eine BlackBox. Wie genau es nun wirklich funktioniert, weiss anscheinend keiner so wirklich zu beantworten.
Nvidia selbst schrieb in etwa, dass man Bilder mit 64x Supersampling und Raw Renderbilder (ohne Bildoptimierungen) genommen hat und damit die KI trainiert hat. So, dass sie möglichst nahe an ein Bild mit 64x Supersampling herankommt. Das wäre meinem Verständnis nach aber letztendlich trotzdem nur eine Aproxximation die bei sich ändernder Umstande immer Fehleranfällig (bzw. ungenau) bleibt. Weiterhin bedeutet dies, dass die (trainings-)Daten für DLSS nur von Nvidia selbst kommen können oder liege ich da falsch?
Selbst trainiert man seine tensor cores ja nun nicht, was auch langfristik interessant sein könnte bezüglich Bereitstellung optimierter DLSS Algorithmen seitens Nvidia.
Und letztendlich: Mein Gefühl sagt mir, dass eine KI in absehbarer Zeit niemals ein so gutes Ergebnis liefern kann wie schnödes Sampling, AntiAliasing Methoden oder gar Downscaling wo der Kosten-/Nutzenfaktor einzig von der verfügbaren Rechenleistung abhängt.
DLSS ist als Techdemo recht interessant aber es ist (in dieser Grafikkartengeneration) eher einem Gedankengang a la: "was machen wir mit den brachliegenden Tensorkernen?" geschuldet, als dass es von langer Hand geplant war.
Ja, es kann alles sein. Nvidia kann da (bei FF15, in BF V und MetroExodus braucht man es nicht ernstzunehmen) vllt auch nur einen geschickte Auswahl der altbekannten Upsample-Algorithmen treffen lassen, also dass je nach Teil des Bildes etwas anderes genutzt wird.
Vielleicht steckt aber auch wirklich mehr dahinter. Vielleicht wird DLSS 2x der Knaller. Vielleicht ist aber auch das "nur" Wechseln zwischen OrderedGrid, RotatedGrid und SparseGrid-Sampling. Vielleicht auch etwas anderes und echt peinliches, wir werden sehen...
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Natürlich "bevorzugt" AMD bekannte Lösungen. Sie haben schließlich auch keine Alternative. Den Konter hat Huang aber verdient nach seiner Stichelei gegen Radeon VII.

Ich bin gespannt wie sich das noch weiter entwickelt. Nvidia wird weiter and DLSS schrauben und AMD wird sich (ggf. zusammen mit Microsoft) eine Alternative einfallen lassen.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

DLSS und RT in der derzeitigen Form wirken schlicht und ergreifend mit der heißen Nadel gestrickt, da wäre mehr Zeit in der Entwicklung für das Endprodukt und damit auch für den Kunden Gold wert gewesen.
Natürlich sind neue Technologien auch immer auf die entsprechende Software angewiesen, aber für genau so etwas gibt es eben das RoI(Return of Investment).
Niemand hat Nvidia gezwungen RT & DLSS schon mit Turing auf den Markt zu bringen, die Investition in diese Features verpuffen doch nicht einfach, wenn man mit den Dev Studios noch ein bis zwei Jahre länger an den übrigen Unzulänglichkeiten gearbeitet hätte.
Es ist nicht so schwaru/weiß:
Erstens forscht Nvidia schon seit zig Jahren an den Features. Zweitens gibt es kein "Endprodukt" bei Raytracing: Raytracing, auch wenn es erst in 5 Jahren nach starker Weiterentwicklung gekommen wäre, würde kaum mehr "bringen". Die Algorithmen sind einfach, aber die Anpassung der Spiele nicht immer. Deine Theorie funktioniert einfach nicht: damit Raytracing in seiner gesamten Pracht kommt, müssen Entwickler von Grund auf darauf hinentwickeln. Und das können sie nur, wenn die Spielerbasis da ist. Und das geht halt erst, wenn die Hardware verbreitet ist. Ein Henne-Ei Problem halt.

Darüber hinaus: es gab keinen besseren Zeitpunkt für Nvidia: 2018 released und AMDs Antwort noch über ein Jahr entfernt. Man hat also 1 Jahr Zeit eine Technologie in den Markt zu bringen. Wartet man ein Jahr bis die Konkurrenz erstarkt ist, spricht wesentlich weniger für RT(X) als wenn keine Konkurrenz da ist.
Dann wäre RT & DLSS eben erst "nativ" mit der nächsten Iteration der Frostbite Engine in Form von Battlefield VI gekommen, aber dafür ausgereift, ohne mühsames Patchwork wie es zur Zeit statt findet.
Man muss Dingen auch entsprechend Zeit geben, und nicht nur von Quartalsbericht zu Quartalsbericht denken.

Es hätte aber einfach keine Anpassung (nämlich GAR KEINE) in der Frostbite oder 4A GAmes Engine gegeben, wenn Nvidia nicht RTX gebracht hätte sondern erst in 3 Jahren bringen würde. Ist dir denn das nicht bewusst?
Ich weiß dass das gerade aus wirtschaftlicher Sicht ein frommer Wunsch ist, aber so kommt nur Bananensoftware bei raus, und genau das ist mein Kritikpunkt.
Wie gesagt, die Technologie ist grundsätzlich interessant, aber man sollte es erst auf den Kunden loslassen wenn es wie man so schön sagt "when its done!"
So hat man nur ein laues "It just works",...mit biegen und brechen, auf dem Rücken der Kundschaft.
Also so wie jedes Mal wenn neue Features kamen? Als Shader kamen, war man ja auch weit entfernt davon, dass dies schön umgesetzt wurde. Und am Anfang sowieso nur für Reflexionen. Déjà vu!


Du bezahlst das in Form der extrem hohen Preise die Nvidia aktuell für ihre RTX Karten haben möchte.
Und du glaubst Nvidia würde die Karten viel billiger verkaufen, wenn sie statt RTX ein anderes Feature anpreisen würden?
Oder glaubst du die Dinger heißen umsonst RTX ? Das wurde im vollen Bewusstsein gemacht, obwohl man wusste das man dem Kunden kaum einen nutzbaren Mehrwert in Form von verfügbarer Software bieten kann.
Also so wie damals Dx7 (TnL), Dx8 (Shader) usw usf. Immer kamen zuerst die GPUs und erst teils Jahre später Spiele die die neue Technologie ausgereizt haben. hast du dich damals auch beschwert?
Also ja, das ist immer noch "Early Access" für mich , denn keiner von uns kann mit Sicherheit sagen was mit RT & DLSS in 3 Jahren sein wird..
Fair Point. Was kann man heute schon sicher sagen was in 3 Jahren sein wird? Hat auch niemand geglaubt, dass 64 Bit über 10 Jahre braucht zum durchsetzen. Oder Mutlicores.
Das Geld für diese Features will Nvidia aber dennoch schon heute von mir haben, findest du das tatsächlich in Ordnung ?
Warum legst du mir was in den Mund? Als hätte ich gesagt ich finde die Preise IO?

Ich persönlich finde die Preise der RTX Serie nicht gut. Aber
1) ich bezahls sie halt auch nicht
2) die Preise kommen zustande, weil man die schnellsten GPUs hat. Nicht wegen einzelner Features. Die sind dann halt Marketinginstrumente.

Nvidia will also kein Geld fürs RTX Feature per se, sondern weil sie vorher schon die absolut schnellste GPU hatten und jetzt eine noch schnellere gebracht haben - ohne Konkurrenz.

Aber würde ich gerne Geld beim Fenster rauswerfen, würde ich das eher für revolutionäre leue Lichtberechnungen machen (also Raytracing), als etwas zusätzliches RAM.


Ich habe nicht geurteilt, ich habe einfach Tatsachen festgestellt.
die Wortwahl war klar subjektiv und implizierend.

In wie fern hat Nvidia DX11 vorangebracht ? Sie haben ihr eigenes Süppchen damit gekocht
Ich sprach generell von APIs. Nvidia hat in OpenGl und Co mehr hineingebuttert als es bei Mantle je der Fall sein konnte. Und gut, dass du das eigene Süppchen erwähnst. Denn das gescheiterte Mantle ist ja nur deshalb zu Vulkan geworden, weil es AMD nicht gelungen ist ihr eigenes Süppchen an den Mann zu bringen. Ein bisschen objektiv muss man hier schon sein: genau das, was du Nvidia vorwirfst, hat AMD sehr wohl auch probiert.
AMD hat mit Mantle jedoch die gesamte Industrie vorwärts gebracht,das kann man objektiv gesehen schlicht nicht negieren.
Mantle hat Bewegung in die API Debatte gebracht. Aber zu glauben, eine Low Level Variante von DX wäre nicht in Entwicklung gewesen, ist nunmal auch nicht richtig. Davon Sprach Carmack schon vor über 10 Jahren.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Mich würde auch mal interessieren, wieviel Geld NV bei den Entwicklern reingepumpt hat, bzw noch reinpumpen muß, damit es iwa zufriedenstellend läuft. Könnte ein Faß ohne Boden werden :D
@Danielneedles: AMD hat schon lange vor NV mit RT experimentiert (z.B. Radeon Rays)und aus eben dem Grund "läuft noch nicht gut mit existierender HW" eben ausgesetzt. NV war also nicht zuerst da, bürdet aber dem Fan-Käufer die Malus von unausgereifter Technik auf und läßt Diesen sogar noch dafür richtig bluten.
Gruß T.
Das kannst du sicher irgendwie belegen. Wir haben 2005-7 für ATIs GPGPU Programme Raytracer entwickelt. Das mussten wir für den R600 und später machen, denn für Nvidia gabs bereits vergleichbares...
 
Zurück