Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

Das ist kein DLSS Marketing, schau Dir mal die AAA Spiele an die diesen Herbst/Winter erscheinen, die meisten nutzen DLSS, und ich wette das wird für die meisten AAA Spiele in Zukunft genauso der Fall sein. Gestern wurde das auch für einige bestehende Spiele angekündigt:

Eine Technik wo ich eine bessere Bildqualität und dabei deutlich bessere Performance bekomme ist aus meiner Sicht einfach ein absoluter Gamechanger:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für Indie Spiele die ohnehin kaum Leistung benötigen ist das nicht wirklich notwendig.

Bessere Bildqualität als Nativ? Ehm Nein.....DLSS erzeugt oft noch Schlieren und Nativ 4K ist noch immer ne Ecke besser als 4K +DLSS. DLSS schärft das Bild etwas nach, dummerweise kann man das in 4K auch manuell und da schaut das dann nochmal besser aus.

Fazit : DLSS ist gut wenn der GPU in 4K die Puste ausgeht, aber die Qualität kommt nicht an Native Auflösung ran. Bei Control hat mir DLSS übrigens überhaupt nix gebracht, in 4K +DLSS und RT hat der Speicher meiner 2080 nicht gereicht und Texturen waren nur noch Matsch.
Deswegen auch kein 3080 mit 10GB....

Für 1080p ist DLSS nix....
 
Ich habe die meisten Performance Probleme in schlecht optimierten Indiegames. Da hilft nur Rohleistung.
In AAA Titeln habe ich selbst mit der 1080 weniger Probleme.

Proprietäre Lösungen wie DLSS gehören einfach nicht unterstützt.
RDNA2 GPU's sind für eine KI basierte Skalierung a la DLSS 2.0 voraussichtlich nicht geeignet, die XSX GPU z.Bsp. besitzt nicht einmal die Hälfte der dafür notwendigen Int8 Leistung einer RTX 2060.
Nvidia erreicht das mit Tensor Cores, und etwas Ähnliches hat AMD eben nicht.
Eine auf normalen Shadern basierte Variante war DLSS 1.0, die Qualität waf jedoch überhaupt nicht gut.
 
So, so.
Ich kenne eine nV-gepflegte Liste mit Ankündigung von ganzen ca. 10 Games. 10!!! Und das zum Pushen während des Ampere-Launchs!

Ziemlich ärmlich imho.

Wenn ich mich so zurückerinnere wie DX12 aufkam und man da Leuten angeraten hat ja keine Maxwell/Pascal GPU mehr zu kaufen weil nicht zukunftssicher sieht die Sache doch Jahre später etwas anders aus. Wie viele DX12 Games hatten wir bisher die auch sauber liefen und von den DX12 Funktionen von Polaris/Vega profitierten gegenüber eher auf DX11 ausgelegten Karten?

Über die letzten Jahre scheinbar weit weniger als jetzt 2 Jahre nach DLSS Start. So ist es doch immer mit Funktionen dass sie teils Jahre brauchen um wirklich in Software flächendeckend genutzt zu werden. Da bräuchte man ja auf gar keine "Zukunfssicherheit" verweisen und neue Features gut finden.
Dennoch braucht es oft erst mal eine Firma die damit anfängt (sei es proprietär) damit die Andere daran ebenfalls forscht und es einen offenen Standard irgendwann gibt.
Denn wer weiß wie langsam und ob sich DirectML überhaupt entwickelt würde es bei DLSS keinen Vorstoß geben.

Wir haben doch immer irgendwelche Funktionen in Architekturen von Grafikkarten die die Konkurrenz nicht in dem Umfang kann. Müsste man nach der Logik ja alles weglassen was Firma A und B nicht gemeinsam können. Dennoch sind die drin um für Hand voll Games dann zum Einsatz zu kommen.

Gleiche könnte man auch über CPU Markt sagen. Warum kaufen Leute 10-12 Kerner rein für Gaming wenn nur Hand voll Spiele überhaupt etwas davon profitieren? Weil man halt einfach hofft dass in Zukunft eine bessere Unterstützung herrscht. Wenn ja es den Wert einer Sache bei Wiederkauf steigert.
 
Bessere Bildqualität als Nativ? Ehm Nein.....DLSS erzeugt oft noch Schlieren und Nativ 4K ist noch immer ne Ecke besser als 4K +DLSS. DLSS schärft das Bild etwas nach, dummerweise kann man das in 4K auch manuell und da schaut das dann nochmal besser aus.

Fazit : DLSS ist gut wenn der GPU in 4K die Puste ausgeht, aber die Qualität kommt nicht an Native Auflösung ran. Bei Control hat mir DLSS übrigens überhaupt nix gebracht, in 4K +DLSS und RT hat der Speicher meiner 2080 nicht gereicht und Texturen waren nur noch Matsch.
Deswegen auch kein 3080 mit 10GB....

Für 1080p ist DLSS nix....
Das stimmt nicht, mit DLSS im Quality Mode erreicht man ein unterm Strich besseres Bild wie nativ:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Screenshot_20201021-143258.jpg

Screenshot_20201021-143335.jpg

Screenshot_20201021-143752.jpg

Screenshot_20201021-143956.jpg
 
Zuletzt bearbeitet:
RDNA2 GPU's sind für eine KI basierte Skalierung a la DLSS 2.0 voraussichtlich nicht geeignet, die XSX GPU z.Bsp. besitzt nicht einmal die Hälfte der dafür notwendigen Int8 Leistung einer RTX 2060.
Nvidia erreicht das mit Tensor Cores, und etwas Ähnliches hat AMD eben nicht.
Eine auf normalen Shadern basierte Variante war DLSS 1.0, die Qualität waf jedoch überhaupt nicht gut.
Was sollen die auch mit DLSS. Ist doch proprietär. DirectML heißt das Zauberwort. Schauen wir mal was da kommt.
Aber aktuell habe ich auf beides nicht wirklich Lust. Wenn ich matschige Grafiken haben will, dann stelle ich einfach das Pixelformat um.
Ja, sie gibt es. Die Beispiele, wo DLSS tatsächlich auch mal eine höhere Bildqualität verursachen kann. Nur das dauert und ist eben auch nicht überall so.
 
Ist es bei DLSS nicht schon immer so, dass man "gleiche" Grafik und mehr fps oder "bessere" Grafik bei selben fps haben kann. Beides geht doch noch nicht?
 
Ist es bei DLSS nicht schon immer so, dass man "gleiche" Grafik und mehr fps oder "bessere" Grafik bei selben fps haben kann. Beides geht doch noch nicht?
Mit Quality Settings hat man ein besseres Bild bei höherer Bildrate. Mit Performance Setting meist eine etwa gleich gute Bildqualität bei deutlich höherer Bildrate.
jo, nur Bewegt ist halt oft schlierig. Ich spiele z.B nie Standbilder Games.
Das stimmt nicht, das war bei der Version 1.9 der Fall, bei 2.0 jedoch nicht.
 
Ah, dass ist die neue Argumentation? AMD holt den Holzhammer raus um gleich zu ziehen?
Also ich sehe da bei Nvidia bei der Leistungsaufnahme bereits einen Holzhammer aka Brechstange.

Nach deiner Logik ist der erste, der auf den Markt mit einem abartigen Stromverbrauch aufwartet der Gute und der danach kommt holt den Holzhammer raus? Geile Logik.

Was du da reininterpretierst was ich zwischen den Zeilen geschrieben habe... respekt! Aber da du ja schon automatisch in die "Guten" und "Schlechten" unterteilst weiß ich wenigstens woher der Wind weht.

Denn das Nvidia nicht auch den Holzhammer holt habe ich nie gesagt und man könnte meine Argumentation genau so auch auf Nvidia anwenden nur das Nvidia atm halt seit 2 Generationen quasi gegen sich selbst antritt. Und die 3080 ist tatsächlich das perfekte Beispiel für meine Argumentation. Der Chip ist ab Werk am Limit umd die letzten % absolute Leistung herauszuquetschen.
 
Wenn ich mich so zurückerinnere wie DX12 aufkam und man da Leuten angeraten hat ja keine Maxwell/Pascal GPU mehr zu kaufen weil nicht zukunftssicher sieht die Sache doch Jahre später etwas anders aus. Wie viele DX12 Games hatten wir bisher die auch sauber liefen und von den DX12 Funktionen von Polaris/Vega profitierten gegenüber eher auf DX11 ausgelegten Karten?

Über die letzten Jahre scheinbar weit weniger als jetzt 2 Jahre nach DLSS Start. So ist es doch immer mit Funktionen dass sie teils Jahre brauchen um wirklich in Software flächendeckend genutzt zu werden. Da bräuchte man ja auf gar keine "Zukunfssicherheit" verweisen und neue Features gut finden.
Dennoch braucht es oft erst mal eine Firma die damit anfängt (sei es proprietär) damit die Andere daran ebenfalls forscht und es einen offenen Standard irgendwann gibt.
Denn wer weiß wie langsam und ob sich DirectML überhaupt entwickelt würde es bei DLSS keinen Vorstoß geben.

Wir haben doch immer irgendwelche Funktionen in Architekturen von Grafikkarten die die Konkurrenz nicht in dem Umfang kann. Müsste man nach der Logik ja alles weglassen was Firma A und B nicht gemeinsam können. Dennoch sind die drin um für Hand voll Games dann zum Einsatz zu kommen.

Gleiche könnte man auch über CPU Markt sagen. Warum kaufen Leute 10-12 Kerner rein für Gaming wenn nur Hand voll Spiele überhaupt etwas davon profitieren? Weil man halt einfach hofft dass in Zukunft eine bessere Unterstützung herrscht. Wenn ja es den Wert einer Sache bei Wiederkauf steigert.
Entweder ich war nicht klar genug oder Du bringst hier grundlegend etwas durcheinander. Ich versuche es nochmal:
Der Vorwurf gegenüber nvidias bisherigem DLSS ist nicht dass es eine neue Technologie ist, die sich erst verbreiten muss, neue Hardwarebasis braucht, etc. Der Punkt ist, dass nVidias Ansatz (wieder einmal) rein proprietär ist und es deshalb kein Entwickler von sich aus vernünftig umsetzen kann. Nichts läuft, ohne dass er sein Game jahre- oder zumindest monatelang in die Hände von nvidias Speziisten gibt. Was glaubst Du, was Cyberpunk ein dreiviertel Jahr verzögert hat? Wenn nV dann wenigstens die Ressourcen bereitstellen würde, die es braucht, um DLSS in Breite in die Games zu frickeln. Aber nein, mehr als drei, vier Marketing-Leuchttürme pro Jahr schafft man nicht, will man nicht, braucht man nicht. Sobald das Markenimage ausreichend aufgeblasen wurde, gibt's da keinen Cent mehr als nötig. Wo käme da auch die Marge hin. ;-)

Mit Low-Level-Api und Mehrkernoptimierung hat das eben überhaupt nichts zu tun. Das waren/sind offene Standards. Und deshalb kommt das auch (langsam) während GPU-PhysX, 3DVision, GSync & Co. tot sind. nVs DLSS kommt imho aus der gleichen Ecke und wird wieder auf dem gleichen Haufen landen.
 
Jetzt kommen wir schon in den Bereich der Verschwörungstheorien. Studio Multiplattspiel mit Unkosten verschieben was sogar auf Konsolen erscheinen soll nur weil Nvidia 1-2 Funktionen da reinhaben will. Da gibt es ja sicherlich Beweise dafür.^^

Eine Eigenentwicklung wird propriertär gehalten für die man mit großen Serverfarm selber viel Aufwand und Energie verwendet ist ganz was Neues. Als Nächstes sagt mir Jemand dass Apple nicht all seine Technologien mit Microsoft, Samsung und Co teilt wie andersherum. Wenn Sony I/O System mit SSD für Playstation entwickelt nicht gleich mit Team Xbox und Nintendo teilt.
Nennt sich aber normalerweise Wirtschaften wenn man etwas hat was Performancevorteil gegenüber der Konkurrenz hat.

Gemeinsamer Standard geht nur wenn beide Firmen auch in dem Bereich was anbieten und sich dann einigen. Wenn sowas halt besser in Hardware funktioniert weil es momentan in Software zu langsam läuft dann kann ja der Eine nicht immer auf den Anderen warten.

Es gibt halt sowas wie Konkurrenz. Wenn Nvidia halt was entwirft kann AMD ja mit was ähnlichem Kontern. Entweder koexistiert oder eine Sache setzt sich durch. Genau wie Sony eigenen Spiele für Playstation entwickelt und nur dort anbietet und MS halt Xbox Games auf ihren Ökosystemen.

Wenn alles überall offen erhältlich wäre ist es zwar für die frei Wahl aus Kundensicht gut aber nicht für die jeweiligen Firmen. Nvidia und AMD sind halt wie Apple (iOS) und Google (Android) zueinander. Eine offener der Andere geschlossener.
Kunde steht dir frei wo man hingeht.

Bei neue Technologien muss erst mal Einer überhaupt anfangen.
Wenn AMD mit DirectML schnell genug kommt und damit Rechenleistung in andere Grafikaufbesserungen als nur Auflösung fließen kann werde ich gern zu Big Navi wechseln. Vielleicht kommt es auch für Konsole. Serie X und PS5 schon in Planung.
Mir persönlich ist es letzten Endes egal welche Firma was liefert. Solange es funktioniert und am Markt verfügbar ist wird halt genommen was da ist.
DirectML ist nun mal noch nicht da und kann daher auch nicht bevorzugt werden.
 
Ich finde lustig wie viele behaupten RT und DLSS sind noch nicht relevant und keine Kaufargument weil kaum Spiele es unterstützt. Aber 16GB? xD

Spielen jetzt alle Spieler auf 4K mit 60+FPS?
 
So lange RT und DLSS noch nicht Standard sind und die Zukunft da reine Spekulation bleibt, sind die beiden Features kein Kaufargument.

So lange DLSS für jedes Spiel einzeln implementiert werden muss, kostet es Entwicklungszeit und damit Geld.
Nvidia betreibt auch nicht das Bugfixing für ein ganzes Spiel.. da ist durchaus noch einiges an Aufwand beim entwickler.

Dazu kommt noch, dass sich mit DirectML schon ein offener Konkurrent am Horizont abzeichnet.
Es wird nicht leichter für DLSS... eher schwerer.
Vor allem kann man mit darüber entwickelten Upscaling Techniken deutlich mehr GPUs und damit Kunden erreichen, als mit DLSS.
Man braucht nur eine DX12 fähige Grafikkarte - also alles ab GTX 600 und HD7000.
Das macht diese Variante deutlich attraktiver für Spieleschmieden, als DLSS.

Also: AI Upscaling ja, DLSS in Zukunft eher nein.
Natürlich wird es weiter Nvidia bezahlte DLSS titel geben... aber ob die sich dann durchsetzen?

Ob die Triple A Titel dann auch zum Release gleich mit RT kommen, muss sich auch noch rausstellen... hat in der Vergangenheit ja auch nicht sonderlich geklappt... auch mit DLSS beim Start sah es nicht ganz so rosig aus.

Es dürfte wie bei G-Sync vs. Freesync ausgehen... die speziellen Hardwareanforderungen und generelle Exklusivität auf einen Hersteller helfen bei PC Gaming nicht wirklich mit der Verbreitung.
Vor allem nicht beim Großteil der Gamer, bei dem das Budget doch eher knapp bemessen ist.

Du meinst deiner Meinung nach? ;)

Was ein Kaufargument ist, entscheidet jeder selbst.
Das DLSS keine Zukunft hat, ist erstmal eine gewagte These. Knn zwar passieren, das Nvidia irgendwann DLSS fallen lässt, aber vorher muss sich erst zeigen, das DirectML.

Meistens kommt Nvidia schon recht weit, mit deren Alleingängen.

Und wenn es nur die nächsten zwei Jahre sind, in denen man von den 5 AAA Titeln, die ich Spiele, drei davon profitieren, hat sich das schon für mich gelohnt und wäre richtig gewesen, das beim Kauf zu berücksichtigen.

Danach soll dann eigentlich schon wieder die nächste GPU anrollen und da werden die Karten dann wieder neu gemischt.

Das RT nicht mit Kaufentscheidend ist, finde ich auch gewagt, gerade jetzt, wo endlich die Konsolen auch aufspringen. Da glaube ich, das die neuen Titel für Konsole und PC, überwiegend RT einsetzen werden. lass es ruhig 2021 werden, aber dann denke ich wird es so sein.
 
Sagen wir mal so, die Zielgruppe von Grafikkarten die 800€ und mehr kosten tendentiell schon. :D
Das mag sein, ändert aber nicht an der 16GB Aussage. Es gibt mehr Spiele mit RT, oder DLSS, als Spiele die 16GB brauchen.

Ich meine jetzt keine Mods!

16GB sind heute absolut sinnvoll, gerade weil man AMD Karten ja über Jahre nutzen kann.
Bei dir wäre 10GB auch unnötig, wenn AMD nur 8GB bieten würde ;)
 
Zurück