AMD Radeon RX 6000: Mit Super Resolution gegen Nvidia DLSS

Stimmt...
Beim Elektrounterbau bietet VW aber eine Lizensierung an.

MfG

Ein anderer großer Unterschied ist dass es nur zwei Grafikkartenhersteller für Gaming-Kram gibt.

Selbst wenn NVidia eine Lizensierung anbieten würde, was sollte AMD dazu bewegen diese in Anspruch zu nehmen? Das würde NVidias Marktposition signifikant stärken, was nicht im Interesse von AMD sein kann. Außerdem würde sich AMD in eine direkte Abhängigkeit zu NVidia begeben, müsste Preise anheben um die Lizenzkosten zu decken und ist letztes Endes nur maximal genau so gut wie NVidia, aber nie besser.
 
@IWantToDetonate

Da kann ich Dir nicht widersprechen, das Problem ist, dass zumindest AMD bisher nicht in der finanziellen Situation war, selbst bahnbrechende Innovationen zu entwickeln. Mantle war eine bemerkenswerte Ausnahme.

Ich hoffe, das ändert sich jetzt.

Wenn beide Hersteller wirklich in der Lage sind, gegeneinander zu konkurrieren, in dem Sie Features gegenüberstellen (mit reiner Leistung wird eh bald nicht mehr viel zu holen sein), dann wird es auf jeden Fall spannend.

Natürlich hat das auch eine schlechte Seite: Irgendwann wird man sich zwischen dem Feature-Set des Herstellers A und dem Feature-Set des Herstellers B entscheiden müssen. Bis dann der andere jeweils wieder aufgeholt hat.

Aber die Altenative ist Stillstand. Denn, wie ich schon sagte, nur aus Lust und Dollerei entwickelt keiner teuere, bahnbrechende Technologien.
 
@IWantToDetonate

Da kann ich Dir nicht widersprechen, das Problem ist, dass zumindest AMD bisher nicht in der finanziellen Situation war, selbst bahnbrechende Innovationen zu entwickeln. Mantle war eine bemerkenswerte Ausnahme.

Ich hoffe, das ändert sich jetzt.

Wenn beide Hersteller wirklich in der Lage sind, gegeneinander zu konkurrieren, in dem Sie Features gegenüberstellen (mit reiner Leistung wird eh bald nicht mehr viel zu holen sein), dann wird es auf jeden Fall spannend.

Natürlich hat das auch eine schlechte Seite: Irgendwann wird man sich zwischen dem Feature-Set des Herstellers A und dem Feature-Set des Herstellers B entscheiden müssen. Bis dann der andere jeweils wieder aufgeholt hat.

Aber die Altenative ist Stillstand. Denn, wie ich schon sagte, nur aus Lust und Dollerei entwickelt keiner teuere, bahnbrechende Technologien.

Warum werden sich die Hersteller bald nich mehr, durch die Leistung absetzen können?
 
Für mich ist und bleibt DLSS eine Brückentechnologie, um RT-Performance zu verbessern. Wenn man an der Stelle zukünftig mehr Performance in Form von HW bereit stellt, werden verlustbehaftete Bildverbesserer zunehmend obsolet.

MfG
 
Ist doch von RT völlig unabhängig.
Mehr Leistung und/oder mehr Bildqualität kann man immer brauchen!

Und was den Support einer proprietären Lösung angeht:
Hier ist ja auch tanz entscheidend, wie viel Aufwand es darstellt, DLSS zu integrieren.
Wenn dieser gering ist und nVidia dahinter ist, dann ist das kein Hindernis.
 
Weil die Technik zunehmend ans Limit dessen kommt, wo man Leistungssteigerungen durch pures Brute Force überhaupt noch möglich ist.
Sehe ich nicht so, siehe RDNA2/ 50 % Leistungssteigerung gegenüber Vorgänger. RT steckt noch in den Kinderschuhen, da ist noch massiv Luft nach oben und genau da setzt DLSS an, diesen Bereich abzudecken. Steigt die RT Performance massiv und kann nativ dargestellt werden ist DLSS nicht mehr nötig.

Hier ist ja auch tanz entscheidend, wie viel Aufwand es darstellt, DLSS zu integrieren.
Wenn dieser gering ist und nVidia dahinter ist, dann ist das kein Hindernis.
Es ist maßgeblich relevant das Nvidia das feature an ihre HW binded und, dass es nur bei ausgewählten Spielen funktioniert. Das alles führt dann dazu, dass sich solche features, ich meine schaue Dir mal Nvidias Preise an^^, sich nicht maßgeblich verbreiten. Man schaue nur auf PhysX.

MfG
 
Weil die Technik zunehmend ans Limit dessen kommt, wo man Leistungssteigerungen durch pures Brute Force überhaupt noch möglich ist.

Seh ich so überhaupt nicht.
Die aktuelle Generation ist doch wieder ein gewaltiger Sprung!
Bei CPUs gings die letzten Jahre eher langsamer.
Sehe ich nicht so, siehe RDNA2/ 50 % Leistungssteigerung gegenüber Vorgänger. RT steckt noch in den Kinderschuhen, da ist noch massiv Luft nach oben und genau da setzt DLSS an, diesen Bereich abzudecken. Steigt die RT Performance massiv und kann nativ dargestellt werden ist DLSS nicht mehr nötig.


Es ist maßgeblich relevant das Nvidia das feature an ihre HW binded und, dass es nur bei ausgewählten Spielen funktioniert. Das alles führt dann dazu, dass sich solche features, ich meine schaue Dir mal Nvidias Preise an^^, sich nicht maßgeblich verbreiten.

MfG

Beides würde dann aber generell gegen einen nV-Support sprechen, nicht speziell gegen DLSS.
 
Jede Firma viel so viel Gewinn erzielen, wie es mit legalen und moralisch einwandfreien Mitteln möglich ist.
Hmm frag mal Intel ( Stichwort: 1 Millarde Strafe an AMD war zu zahlen) oder Nvidia ( wollten Boardpartner dazu zwingen ihre Grafikkartengaming Brands Nvidia Exklusiv zu machen ).
Gibt halt auch Firmen denen ist jedes Mittel recht ;).
 
Nein, die Sprünge werden schon seit Jahren immer kleiner.

AMD hat einfach einen großen Rückstand aufgeholt. Die Technik insgesamt, also die Strukturbreite und damit die Zahl der Transistoren, die man verbauen kann, sind bereits am Limit. Viel mehr geht einfach nicht mehr.

Ich erwarte insgesamt mit herkömmlicher Halbleitertechnologie vielleicht noch eine Steigerung von 100 - 200% der heutigen Leistung, dann ist Schluss. Wenn nicht jemand auf eine komplett neue Idee kommt, Recheneinheiten auf atomarer Ebene, Quanten oder sonst was zu bauen, sind wir, was das angeht, bald am Ende angekommen.
 
Beides würde dann aber generell gegen einen nV-Support sprechen, nicht speziell gegen DLSS.
Es trägt halt nicht zur Verbreitung bei, wenn nur eine Hand voll Spieler eine Hand voll Spiele mit solchen features spielen kann. An der Stelle sollte Nvidia ihre Strategie anpassen, wie ich finde.

MfG
Nein, die Sprünge werden schon seit Jahren immer kleiner.

AMD hat einfach einen großen Rückstand aufgeholt. Die Technik insgesamt, also die Strukturbreite und damit die Zahl der Transistoren, die man verbauen kann, sind bereits am Limit. Viel mehr geht einfach nicht mehr.

Ich erwarte insgesamt mit herkömmlicher Halbleitertechnologie vielleicht noch eine Steigerung von 100 - 200% der heutigen Leistung, dann ist Schluss. Wenn nicht jemand auf eine komplett neue Idee kommt, Recheneinheiten auf atomarer Ebene, Quanten oder sonst was zu bauen, sind wir, was das angeht, bald am Ende angekommen.
Arbeitet AMD nicht an einem Ryzen ähnlichen GPU Aufbau, um Leistung einfach skalieren zu können?

MfG
 
Hmm frag mal Intel ( Stichwort: 1 Millarde Strafe an AMD war zu zahlen) oder Nvidia ( wollten Boardpartner dazu zwingen ihre Grafikkartengaming Brands Nvidia Exklusiv zu machen ).
Gibt halt auch Firmen denen ist jedes Mittel recht ;).
Die Geschichte von Intel war tatsächlich moralisch absolut daneben - Die Marktmacht zu missbrauchen, Exklusivität zu erzwingen, das geht einfach gar nicht.

Das mit den Boardpartnern von NVidia war mehr unklug als uncool. Man hat sich damit selbst geschadet. Auf jeden Fall ist es aber nicht mit der Aktion von Intel vergleichbar.
Arbeitet AMD nicht an einem Ryzen ähnlichen GPU Aufbau, um Leistung einfach skalieren zu können?
Im Gegensatz zu CPUs sind GPUs schon hochparallel. Mehrere Chips nebeneinanderzulegen bringt nicht viel, da die Verluste in der Kommunikation zu hoch werden (siehe SLI) und außerdem die Stromaufnahme schlicht linear wächst.

Bei CPUs, wo ein Kern strikt sequentiell arbeitet (von SMT abgesehen) ist der Grad der Parallelisierung, die man durch mehr Kerne gewinnen kann, noch höher, aber bei 16 Kernen sind wir auch da schon am Ende der sinnhaftigkeit in klassischen Anwendungen angekommen.

Und bei hochgrading parallelisierbaren Anwendungen, nimmt man eh besser die GPU - Folding@Home oder Handbreak sind die besten Beispiele.
 
Das Problem an den großen Chips ist ja nicht das mehr Transistoren nicht mehr Leistung bringen, sondern die Yield Rate und genau das setzt ja Ryzen auch an. Wenn man das bei GPUs machen könnte und das Latenzproblem in den Griff kriegt, könnte die Leistung wieder enorm wachsen, vor allem zunehmen mit kleinerer Fertigung.

Im Übrigen, auch Nvidia hätte deutlich mehr Leistung zur Verfügung, wenn sie nicht das RT-feature so massiv pushen würden.

MfG
 
Die Geschichte von Intel war tatsächlich moralisch absolut daneben - Die Marktmacht zu missbrauchen, Exklusivität zu erzwingen, das geht einfach gar nicht.

Das mit den Boardpartnern von NVidia war mehr unklug als uncool. Man hat sich damit selbst geschadet. Auf jeden Fall ist es aber nicht mit der Aktion von Intel vergleichbar.
Was ist da an Nvidias Vorgehen anders? Sie haben versucht ihre Marktmacht aus zu nutzen (Wenn ihr eure Gaming Brands nicht Nvidia Exklusiv macht bekommt ihr viel weniger Chips von uns) um die Gamingbrands Nvidia exklusiv zu machen. Ziel: Dem Käufer suggerieren, dass die Konkurrenz nur zweite Wahl sei und für Gaming nicht taugt.
Und wären die Verträge nicht geleakt worden, wäre Nvidia damit sogar noch durch gekommen. Siehe ASUS die für AMD dann Arez Brand eingeführt hatten und aus der Strix Linie verbannt hatten. Moralisch gesehen ist das das selbe. Intels war sogar noch illegal ok. Macht es von Nvidia aber auch nicht moralisch in Ordnung.
 
Was ist da an Nvidias Vorgehen anders? Sie haben versucht ihre Marktmacht aus zu nutzen (Wenn ihr eure Gaming Brands nicht Nvidia Exklusiv macht bekommt ihr viel weniger Chips von uns) um die Gamingbrands Nvidia exklusiv zu machen. Ziel: Dem Käufer suggerieren, dass die Konkurrenz nur zweite Wahl sei und für Gaming nicht taugt.
Und wären die Verträge nicht geleakt worden, wäre Nvidia damit sogar noch durch gekommen. Siehe ASUS die für AMD dann Arez Brand eingeführt hatten und aus der Strix Linie verbannt hatten. Moralisch gesehen ist das das selbe. Intels war sogar noch illegal ok. Macht es von Nvidia aber auch nicht moralisch in Ordnung.
So etwas passiert immer dann, wenn man sich inhaltlich nicht mehr abgrenzen kann.

MfG
 
(Wenn ihr eure Gaming Brands nicht Nvidia Exklusiv macht bekommt ihr viel weniger Chips von uns)
Wie gesagt: Dumm. Der Hintergrund ist, dass man das Produkt Branding nicht verwässern wollte. Also z.B. sollte der Kunde wissen, dass er unter Asus ROG immer NVidia bekommt.

Aber NVidia hat AMD nie daran gehindert oder hindern wollen, dass Asus auch AMD verkauft. Sie wollten, dass AMD eine (neue) Brand nur für NVidia macht, um die Sichtbarkeit zu erhöhen.

Das ist schon eine ganz andere Kategorie, als Asus (und andere) dazu zu zwingen, NVidia Exklusiv zu sein.

Was AMD mit Sapphire ja z.B, gemacht hat.
 
Was AMD mit Sapphire ja z.B, gemacht hat.
Hast du da einen Link dazu? Würde mich interessieren.
Mir fällt in der Hinsicht immer XFX ein:
 
Sapphire ist schon immer (oder sehr lange) AMD exklsuiv. Wogegen nichts spricht, aber wie es dazu gekommen ist, weiß man von außen nicht. Ich denke, auch bei Sapphire hätte man gerne den einen oder anderen Dollar mehr verdient, in dem man auch NVidia verkauft :)

Die aktuelle Bedeutung von XFX auf dem Markt spricht auch Bände.
 
Hmm frag mal Intel ( Stichwort: 1 Millarde Strafe an AMD war zu zahlen) oder Nvidia ( wollten Boardpartner dazu zwingen ihre Grafikkartengaming Brands Nvidia Exklusiv zu machen ).
Gibt halt auch Firmen denen ist jedes Mittel recht ;).
Ist ja nur Glück, das ich keine Lust habe, wieder etwas zu AMD rauas zu suchen.
Leute, das läuft überall so. Kein Unternehmen, von denen wir hier reden ist die Wohlfahrt.
 
Sapphire ist schon immer (oder sehr lange) AMD exklsuiv. Wogegen nichts spricht, aber wie es dazu gekommen ist, weiß man von außen nicht. Ich denke, auch bei Sapphire hätte man gerne den einen oder anderen Dollar mehr verdient, in dem man auch NVidia verkauft :)

Die aktuelle Bedeutung von XFX auf dem Markt spricht auch Bände.
Was soll dieses rumgeunke, entweder du bringst belastbare Quellen oder du lässt es sein.

EVGA, Palit, Gainward, ZOTAC, KFA2 alles exklusiv Nvidia, bevor man hier auf AMD mit dem Finger zeigt, sollte man vielleicht mal vor der eigenen Haustüre kehren!
 
Zurück