News Starfield: AMDs Gaming-Chef gibt an, Nvidias DLSS nicht zu blockieren, aber Geld fließt trotzdem

Frage dürfte wohl erlaubt sein: Hätte AMD überhaupt FRS und FG selber entwickelt ohne dass Nvidia vorgelegt hätte?
Wäre schon komischer Zufall dass bei RT, DLSS und FG immer 1-2 Jahre später AMD was Vergleichbares bietet.

Also bei aller Liebe zu Open Source aber bleibt schon offen ob es überhaupt gekommen wäre ohne die "propiertäre" Lösung davor.
Also ist dieses "Schulterklopfen" für einen Hersteller für mich immer etwas fraglich. Ohne Zweifel gut für den Markt das es Optionen gibt und Alternativen. Aber man muss auch in Technikforum ehrlich sein dass häufig Hardwarebeschleunigung (somit Propiertär) oft besser ist als die Softwarelösung. Früher hat eher AMD mit DX12 Features wie Async Compute vorgelegt wo Nvidia dann z.B. bei Maxwell mit Softwarelösung kam die gar die Karten langsamer machte.

Mir persönlich ist der Hersteller egal und ich mag auch meine Konsolen mit AMD APU. Nur was AMD braucht ist eher wieder Vorreiter zu sein und nicht Mitläufer der 1-2 Jahre später das Gleiche bringt.
Bringt aller Zuspruch zu Open Source nichts was nur dazu führt dass Leute mit grünen Karte beides Nutzen können wenn man nicht aktiv die Entwickler dann mit Kohle umstimmt.
 
Frage dürfte wohl erlaubt sein: Hätte AMD überhaupt FRS und FG selber entwickelt ohne dass Nvidia vorgelegt hätte?
Wäre schon komischer Zufall dass bei RT, DLSS und FG immer 1-2 Jahre später AMD was Vergleichbares bietet.

Also bei aller Liebe zu Open Source aber bleibt schon offen ob es überhaupt gekommen wäre ohne die "propiertäre" Lösung davor.
Also ist dieses "Schulterklopfen" für einen Hersteller für mich immer etwas fraglich. Ohne Zweifel gut für den Markt das es Optionen gibt und Alternativen. Aber man muss auch in Technikforum ehrlich sein dass häufig Hardwarebeschleunigung (somit Propiertär) oft besser ist als die Softwarelösung. Früher hat eher AMD mit DX12 Features wie Async Compute vorgelegt wo Nvidia dann z.B. bei Maxwell mit Softwarelösung kam die gar die Karten langsamer machte.

Mir persönlich ist der Hersteller egal und ich mag auch meine Konsolen mit AMD APU. Nur was AMD braucht ist eher wieder Vorreiter zu sein und nicht Mitläufer der 1-2 Jahre später das Gleiche bringt.
Bringt aller Zuspruch zu Open Source nichts was nur dazu führt dass Leute mit grünen Karte beides Nutzen können wenn man nicht aktiv die Entwickler dann mit Kohle umstimmt.
Raytracing, DLSS, FG, alles zählt dazu. Nvidia macht auch vieles mehr, was aber nicht groß genutzt wird.
Nvidia ist der Innovator, der Rest muss nachziehen oder etwas gleichwertiges bieten um im Rennen nicht auszuscheiden.
Wäre AMD ausgeschieden, bräuchten wie kein Open Source FSR, weil jeder eine Nvidia Karte hätte. :D
Und alle Spiele hätten DLSS und alle wären zufrieden...

Die Frage ist nur, wie Nvidia ohne Konkurrenz weiter gemacht hätte ohne auf einmal nichts mehr zu machen.
Man hätte jedes Jahr nur noch 10% mehr Leitung bieten können oder extrem hohe Preise, aka Friss oder stirb.
Oder Nvidia hätte genau so weiter gemacht wie jetzt. :D Ich meine die Preise sind auch mit Konkurrenz sehr hoch, siehe 4090.
Und wenn die Preis/Leistung nicht stimmt, dann sitzt Nvidia auf den Karten... Sie wollen ja Geld machen und ihre Karten verkaufen, ganz unabhängig von AMD... Von daher denke ich, das der Markt schon Nvidia regulieren würde, wäre Nvidia der Monopolist.
Allerdings sieht das aktuell nicht ganz so rosig aus, wegen der ganzen KI-Geschichte...
 
Frage dürfte wohl erlaubt sein: Hätte AMD überhaupt FRS und FG selber entwickelt ohne dass Nvidia vorgelegt hätte?
Wäre schon komischer Zufall dass bei RT, DLSS und FG immer 1-2 Jahre später AMD was Vergleichbares bietet.

Also bei aller Liebe zu Open Source aber bleibt schon offen ob es überhaupt gekommen wäre ohne die "propiertäre" Lösung davor.
Also ist dieses "Schulterklopfen" für einen Hersteller für mich immer etwas fraglich. Ohne Zweifel gut für den Markt das es Optionen gibt und Alternativen. Aber man muss auch in Technikforum ehrlich sein dass häufig Hardwarebeschleunigung (somit Propiertär) oft besser ist als die Softwarelösung. Früher hat eher AMD mit DX12 Features wie Async Compute vorgelegt wo Nvidia dann z.B. bei Maxwell mit Softwarelösung kam die gar die Karten langsamer machte.

Mir persönlich ist der Hersteller egal und ich mag auch meine Konsolen mit AMD APU. Nur was AMD braucht ist eher wieder Vorreiter zu sein und nicht Mitläufer der 1-2 Jahre später das Gleiche bringt.
Bringt aller Zuspruch zu Open Source nichts was nur dazu führt dass Leute mit grünen Karte beides Nutzen können wenn man nicht aktiv die Entwickler dann mit Kohle umstimmt.
NV war bei Upscaling nicht die erste Firma, das stimmt nicht. Das wurde von Spieleentwicklern schon vorher genutzt. NV hat eine Exklusiv NV-Technik draus gemacht, das stimmt. RT ist auch keine NV-Entwicklung, sie haben passende Hardware dazu entwickelt. FG wird doch auch schon seit Jahren genutzt, Hollywood etc lässt grüßen. NV hat Source aufgegriffen und eigene Techniken dazu entwickelt. AMD hinkt beim Konter der exklusiven Techniken etwas hinterher, das stimmt. AMD hat aber mehr Techniken auf den Markt gebracht, die meisten open Source, deswegen redet da keiner drüber ;).
 
Zuletzt bearbeitet:
Ich bin ganz froh über solche Mitteilungen. Diese zeigt, wie schmierig AMD ist und so gesellt es sich eben 1:1 zu Nvidia. Keine riesige Überraschung, aber dass man jetzt sich als hohes Tier von AMD noch so anstellt und gezielt schwammigen Bullshit labert, welche durchaus entgegen dem sonst propagiertem Image von AMD kämpft, ist lesenswert.

Okay, die Begründung von AMD ist fadenscheinig! Der Entwickler befindet sich in der Zwickmühle, wenn er neben FSR 2 auch DLSS 2 in das Spiel intergiert, wohl wissend, dass letzteres die bessere Bildqualität bietet, die Auflage von AMD aber lautet, FSR in der Vordergrund zu rücken.

Mit der Veröffentlichung von FSR 3 ergibt sich dadurch aber ein Schlupfloch. Der Entwickler integriert FSR 3 und DLSS 2 und kann AMDs Vorgaben bezüglich des Versionsunterschiedes Folge leisten.
 
@PCTom

Gleiche kannst zu VR Brillen auch sagen. Gab es Früher schon. Trotzdem brauchte es Jemanden der es in der jetzigen Zeit wieder pusht und für den Markt relevant macht und auch Technik dahinter verbessert.

Da habe ich meine Zweifel ob AMD so schnell hinter RT, Upscaling und FG hinterher wäre wenn es nicht die Konkurrenz vorgemacht hätte. Wäre sicher nicht durch paar Entwickler passiert wie TAAU nutzen oder Checkerboard Rendering.

Das Ganze hat vermutlich sehr wohl Zusammenhang weil grüne Konkurrenz es halt mit großem Marketing für viele Projekte ins Spiel gebracht hat.

Wie gesagt sehe ich nicht wo AMD groß vorlegt und auch Eigenentwicklungen passend vermarktet. Letzten technischen Versuche die mir ihm Kopf hängen geblieben sind waren HBCC und Rapid Packed Math. Letzteres hat man glaube ich nur in Far Cry 5 gesehen und wurde dann wieder fallen gelassen.
 
Tja seht es einmal so wenn es AMD nicht gäbe , dann würdets ihr jetzt 3000 Euro für eine Graffikkarte ausgeben.
Also net aufregen wenn mal eine propietäre Schnittstelle mal net funktioniert.
Falsch. NVIDIA kann die Preise (z.B. für eine 4090) deshalb verlangen, weil AMDs Produkte nicht konkurrenzfähig sind (wie die 7900XTX vs 4090), ganz einfach. Oder glaubt hier noch irgendjemand, AMD wollte mit XTX von Anfang an nur Zweiter werden? Und glaubt hier jemand, dass die Produktionskosten für eine 4090 soviel höher ausfallen, als die von einer XTX? NVIDIA macht pro Karte halt viel mehr Gewinn und AMD MUSS über den Preis kommen, denn eine andere Chance haben die nicht! Man muss sich eigentlich nur die weltweiten Grafikkartenverkäufe und Marktanteile anschauen, dann sieht man schnell, dass nicht mal der günstigere Preis für AMD ausreicht, ganz einfach! Somit: Wäre AMD konkurrenzfähig, DANN würden auch die Preise von NVIDIA nicht so hoch ausfallen! Das ist ja das Problem! Da hilft auch kein Fanboy-Geblubber hier im Forum. Einfach mal Zahlen vergleichen (und zwar nicht nur von einem ausgesuchten Händler, sondern insgesamt) und dann weiß man, warum AMD bei der nächsten Gen die Spitze gar nicht mehr bedienen wird. Ist halt leider die Wahrheit. Deshalb kann NVIDIA auch Mondpreise verlangen und kann es sich sogar leisten den Consumer-Markt womöglich komplett zu vernachlässigen, da sie mit Business noch mal erheblich mehr verdienen.
Zum Thema Azor? Ist das nicht der, der sich sonst immer über Probleme der Konkurrenz lustig macht? AMD kann man nur raten, solche lächerlichen Figuren rauszuwerfen und sich mehr Macher an Bord zu holen, statt Schwätzer…

Der kann gerne dann mit seiner Verwandtschaft Pinocchio und Wladimir P. eine Firma aufmachen und Leuten wie in diesem Artikel solchen Blödsinn erzählen. Bei Pinocchio sieht man es wenigstens an der Nase, bei den beiden anderen…..Tja…
 
Zuletzt bearbeitet:
Fsr ist der größte mist. Muss es also nativ zocken
Falsch. NVIDIA kann die Preise (z.B. für eine 4090) deshalb verlangen, weil AMDs Produkte nicht konkurrenzfähig sind (wie die 7900XTX vs 4090), ganz einfach. Oder glaubt hier noch irgendjemand, AMD wollte mit XTX von Anfang an nur Zweiter werden? Und glaubt hier jemand, dass die Produktionskosten für eine 4090 soviel höher ausfallen, als die von einer XTX? NVIDIA macht pro Karte halt viel mehr Gewinn und AMD MUSS über den Preis kommen, denn eine andere Chance haben die nicht! Man muss sich eigentlich nur die weltweiten Grafikkartenverkäufe und Marktanteile anschauen, dann sieht man schnell, dass nicht mal der günstigere Preis für AMD ausreicht, ganz einfach! Somit: Wäre AMD konkurrenzfähig, DANN würden auch die Preise von NVIDIA nicht so hoch ausfallen! Das ist ja das Problem! Da hilft auch kein Fanboy-Geblubber hier im Forum. Einfach mal Zahlen vergleichen (und zwar nicht nur von einem ausgesuchten Händler, sondern insgesamt) und dann weiß man, warum AMD bei der nächsten Gen die Spitze gar nicht mehr bedienen wird. Ist halt leider die Wahrheit. Deshalb kann NVIDIA auch Mondpreise verlangen und kann es sich sogar leisten den Consumer-Markt womöglich komplett zu vernachlässigen, da sie mit Business noch mal erheblich mehr verdienen.
Zum Thema Azor? Ist das nicht der, der sich sonst immer über Probleme der Konkurrenz lustig macht? AMD kann man nur raten, solche lächerlichen Figuren rauszuwerfen und sich mehr Macher an Bord zu holen, statt Schwätzer…

Der kann gerne dann mit seiner Verwandtschaft Pinocchio und Wladimir P. eine Firma aufmachen und Leuten wie in diesem Artikel solchen Blödsinn erzählen. Bei Pinocchio sieht man es wenigstens an der Nase, bei den beiden anderen…..Tja…
Das und amd hat ja nichtmal einen 4080 konter. Bei rt und dlss sind sie mindestens eine generation hinten
 
Oder glaubt hier noch irgendjemand, AMD wollte mit XTX von Anfang an nur Zweiter werden? Und glaubt hier jemand, dass die Produktionskosten für eine 4090 soviel höher ausfallen, als die von einer XTX?
Die RX 7900 XTX hat 531mm² große Dice und 61.44 TFLOPS FP32.
Die RTX 4090 hat einen 608.5mm² großen Die und 73.07 TFLOPS FP32.

Die RX 7900 XTX hat einen Graphics Compute Die (~300mm²) und sechs Memory Compute Dice (je ~37mm²).
Da die Defektrate im Verhältnis zur Die-Größe exponentiell steigt, sind große Dice sehr viel teurer als ganz kleine.
Ich denke jeder kann sich vorstellen, wenn der GCD um 20% größer wäre, dann hätte AMD (zumindest im Rasterizing) sicherlich auch an die RTX4090 rankommen können und trotzdem wären die Fertigungskosten geringer.
AMD hat sich hier offensichtlich bewusst dafür entschieden, das nicht zu tun.

Übrigens: Riesige Chips, die Millionen gekostet haben, wurden schon häufiger produziert. Das einzige, was hier eine Grenze setzt, ist die Zahlungsbereitschaft der Kunden. Jeder GPU hersteller könnte nahezu unendlich viel Leistung liefern, wenn die Zahlungsbereitschaft unendlich wäre. Anscheinend ist AMD aber der Auffassung gewesen, dass 1.500+€ wie bei der 4090 nicht besonders marktfähig sind.

Edit: Tatsächlich kann AMD sogar die modulare Bauweise theoretisch voll ausnutzen. Nehmen wir nur mal an, der GCD wäre so maximal groß, wie es sich nur am Endkundenmarkt lohnt. Das dürfte 500-600mm² sein. Dann könnte AMD sogar Karten bauen, die deutlich schneller sind, als die von NV, und NV könnte gar nicht kontern, weil sie das mit ihrem monolithischen Design in der Größe gar nicht produzieren können. Dann stünde da allerdings evtl. auch ein Preis von 1.500€.
 
Zuletzt bearbeitet:
Kann mir kein Mensch erzählen, dass man bei einem Monsterprojekt wie Starfield seitens der Entwickler nicht auf die Idee gekommen wäre den minimalen Aufwand zu betreiben DLSS zu implementieren. Gerade da Starfield recht CPU-lastig sein soll, wäre Frame Generation ja Gold wert gewesen.
 
(...). Bei AMD sind das Anti-Lag und HYPR-FX. Also nicht auf Rx 6000 Karten, Nvidia sowie Intel Karten und natürlich auch nicht auf den Konsolen. Der Grund hierfür liegt einfach darin, das gewisse spezielle Recheneinheiten für solche Aufgaben benötigt werden, diese haben Konsolen und ältere GPUs einfach nicht. Es läuft also NICHT auf jeder GPU einwandfrei.

(...)
Ganz kurz dazu: Antilag gibt's schon lange und läuft auf fast allen AMD Karten.
Neu und nur für die 7000er Reihe ist Antilag+.
Das angehängte "+" ist so wichtig wie es leicht zu übersehen ist.
Ob FSR3 Antilag ausreicht oder Antilag+ obligatorisch wird weiss man natürlich noch nicht.
Wäre letzteres der Fall, hätte man sich die Unterstützung von FSR3 auf älteren Karten aber auch sparen können, deshalb nehme ich es nicht an (Achtung, Spekulatius).
 
Noch! DLSS 3.5 soll besser aussehen als nativ.
Naja, wir werden sehen, wie es tatsächlich sein wird.
Besser als das Ausgansmaterial? Bei dem Gedanken beisst sich der Hund selber in den Schwanz. DLSS ist keine Bildverbesserung wo das Ausgangsmaterial hochgerechnet wird. Das würde bedeuten du verlierst FPS. FG kann Fake-Bilder mit der selben Qualität hinzufügen, ist aber auch nur bedingt einsetzbar.
 
Besser als das Ausgansmaterial? Bei dem Gedanken beisst sich der Hund selber in den Schwanz. DLSS ist keine Bildverbesserung wo das Ausgangsmaterial hochgerechnet wird. Das würde bedeuten du verlierst FPS. FG kann Fake-Bilder mit der selben Qualität hinzufügen, ist aber auch nur bedingt einsetzbar.

Er redet nicht von FG sondern von DLSS 3.5, also Ray Construction. Und ja, es sieht deutlich besser aus als nativ, siehe Pfützen in Cyberpunk. Es gibt ja bereits Videos dazu.
 
Er redet nicht von FG sondern von DLSS 3.5, also Ray Construction. Und ja, es sieht deutlich besser aus als nativ, siehe Pfützen in Cyberpunk. Es gibt ja bereits Videos dazu.
Ich glaube da wurde das Video falsch interpretiert. Standard Grafik heißt Standard Settings, weil es ohne DLSS für nicht mehr reicht. Mit DLSS kann man High Quality Settings fahren und hat genug Frame. Die Renderbilder von den Sesseln lassen mich schmunzeln. Heißt aber nicht das Nativ mit Ultra Settings schlechter ist wie mit DLSS, nur können es die wenigsten Karten bei Cyberpunk.

Wenn NV allerdings mit DLSS die Auflösung ungerechnet aber die Pfützen hoch weils (wtf Pfützen mal wieder) dann bekomme ich einen Lachflash.
Das war ein Werbevideo, das sollte Jedem klar sein.
 
Zurück