News Starfield: AMDs Gaming-Chef gibt an, Nvidias DLSS nicht zu blockieren, aber Geld fließt trotzdem

Open Source führt zu besserer Code Qualität
Nein Entwicklererfahrung und Wissen führen zu einer besseren Codequalität.
Es gibt genug Open Source Software die genau so Schrott ist.

höherer Sicherheit, längerem Support
Jap.

mehr Innovation und breiterem Wissen über die Technologie.
Nein. Die Innovationen kamen zuletzt von Nvidia und nicht von AMD. OS sagt darüber nichts aus.
Häufig ist die OS Software sogar schlechter (GIMP vs Photoshop, Blender vs Houdini/Maya etc., wobei Blender aktuell recht steil geht dank finanziellen Support und nicht wegen OS).

Außerdem war die Frage, was ihm das als Endanwender bringt und nicht, was es generell bringt.
Gab es da mehrere? Mir war so, als wäre der ganze Stein durch wccftech (der Artikel hier) in Rollen gebracht worden, von Hardware Unboxed aufgegriffen worden und so dann durch die Szene gerollt.
Ja gab es und die war, wie gesagt auch nicht willkürlich. Es ging speziell um Sponsored Bundle Games. Also Spiele, welche im Bundle mit der Hardware zu bekommen waren und da war es nun mal so, dass die AMD Spiele kein DLSS boten. Nur Sonys Spiele waren hier die Ausnahme.

Konkurrenztechnik ausschließen kann ich unterschreiben, allerdings müsste dafür Starfield von Anfang an als großes Kooperationsprojekt zwischen den beiden Firmen gestartet und gelaufen sein mit entsprechender Technologiehoheit seitens AMD.
Es reicht, wenn dort Geld durch die eine Partei floß und das war ja der Fall.

Und das hätte wiederum doch größere Auswirkungen auf die Übernahme von Bethesda seitens Microsoft gehabt.
Für mich sieht es nach einem klassischen Marketingpartnerschaftsdeal aus, sprich es gibt Ansprechpartner auf beiden Seiten für diverse Belange, NDAs für Partneringenieure die evtl. über diese Ansprechkanäle bei der Integration von Rendermodulen unterstützen und vielleicht ein bisschen Leihhardware mit ungenauer Rückgabesituation.
Das weiß man nicht und ist nur Spekulation. Hätte, könnte, würde.

Warten wir mal ab, wie das Spiel wird. Leider liegt das bei mir hinter einem so großen Backlog, das wird es wohl erst kurz vor TES6 auf meinen Rechner schaffen. Hoffentlich kommt bis dahin noch eine VR Version nachgeliefert, nach SkyrimVR wäre das eine schöne Sache.
Es wäre ja zumindest schön gewesen, wenn es FSR3 bekommen würde, aber nicht mal das ist aktuell der Fall.
Ich bin persönlich einfach auf FG scharf und hätte es mir dort gewünscht.
 
Zuletzt bearbeitet:
Die RX 7900 XTX hat 531mm² große Dice und 61.44 TFLOPS FP32.
Die RTX 4090 hat einen 608.5mm² großen Die und 73.07 TFLOPS FP32.

Die RX 7900 XTX hat einen Graphics Compute Die (~300mm²) und sechs Memory Compute Dice (je ~37mm²).
Da die Defektrate im Verhältnis zur Die-Größe exponentiell steigt, sind große Dice sehr viel teurer als ganz kleine.
Ich denke jeder kann sich vorstellen, wenn der GCD um 20% größer wäre, dann hätte AMD (zumindest im Rasterizing) sicherlich auch an die RTX4090 rankommen können und trotzdem wären die Fertigungskosten geringer.
AMD hat sich hier offensichtlich bewusst dafür entschieden, das nicht zu tun.

Übrigens: Riesige Chips, die Millionen gekostet haben, wurden schon häufiger produziert. Das einzige, was hier eine Grenze setzt, ist die Zahlungsbereitschaft der Kunden. Jeder GPU hersteller könnte nahezu unendlich viel Leistung liefern, wenn die Zahlungsbereitschaft unendlich wäre. Anscheinend ist AMD aber der Auffassung gewesen, dass 1.500+€ wie bei der 4090 nicht besonders marktfähig sind.

Edit: Tatsächlich kann AMD sogar die modulare Bauweise theoretisch voll ausnutzen. Nehmen wir nur mal an, der GCD wäre so maximal groß, wie es sich nur am Endkundenmarkt lohnt. Das dürfte 500-600mm² sein. Dann könnte AMD sogar Karten bauen, die deutlich schneller sind, als die von NV, und NV könnte gar nicht kontern, weil sie das mit ihrem monolithischen Design in der Größe gar nicht produzieren können. Dann stünde da allerdings evtl. auch ein Preis von 1.500€.
Achso, wusste ich ja alles gar nicht… Sag mal, was willst Du denn erzählen? Der Grund ist nicht der Preis, warum AMD keine konkurrenzfähige Karte produziert hat, sondern der Fakt, dass die jetzige XTX jetzt schon das Powerlimit bis an die Grenze ausgereizt hat! Das Bla-Bla mit „Wir hätten schon gekonnt, wollten aber nicht“ ist genau das, was von Leuten wie Azor, Pinocchio und Wladimir P. propagiert wird. Und Du schwingst da voll mit rein, oder was? Glaubst Du wirklich AMD hätte nicht gerne die Marge von NVIDIA gehabt und Geld gescheffelt, wenn sie gekonnt hätten? Was für ein Stuss, wirklich! Nochmal, der Grund ist ganz einfach: Eine sogenannte, konkurrenzfähige Karte von AMD mit der Leistung einer 4090 hätte wahrscheinlich 800W verbraucht und das real, nicht nur als gesetztes Powerlimit! Eine 4090 verbraucht real um die 300-400W! Das Powerlimit von 600W ist eigentlich völlig unnötig, ausser man will unbedingt 1% mehr Leistung, als mit 400W! Eine XTX benötigt real jetzt schon wesentlich mehr Strom, als eine 4090 bei viel weniger Leistung! Was glaubst Du, wer diese sogenannte Konkurrenz-Karte gekauft hätte, wenn sie die gleiche Leistung einer 4090 gehabt hätte - aber mindestens das Doppelte real an Strom verbraucht hätte - bei ähnlichem Preis? Von der Kühlungsproblematik sprechen wir lieber nicht! Somit: AMD ist einfach nicht konkurrenzfähig gewesen, Punkt! Denk mal darüber nach, bevor Du irgendwelchen Schwätzern und Pinocchios nachsprichst!
 
OK wo ist das Problem, nativ hat immer noch die beste Qualität.
Nein hat sie nicht, weil es reines nativ in aktuellen AAA Titeln nicht gibt. Nativ bedeutet idR. bei Spielen wie Stray oder Cyberpunk TAA und DLSS/FSR sind TAA immer überlegen.

Die RX 7900 XTX hat einen Graphics Compute Die (~300mm²) und sechs Memory Compute Dice (je ~37mm²).
Da die Defektrate im Verhältnis zur Die-Größe exponentiell steigt, sind große Dice sehr viel teurer als ganz kleine.
Ich denke jeder kann sich vorstellen, wenn der GCD um 20% größer wäre, dann hätte AMD (zumindest im Rasterizing) sicherlich auch an die RTX4090 rankommen können und trotzdem wären die Fertigungskosten geringer.
AMD hat sich hier offensichtlich bewusst dafür entschieden, das nicht zu tun.
Weil das reine aufblasen nichts bringt, das hatten wir doch schon. Unendliche viele Shader draufzuknallen bringt nicht unendlich mehr Leistung.

Besser als das Ausgansmaterial? Bei dem Gedanken beisst sich der Hund selber in den Schwanz. DLSS ist keine Bildverbesserung wo das Ausgangsmaterial hochgerechnet wird.
Falsch. Du hast absolut keine Ahnung, wovon du redest.
DLSS arbeitet mit mehreren Samples, also mehrere Bildern. Wenn DLSS auf 4 Samples zurückgreift, hat man eine höhere Pixelmenge als nativ (4xQHD > 1x4K). Außerdem hast du nicht in jedem Sample die gleichen Infos, sondern sie variieren durch die Bewegung. Theoretisch kann das DLSS Bild sogar detailreicher sein und ist es oft auch.
 
Zuletzt bearbeitet:
Warum kommt AMD jetzt erst damit? Das hätten die schon vor Wochen klarstellen können und müssen. Das wirkt ehrlich gesagt sehr komisch.
Ich mein es ist durchaus plausibel das Studios auf DLSS verzichten wenn AMD aktiv für die Implementierung von FSR zahlt. Man kriegt es quasi "kostenlos" und spart sich beim weglassen von DLSS die Kosten für QA etc. Das man erst schweigt und nun kurz vorm Launch bei dem ein AMD supported Titel möglicherweise ohne DLSS kommt das raushaut wirkt wie Schadenbegrenzung. Finde ich ziemlich schwach.
Die Integration dauert vielleicht einen halben Tag wenn schon FSR2/DLSS implementiert ist, wurde schon von mehreren Entwicklern bestätigt. QA ist für diesen Punkt bei diesem riesen Projekt einfach ein Witz, scheint beim Kostendiagramm net mal auf so winzig.
Aber gut, wenns schon so auftragen das selbst AMD-Ings beim Code mitarbeiten erwarte ich mir eine erstklassige Integration von FSR
 
Nochmal, der Grund ist ganz einfach: Eine sogenannte, konkurrenzfähige Karte von AMD mit der Leistung einer 4090 hätte wahrscheinlich 800W verbraucht und das real, nicht nur als gesetztes Powerlimit!
Ne. Mit dem richtigen Takt nicht. Und mit einem 600mm²-GCD und sagen wir mal, doppelt so vielen Shadern wäre genug Leistung da gewesen, um sich trotz lahmen Taktes die Performance-Krone locker aufzusetzen, auch mit 400W, meiner Meinung nach. 300W für den GCD und 100W für den Rest. (Edit: zur Not hätte man noch einen Stecker dazugefügt.)
Vielleicht bringen dann irgendwann doppelt so viele Shader nur noch 40% mehr Leistung, aber selbst das hätte ja locker gereicht.
Weil das reine aufblasen nichts bringt, das hatten wir doch schon. Unendliche viele Shader draufzuknallen bringt nicht unendlich mehr Leistung.
Siehe oben.
 
Zuletzt bearbeitet:
Und dafür haben die jetzt 2 Monate gebraucht, nur um zu erklären, dass der Entwickler auch DLSS unterstützen darf, wenn er damit an AMD herantritt, es aber angeblich nicht priorisieren soll, bzw. das von AMD erwartet wird, ja was denn nun? DLSS wurde also deshalb aus Titeln herausgepatched?
Dieses absurde Statement ist für mich der absolute Gipfel der Scheinheiligkeit.
Klar warum Azor nervös ist. Er versucht sich um die Tatsache, dass AMD hier vertragliche Absprachen mit diversen Inhalten mit den Entwicklern getroffen hat zu drücken und weder wirklich zu dementieren noch zu bestätigen, es für die Presse aber als Dementi aussehen zu lassen. Für mich kein klares Dementi.

Sie verhindern es nicht, aber wahrscheinlich erhalten die Produzenten mehr Support oder Geld, wenn es nicht dabei ist, so könnte man dieses Geschwafel von Azor deuten.
Haben sich wahrscheinlich Rechtsbeistand geholt. Möglich ist natürlich auch, dass AMD ihre Verträge etwas entschärft hat, nachdem der Shitstorm ungemütlich wurde, aber das hätten sie auch einfach mitteilen können.

AMD sagt auch noch, dass sie es dem Entwickler nicht zumuten darauf zu antworten, weil das zu heiß sei. Hahaha. WTF?! Noch nie so einen Haufen Schrott gelesen und die nervige AMD Clique hier im Forum die Scheiße zu Gold macht, verteidigt es immer noch. Schmierig, ekelerregend, wie schon Nvidias GPP. Hoffentlich werden irgendwo Verträge geleaked, damit das dem schmierigen Typen Azor, der total nervös gewesen sein soll, auf die Füße fällt.

Hört doch einfach auf wegen dieser upscaling shice Spiele kaputtzuschreiben...
Hör doch endlich auf anderen diese Techniken madig zu reden, nur weil du sie nicht verstehst. Alle Upscalingtechnikrn gehören in die Spiele. Basta!

This! Ich fand diese Vorwürfe waren lachhafte Verschwörungstheorien. Völlig an der Realität vorbei.
Wenn du ein wenig deine Fanboybrille abnehmen würdest, dann würdest du die Fakten etwas klarer sehen.
Bei AMDs kafkaesken Statements und non- Statements ist nun zu 99% sicher, dass es so gelaufen ist, bzw. weiterhin läuft, andernfalls würde ein klares Stement kein Problem darstellen und AMD würde auch den Entwicklern keinen Maulkorb verpassen.
 
Zuletzt bearbeitet:
Ne. Mit dem richtigen Takt nicht. Und mit einem 600mm²-GCD und sagen wir mal, doppelt so vielen Shadern wäre genug Leistung da gewesen, um sich trotz lahmen Taktes die Performance-Krone locker aufzusetzen, auch mit 400W, meiner Meinung nach. 300W für den GCD und 100W für den Rest. (Edit: zur Not hätte man noch einen Stecker dazugefügt.)
Vielleicht bringen dann irgendwann doppelt so viele Shader nur noch 40% mehr Leistung, aber selbst das hätte ja locker gereicht.

Siehe oben.
Sag mal, das meinst Du jetzt nicht ernst, oder? Die jetzige XTX nutzt ihr Powerlimit komplett aus, nutzt den maximal verfügbaren Takt und hat dabei nicht annähernd die Leistung der 4090! Verstehst Du, oder? Eine Konkurrenzkarte von AMD mit der Technik der aktuellen Gen und 4090-Leistung würde wesentlich mehr Strom verbrauchen, und nicht weniger als die XTX! Denn sonst würde die XTX jetzt schon wesentlich weniger Strom verbrauchen, als eine 4090! Das ist AMDs Stand der Entwicklung/ Konzeption in dieser Gen! Die Effizienz ist wesentlich schlechter, als bei NVIDIA! Du träumst von Chips, die es bei AMD gar nicht gibt und wahrscheinlich nie geben wird, weil sie mit der nächsten Gen den High-End-Markt wahrscheinlich gar nicht mehr bedienen! Deshalb sag ich ja - Schwätzer statt Macher! Wenn Du das nicht begreifen willst, Ok, dann kann Dir niemand helfen! Sorry, bin jetzt hier raus - träum schön weiter von nicht existenten Produkten von AMD. Und wenn ich mit Flügeln und Raketenantrieb geboren worden wäre, dann wäre ich auf 100m immer noch Weltrekordhalter, auch wenn ich gar nichts mehr essen würde und wäre immer noch schneller als jeder andere, richtig? Hm, warum hab ich denn eigentlich keine Flügel und Raketenantrieb….? Eigentlich schade, denn dann könnte ich solchen Diskussionen entfliehen….
 
Das sagt Nvidia schon seit DLSS 1...
DLSS sieht schon lange besser aus als Nativ, mittlerweile seit knapp 3 Jahren.
Oder es ist wie ich schon behauptete so das man erst ne Tonne Anwälte drüber gucken lassen hat und prüfen lassen hat woher diese unrechtmäßige Anschuldigung kommt.
Das ist ja jetzt ein ganz neuer Spin. Es geht um die Anschuldigung und herauszufinden wer diese äußerte, warum das so lange dauert, nicht um die fehlende Stellungnahme und deren rechtliche Absicherung? Hat AMD schon gegen Unbekannt wegen Verleumdung Anzeige erstellt? Muhahaha.
Das letzte was so ein großes Unternehmen machen wird, auch Nvidia nicht, ist eine unüberlegte Stellungnahme rauszuhauen.
Deswegen hat die Stellungnahme von Nvidia einen Tag gedauert und die von AMD 2 Monate und immer noch ist unklar was Azor da genau meint.
Das ganze benötigt seine Zeit!
Das ist völliger Bullshit und das weißt du!
Das benötigt nur dann Zeit, wenn die Anschuldigungen zum Teil oder völlig zutreffend sind, deshalb schwieg AMD.
Man will das was da an Gerüchten hochgekommen ist auch nicht unnötig aufheizen....
Man hat es doch durch die fehlende Stellungnahme aufgeheizt, hast du das nicht mitbekommen?
weil nur weil man sich vielleicht nicht 100% akkurat ausgedrückt hat.
Du verkehrst einfach alles ins Gegenteil und lügst damit auch.
Selbst wenn man ein Statement gibt wird man ja sogar der Unwahrheit bezichtigt.
????
FSR is all you need.
Jeder weiß, das das Quatsch ist.Lass doch den Driss mal!
 
Zuletzt bearbeitet:
Vielleicht hat Bethesda sich auch einfach nicht getraut nachzufragen, ob sie auch DLSS anbieten dürfen weil AMD sie ja sponsort und AMD hat sie natürlich auch nicht darauf hingewiesen ;) Nur so ne Idee :D
 
OK wo ist das Problem, nativ hat immer noch die beste Qualität.
Das ist ja nichtmal zwingend der Fall. Es kommt natürlich immer drauf an auf was man wert legt, aber mich stören und störten schon immer in spielen flimmernde Dinge im Hintergrund, typische Sachen wie Maschendrahtzaun oder Seile die über einen weg gespannt sind, bzw sehr dichtes laubwerk weit entfernt. Wenn du mal nativ vs dlss und auch FSR vergleichst, dann ist es bei FSR z.b. besser als nativ und bei DLSS teilweiße sogar gänzlich weg. Also für mich ist - je nach Spiel - DLSS, nativ definitiv überlegen. FSR allerdings in keinem Fall - ausser der fps natürlich.

Techniken wie DLSS und FSR sind die Zukunft, nativ wird immer weniger relvant werden da geb ich dir Brief und Siegel drauf. Bei DLSS siehst du schon jetzt 80% der Zeit garnicht das es überhaupt an ist, 10% der zeit eine verschlechterung gegenüber nativ, 9% der zeit eine verbesserung gegenüber nativ und 1% der Zeit irgendwelche bugs. So im Kern ist meine Erfahrung damit. Das dauert keine 5 Jahre mehr und die Technik ist auf einem Niveau da haste damit kaum noch Probleme und vermutlich wirklich durchweg ein besseres Erlebniss, oder man macht eine mischung aus verschiedenen Layern, also quasi adaptiv-dlss/fsr wenn du so willst. Wird alles kommen, kein arsch wird sich mehr für nativ interessieren. Das einzige was sich vll nicht nachhaltig durchsetzt ist die Frame generation, das input lag problem ist eigentlich nicht zulösen und wie sich zeigt stehen die Leute doch eher auf responsives gameplay als auf bessere Optik. Es hat aber durchaus seine daseinsberechtigung, aus meiner sicht aber nicht wirklich zum verdoppelen der frames sondern zum verdoppelen der qualität. Also wenn ich etwas darstellen will das normalerweiße nicht laufen würde, könnte es mit der Technik laufen, das ist natúrlich nicht in jedem Spiel dann letztlich sinnvoll.

Umso relevanter ist das was da jetzt letzlich passiert, was sich da wo durchsetzt und wie dieses Ziel erreicht wird. Wäre ja dann auch nicht das erste mal das die bessere Technik verschwindet und sich die schlechtere z.b. durchsetzt weil das Marketing besser ist. Wenn ich eines an den Beiträgen hier sehe das doch sehr viele Leute einfach das was der Marketingheini da erzählt für echt halten. Wie meinem anderen Beitrag zu entnehmen ist halte ich von dem Typen so garnichts und glaube ernsthaft wir werden da verarscht. Wer noch an der Marketing Titte von irgendeinem unternehmen hängt ohne mindestens 3x zu hinterfragen was die dir eigentlich erzählen (das vermisse ich in dem Artikel übrigens gänzlich - das wirklich kritische Hinterfragen und das ziehen voreiliger schlüsse ist eben genau das was Journalismus nicht sollte - und da ist vollkommen egal um welche Firma es hier geht - das ist wirklich schlecht für uns Konsummenten wenn ihr euch als konsummenten auf eine Seite ziehen lasst oder sowas nicht hinterfragt.
Weil sie das Statement von gestern vor zwei Monaten noch nicht bringen konnten? ;) Wenn man vertragliche Details im Nachhinein noch anpasst, kann man sich natürlich irgendwann auch hinstellen und etwas behaupten, was Anfangs noch gelogen gewesen wäre.

Das hatte Steve von GN damals schon vermutet, nachdem AMD mit "kein Kommentar" dazu um die Ecke kam - dass sie sich am Ende mit einem Statement der Marke "sehr ihr, wir blockieren nichts aktiv" hinstellen. Aber erst, nachdem man in der Zwischenzeit aufgrund des Shitstorm ein bisschen die Vereinbarung mit Bethesda modifiziert hat. ;)

Es gibt halt keinen logischen, sonstigen Grund, warum sie das von gestern nicht schon damals klar geäußert haben. Man hätte einen Shitstorm vermieden und die Wogen geglättet. Das macht kein Unternehmen freiwillig, wenn es sowas im Keim ersticken kann (bzw. darf...).
Eben genau das.

Save wurde aus "DLSS darf nicht unterstützt werden" - "FSR ist zeitexklusiv" oder ähnliches. Also FSR zeitexklusiv = DLSS nicht untersagt - kommt nur später und Marketing kann erzählen "Wir verbieten nichts".

Es ist halt so offensichtlich das sowas die richtung da passiert ist.
 
Zuletzt bearbeitet:
Ne. Mit dem richtigen Takt nicht. Und mit einem 600mm²-GCD und sagen wir mal, doppelt so vielen Shadern wäre genug Leistung da gewesen, um sich trotz lahmen Taktes die Performance-Krone locker aufzusetzen, auch mit 400W, meiner Meinung nach. 300W für den GCD und 100W für den Rest. (Edit: zur Not hätte man noch einen Stecker dazugefügt.)
Vielleicht bringen dann irgendwann doppelt so viele Shader nur noch 40% mehr Leistung, aber selbst das hätte ja locker gereicht.
Hätte, wäre, wenn und sollte. IST aber nicht:P Irgendwann is auch mal gut, oder?

Guß
 
Es ist kein Quatsch. FSR mag qualitativ nicht die beste Option sein, aber sie läuft auf den meisten Karten und den Konsolen.
Spielt garkeine Rolle wo das überall läuft und wo nicht. Es gibt schlichtweg keinen legitimen Grund für ein Triple A Studio nicht sämtliche Optionen auszuschöpfen. Das einzige Argument was da immer kommt ist "ja aber kostet Geld" - ja es kostet Geld seine Kunden nicht anzupissen, welch überraschung, das ganze Drama die letzten Wochen hat die mehr gekostet als DLSS zu implimentieren, aber halt DLSS nicht zu implimentieren + von AMD kassieren scheint sich dann doch irgendwie zu lohnen. Nicht glauben das es hier irgendwie um die Spieler geht oder das möglichst viele Leute irgendwas davon haben - interessiert die einen scheiß - es interessiert nur ob die Aktie hoch oder runter geht.
 
Nein Entwicklererfahrung und Wissen führen zu einer besseren Codequalität.
Es gibt genug Open Source Software die genau so Schrott ist.

Nein. Die Innovationen kamen zuletzt von Nvidia und nicht von AMD. OS sagt darüber nichts aus.
Häufig ist die OS Software sogar schlechter (GIMP vs Photoshop, Blender vs Houdini/Maya etc., wobei Blender aktuell recht steil geht dank finanziellen Support und nicht wegen OS).

Außerdem war die Frage, was ihm das als Endanwender bringt und nicht, was es generell bringt.
codequalität:
„For example, Bonaccorsi and Rossi [2006] found that firms are motivated to be involved with FLOSS because it allows smaller firms to innovate, because “many eyes” assist them in software development, and because of the quality and reliability of FLOSS, with the ideological fight for free software at the bottom of the list.“
Fußnote 33 des Wikiartikels

innovantion:
„Wenn eine Firma eine Software benötigt und diese nicht Teil des Hauptproduktes ist, kann es sich für sie lohnen, nicht die fertige Software einzukaufen oder eine vollständige Eigenentwicklung zu starten, sondern sich an einem Open-Source-Projekt zu beteiligen und damit Innovationen schneller zu verbreiten.“
Ebenfalls durch Fußnote 33 des wikiartikels beschrieben

btw, Nvidia hat weder Deep learning, Raytracing, Nvsync, physics oder andere von ihnen proprietär genutzten Funktionen erfunden. dh sie bedienen sich frei verfügbarer entwicklungen, kommerzialisieren sie und pressen so viel Geld wie möglich raus.

wenn du nicht in der Lage bist, persönliche Vorteile für den Endanwender aus allgemeinen Vorteilen abzuleiten, dann ist das dein Problem.

aber gern kau ich’s dir vor:
  • Bessere Codequalität: weniger Bugs und effizientere Ausführung, beides resultierend in höherer Produktivität
  • Höhere Sicherheit: geringeres Risiko auf erfolgreiche Hackingangriffe, persönliche bzw. vertrauensvolle Daten sind besser geschützt
  • mehr Innovation: es werden schneller effizientere Wege gefunden um die Produktivität zu steigern.
du solltest auch nicht Äpfel mit Birnen vergleichen, Adobe ist ein milliardenschweres unternehmen, GIMP wird von einer kleinen Community gepflegt und entwickelt. Da ist ein Vergleich: Paint vs GIMP wohl angemessener.
 
Was wäre wenn die befürchtet hätten, das durch ein hinzufügen von DLSS die kein Geld von AMD kriegen?
Es ist sicherlich nicht so krass. Besonders, weil sich ja jeder daran halten muss, was vertraglich geregelt ist. Es ist wahrscheinlich ziemlich genau so, wie im Interview angegeben. AMD geht eine Partnerschaft ein, sagt vielleicht noch dazu, dass Sie hoffen, dass ihre Karten mit dem Produkt dann auch wirklich gut laufen und jeder weiß schon, wie er sich dann zu verhalten hat, weil er beim nächsten Mal wieder Partner sein möchte. DLSS ist und bleibt eine proprietäre Technologie, die von anderen Karten künstlich ferngehalten wird. Während FSR gerade dazu designed ist, dass es unabhängig von der Marke läuft.
Das man seine Partner nicht enttäuscht ist in der Industrie Gang und Gäbe und völlig logisch. Da muss man nichts verbieten oder extra aufschreiben (Jedenfalls nicht sowas).
 
Zurück