"Irgendwas mit DLSS"

Was wäre der Ausschluss von Konkurrenztechnologien sonst?

Ich weiß das es Dir aufgrund von absoluter Voreingenommenheit schwer fällt,
aber hier wird nichts "ausgeschlossen".

NVidia Karten laufen, Intel auch.
Das Verfahren DLSS ist proprietär, nicht Standard, d.h. wenn hier wer
ausschließt, dann ist das ganz klar NVidia, nicht AMD oder Bethesda.

Wenn Du was zu ausschließen und benachteiligen beitragen möchtest,
dann beantworte mal bitte, warum NVidia Vulkan/aka Mantle
boykottiert hat und wir (alle User, inkl. AMD, NVidia und Intel) heute noch
mit dem Direct X Overhead-Schrott leben müssen, statt Close-to-Metal-Controlling?

Ich sag Dir warum, weil dann einige marktmanipulierende Vorteile von Nvidia wegbrechen würden...

Informier Dich doch bitte einfach mal grundlegend über NVidia und Dev-Support, Benchmarkmanipulation,
Mantle Boykott usw., bevor Du so harte Anschuldigungen in Richtung AMD wirfst.

DLSS 3 läuft auch auf RTX Turing Karten.

Schön, proprietäre NVidia Systemumgebung läuft also auch auf NVidia-eigener Hardware, so so....

Ja, sehr wahrscheinlich, auch wenn die Devs etwas anderes behaupteten.
Grundsätzlich fällt es mir aber schwer ständig auf Verfehlungen anderer zu verweisen die Jahrzehnte zurückliegen um andere reinzuwaschen. Das funktioniert einfach nicht.

Du hast etwas nicht verstanden.
Der Fokus lag nicht auf "vor 20 Jahren hat NVidia das gemacht",
sondern auf: "vor 20 Jahren haben die damit angefangen und bis heute nicht aufgehört."

Du willst Dreck kehren?
Kehr vor der eigenen Haustür, liegt genug rum.

Siehe oben, habe ich bereits ausgeführt.

Wohl eher Ausflüchte, statt ausgeführt.
Liest sich wie ein Entschuldigungsschreiben von Eltern eines verzogenen Kindes.
 
Wieso? Soweit ich weiß, unterstützen die KI Einheiten durchaus auch offene Standards, oder?

Wir reden hier immer von "spezialisierten KI Einheiten", letzlendlich
Richtig.. die KI-einheiten von AMD unterstützten ihren eigenen offenen Standart..

Die von Intel und Nvidia nicht..
Und alles was nicht rx7000 ist hat diese KI Einheiten nicht
 
Ist das nicht offensichtlich? Ich besteche Unternehmen um Konkurrenztechnologien auszusperren und verschaffe mir damit einen Vorteil.
Genau das will mir nicht in den Kopf, welcher Vorteil soll das denn sein?
AMD wird doch nicht mehr GPU's verkaufen weil Starfield kein DLSS hat.
FSR läuft ja auch auf Nvidia.
Das einzige was sie dadurch meiner Meinung nach erreichen können , ist Nvidia den Stinkefinger zu zeigen.
Deswegen ist es mir auch unverständlich sollte es tatsächlich so sein mit dem "Deal"
 
Genau das will mir nicht in den Kopf, welcher Vorteil soll das denn sein?
Die Nvidia Nutzer haben keinen Zugriff auf das bessere DLSS oder Frame Generation womit AMD ihre Technik bewerben kann?
AMD wird doch nicht mehr GPU's verkaufen weil Starfield kein DLSS hat.
Wenn der Vorteil von DLSS in vielen Titeln durch AMD´s Support wegfällt, dann gibt es doch auch keinen Grund zu einer Nvidia GPU zu greifen.
Ich weiß das es Dir aufgrund von absoluter Voreingenommenheit schwer fällt,
aber hier wird nichts "ausgeschlossen".
Du vermischst um deine Argumentation zu stützen zwei verschiedene Sachverhalte miteinander.
Zum einen die freie Wahl der Upscalingtechnologien (FSR, XeSS, DLSS) und zum anderen geschlossene vs. offene Lösungsansätze.
Beides hat miteinander nichts zu tun, Microsoft wird ja auch als proprietäre Lösung von der Industrie akzeptiert. Schau dir an wie viele Gamingsysteme Linux haben.
Das Verfahren DLSS ist proprietär, nicht Standard, d.h. wenn hier wer
ausschließt, dann ist das ganz klar NVidia, nicht AMD oder Bethesda.
Bethesdas Spiel ist doch auch proprietär, das heißt, diese Entwicklung/Engine steht den Nutzern nicht als Source Code zur Verfügung.
...dann beantworte mal bitte, warum NVidia Vulkan/aka Mantle
boykottiert hat...
Weil Nvidia wusste, dass eine low level Schnittstelle von Microsoft entwickelt wird.
Ich sag Dir warum, weil dann einige marktmanipulierende Vorteile von Nvidia wegbrechen würden...
Ich habe das Gefühl, dass du zur Marktmanipulation nur Nvidia befähigt siehst und auch nur über Nvidia redest, obwohl es doch um AMD geht.:ka:
Schön, proprietäre NVidia Systemumgebung läuft also auch auf NVidia-eigener Hardware, so so....
Radeon Boost läuft doch auch nur auf AMD eigener Hardware.:ka:
Ob etwas open source oder herstellergebunden ist liegt hauptsächlich am Marktanteil, wie auch am geschaffenen Ökosystem.
"vor 20 Jahren haben die damit angefangen und bis heute nicht aufgehört."
Und das hält dich davon ab solche Dinge bei AMD zu kritisieren?:huh:
 
Zuletzt bearbeitet:
9 von 10 propritäre Standards und Manipulationen gehen nun einmal von Nvidia aus und du heulst wegen der 1 von 10 rum.
Eine proprietäre Entwicklung ist noch lange keine Behinderung der Konkurrenz, sondern einfacher Konkurrenzkampf. Entwicklungen der Konkurrenz werden nicht ausgeschlossen. Ansonsten gebe ich dir mal das 1x1 des Whataboutism weiter, vielleicht kannst du deinen in Zukunft noch verbessern?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Man kann AMD kritisieren, aber normalerweise fängt man beim größeren Übel an und dann geht es in die Detailarbeit.
Siehe oben.
Wie kommst du auf das schmale Brett?
Weil die DLSS3 Builds auch auf Turing laufen, nur ohne Frame Generation.
Der einzige Unterschied zwischen DLSS2 und 3 ist FG.
Nein, auch die Versionsnummer, bzw. die Qualität von DLSS.
 
Zuletzt bearbeitet:
Die Karte hat durch FG immerhin die Leistung einer 3090/6950XT, bei weniger als der Hälfte an Leistungsaufnahme.

Ach hat sie das? Sagt welcher Benchmark/welche Messung bisher genau aus?

Wohl kaum, mit nur 128 bit Speicherbandbreite und 8 PCI-E Lanes. Die gestiegenen Latenzen bei FG noch als "Dreingabe".

Da vermute ich eher, dass die 3090 oder 6950 XT nach wie vor nativ schneller sein könnten als die 4060 16 GB mit FG.

Zudem kostet z.B. die Asus-Variante mehr als eine 4070. Naja, u.a. hatte ja auch Asus nicht unbedingt Interesse, eine 4060 16 GB zu produzieren. Nvidia will ja auch keine Karten an Tester verschicken.

Was da wohl dahinter stecken könnte? :rollen:
 
Ach hat sie das? Sagt welcher Benchmark/welche Messung bisher genau aus?
Naja, die Karte bringt etwa 3070 bzw. RX 6800 Leistung und mit FG kommen ja dank den 16GB Speicher auch noch einiges drauf. :daumen:
Wohl kaum, mit nur 128 bit Speicherbandbreite und 8 PCI-E Lanes. Die gestiegenen Latenzen bei FG noch als "Dreingabe".
Die 8 PCIe Lanes werden durch die 16GB Speicher kaum mehr so stark limitieren wie bisher und die Latenzen sind dank Reflex auf einem guten Niveau. Meist besser wie auf deiner RX6800 mit FSR.
Zudem kostet z.B. die Asus-Variante mehr als eine 4070.
Das sehen wir dann, wenn die Karte verfügbar ist.
Ich tippe nach ein paar Wochen auf ca 450 Euro.
Die 4060Ti 8GB kannst du momentan für 389 bekommen.
Screenshot 2023-07-13 001045.png

wtf?! Warum hitzige Diskussionen dadurch? Das ist blanke, legitime AMD-Werbung!
Bei CB hat man noch einen Restverstand.
Das ist Irreführung von ahnungslosen Kunden. Die glauben dann es läuft auf 4K nur mit dem teuren Mainboard. Richtig schäbig.
 
Zuletzt bearbeitet:
Bei allem Hype um die 16GB der 4060Ti bitte net vergessen, das die Anbindung vom Vram an die GPU von Schmalhans designed wurde.(da helfen auch keine Reflexe, wenn die minFps=CacheTrefferquote dramatisch einbrechen)
Ne 4070 hat nen größeren Cache, ... wäre vermutlich in der Mehrzahl der Fälle mit besseren minFps und kann mit etwas mehr Bandbreite auch besser vom Vram in den Cache nachladen als ne komische 16GB-4060Ti.

Wenn ne 2080 schon reichen soll, wird wohl die Vram-Menge auch reichen.(8GB für FHD)
(ne 2080Ti vs. ne 4060Ti könnte interessant sein, ... spätestens ab WQHD+)
 
Zuletzt bearbeitet:
Wahrscheinlich geht auch Schmalhans mit 16GB mehr ab vorallem mit DLSS, daher hat man es ja rausgepatchen lassen bei Starfield. So tief ist selbst Jensen nicht gesunken, noch nicht.
 
Hinterm Mond gelebt ?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wäre auch nicht das erste Mal, bei Boundry wurde wie erwähnt nach abgeschlossener Sponsorship ebenfalls DLSS entfernt(UE4).
Achtung Redditcontent PureDark ! Suggeriert auch schon vorweg Support für DLSS,
was eigentlich nur bedeuten kann das eine Implimentierung vorgesehen war oder abseits eben von Lizenz Bestimmungen kinderleicht ist.

Logischerweise kann auch im Nachgang der Mod Support dieser Art von AMD und vorallem Microsoft bekämpft werden kann.
Wobei Microsoft(Bethesda) diesmal wohl nicht der Schuldige ist, meist kauft und besticht man ja fairerweise einfach alle :lol:.
 
Achtung Redditcontent PureDark ! Suggeriert auch schon vorweg Support für DLSS,
was eigentlich nur bedeuten kann das eine Implimentierung vorgesehen war oder
... nur reine Spekulation von Dir

= bedeutet ein Modder wollte dies inoffiziell tun
Ich kann Daraus net erkennen, inwiefern ein vorh.DLSS vom Studio wieder entfernt wurde.

Halt mal bitte in Zukunft den Ball flach, wenn Du keine offizielle Quelle beim Studio hast.

btw.
Die Redaktion sollte so einen Unfug auch net noch fördern mit scharfmacherischen Sätzen im Artikel.
Oder soll DAS die Klicks bringen?
 
Richtig.. die KI-einheiten von AMD unterstützten ihren eigenen offenen Standart..

Die von Intel und Nvidia nicht..
Und alles was nicht rx7000 ist hat diese KI Einheiten nicht
Ahh OK, ich dachte immer, dass grds. alle KI Einheiten auch den offenen Standard können und NV (von Intel hab ich ehrlicherweise nicht so richtig den Durchblick was GPUs angeht), nur zusätzlich noch eine eigene Befehlssatzerweiterung bietet?
 
Die gestiegenen Latenzen bei FG noch als "Dreingabe".
Ich verstehe dieses Latenz-mimimi nicht. Mit FG hat man idR. eine bessere Latenz als nativ. D.h. dass deine 6800 jetzt schon eine schlechtere Latenz hat, als eine vergleichbare Nv-Karte mit FG und Reflex. Nach deiner Argumentation dürftest du gar keine AMD Karte kaufen, wenn dir die Latenz so wichtig ist.
Aber komischerweise stört sie mit einer roten Karten im System nie.
 
Zuletzt bearbeitet:
Wenn Bedingung des Vertragswerks ist andere Technologien auszuschließen.
Achso, das ist also Bestechung! Respekt, du hast dich leider recht wenig mit Vertragsinhalten auseinandergesetzt, das ist absoluter Standard in Industrieverträgen. Beispiel gefällig? Wenn du Franchisenehmer bei BK bist, dann darfst du nur x% an Ware von außerhalb zukaufen und du darfst relativ sicher sein, dass dies so gering gewählt ist, dass du eigentlich nahezu nichts von außerhalb zukaufen darfst. Ich werde mal ein paar Franchisenehmer auf dich verweisen, denn wenn das Bestechung ist, dürfen die ihr BK Logo bald an die Tür hängen und die Ware von XY für einen Bruchteil dessen kaufen.

Dann irrst du dich halt. :daumen:
Das du irrst, ist natürlich ausgeschlossen! :ugly:

Nein, gar nicht zweischneidig, sondern kundenfreundliches Verhalten.
Wie gesagt, dies gilt in deinen Augen ja nur für eine der drei Firmen und nicht für die anderen, daher zweischneidiges Schwert.

Warum sollten sie? Sie fahren damit gut, Nvidia fährt damit gut Dinge zu entwickeln, die später in einen Standard aufgehen, aber erst dann, wenn der Standard ansatzweise mithalten kann. Den Support von AMD, Intel und Nvidia kann hingegen jeder fordern.

Zeig mir mal die betreffende Stelle.
Wo genau ist der Unterschied eine Technik propietär zu entwickeln und somit die Konkurenz auf Hardware auszuschließen zu eine Technik zu entwickeln die jede Hardware nutzen kann und die Konkurenztechnik in Software auszuschließen? Richtig, ersteres ist für den Endanwender viel schlimmer, da er im Zweifel keine der Techniken nutzen kann, während zweiteres dazu führt, dass jeder die Technik nutzen kann (wenn auch schlechtere Technik).


Ist doch für FG völlig unerheblich in welcher Auflösung gespielt wird.:daumen:
???
FG ist und bleibt ein Notbehelf, nicht mehr und nicht weniger und ist letzlich dazu gedacht, zu schwache Karten in einen annehmbaren FPS Bereich zu hieven. Das macht in meinen Augen aber eben nur für ältere Karten Sinn und aktuell unterstützen jedoch nur neue Karten das Feature, weshalb es in meinen Augen derzeit recht wenig Sinn ergibt und für mein Empfinden mehr Nachteile als Vorteile bringt. Das wird ja auch weitesgehend durch die Einschätzung der Redaktion gedeckt, die eben auch sagen, es kann in wenigen Szenarien einen Vorteil bringen, aber eigentlich eher nicht und nur Notbehelf.
Mit FG hat man idR. eine bessere Latenz als nativ.
Quatsch!

Die Aussage ist völlig falsch und beweist einmal mehr deine Herangehensweise. Mit FG steigen die Latenzen in der Regel extrem deutlich an! Was du meinst ist doch letzlich, mit aktiviertem Reflex und FG hat man ziemlich identische Latenzen wie nativ (idR besser ist nicht falsch, suggeriert hier aber einen deutlichen Gewinn, den es nicht gibt, der Unterschied ist doch sehr gering; aber wie gesagt, die Aussage wäre nicht falsch). Allerdings wird dabei wieder einmal ignoriert, dass man Reflex eben auch ohne FG nutzen kann und dann sind die Latenzen eben deutlich besser, so dass FG immer dazu führt, dass deutlich schlechtere Latenzen vorliegen. Reflex ist nicht gleich FG!
Nach deiner Argumentation dürftest du gar keine AMD Karte kaufen, wenn dir die Latenz so wichtig ist.
Tatsächlich ist Reflex für mich ein sehr großes Argument für die NV Karten! Während DLSS 3.x und vor allem FG (integraler Bestandteil von DLSS 3.x) für mich überhaupt kein Argument sind, sehr wohl dagegen DLSS 2.x.
 
Wie Schon einer meinte einfach nur noch Kindergarten... Hoffentlich verschwindet fsr und dlss bald dann könnt ihr euch weiter mit sand bewerfen.
 
Allerdings wird dabei wieder einmal ignoriert, dass man Reflex eben auch ohne FG nutzen kann und dann sind die Latenzen eben deutlich besser, so dass FG immer dazu führt, dass deutlich schlechtere Latenzen vorliegen. Reflex ist nicht gleich FG!
Ganz genau!
Aber anders herum funktioniert es nicht. Sprich, Frame Generation kann man nicht ohne Reflex nutzen. Es würde ohne auch keinen Sinn machen, wegen den viel zu hohen Latenzen.
 
Die Aussage ist völlig falsch und beweist einmal mehr deine Herangehensweise. Mit FG steigen die Latenzen in der Regel extrem deutlich an! Was du meinst ist doch letzlich, mit aktiviertem Reflex und FG hat man ziemlich identische Latenzen wie nativ (idR besser ist nicht falsch, suggeriert hier aber einen deutlichen Gewinn, den es nicht gibt, der Unterschied ist doch sehr gering; aber wie gesagt, die Aussage wäre nicht falsch). Allerdings wird dabei wieder einmal ignoriert, dass man Reflex eben auch ohne FG nutzen kann und dann sind die Latenzen eben deutlich besser, so dass FG immer dazu führt, dass deutlich schlechtere Latenzen vorliegen. Reflex ist nicht gleich FG!
Die Frage ist was als Basiswert genommen wird und ohne Reflex ist nun mal auch der Stand den AMD und Intel GPUs haben. Wer jetzt also behauptet FG wäre aufgrund der Latenz nicht benutzbar, behauptet auch gleichzeitig nicht Nvidia GPUs wären unbenutzbar und dass das Blödsinn ist ist ja klar.

Tatsächlich ist Reflex für mich ein sehr großes Argument für die NV Karten!
Da muss ich dir Recht geben, für mich ist das im GPU Limit ein absoluter Gamechanger und mir ist es ein absolutes Rätsel das AMD in der Richtung einfach gar nichts kommt. Ohne wird auch Frame Generation nicht umsetzbar sein.
 
Zurück