AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Es ist halt ein Algorithmus der, wie auch bei RTX, erstmal optimiert werden muss. Man hätte auch damals schreiben können: Von Mantle sind wir nicht überzeugt. Hätte anfangs mehr als nur gepasst. Konnte mich auch noch an den Thread "Muss es (immer noch) Ultra sein" erinnern. Da waren die Änderungen kaum wahrnehmbar, trotzdem will die jeder mit 1337Hz auf 4K erreichen. Wenn man jetzt eine Technik an der Hand hat die das vielleicht mit guten FPS/Frametimes hinbekommt und dabei noch wenige Prozent der Bildqualität einbüßt, wäre das doch super. Aber wie fast alles, braucht es Zeit. Geduld ist heutzutage einfach eine Tugend.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Es ist halt ein Algorithmus der, wie auch bei RTX, erstmal optimiert werden muss. Man hätte auch damals schreiben können: Von Mantle sind wir nicht überzeugt. Hätte anfangs mehr als nur gepasst. Konnte mich auch noch an den Thread "Muss es (immer noch) Ultra sein" erinnern. Da waren die Änderungen kaum wahrnehmbar, trotzdem will die jeder mit 1337Hz auf 4K erreichen. Wenn man jetzt eine Technik an der Hand hat die das vielleicht mit guten FPS/Frametimes hinbekommt und dabei noch wenige Prozent der Bildqualität einbüßt, wäre das doch super. Aber wie fast alles, braucht es Zeit. Geduld ist heutzutage einfach eine Tugend.

Geduld ist das eine - Premium Aufpreise für Features zu verlangen die Monate nach Release nicht wirklich genutzt werden können das andere.
Es ist nichtmehr 1993 - damals gabs Star Wars Rebel Assault nur auf CD, also haben sich zig User ein CD ROM nachgerüstet, extra für dieses Spiel.
Heute werden zig Games jeden Monat released und trotzdem haben wir bisland 2 (zwei) Titel die RTX nutzen, es ist EIN AAA Titel angekündigt der ebenfalls RTX haben soll - EINER. Nvidia Geforce RTX 2000 - Alle Spiele mit Raytracing und DLSS (Man kann gerne streiten ob die anderen Titel AAA sind, eher nicht).

Das wäre alles überhaupt kein Problem - wenn es nicht den fetten RTX Preisaufschlag gegeben hätte. Jay sagt es in seinem Video, es sind 6 Monate seit Release vergangen. Sind Käufer jetzt immernoch early Adopter oder Versuchskaninchen wie weit man Gamer schröpfen kann?
Ich habs mehrmals gesagt: Die Rohleistung von Turing in GTX Karten und RTX in Form einer Titan / klaren early Adopter Karte auf den Markt bringen. Game Over, Nvidia gewinnt das Spiel.

Muss sich doch jeder verarscht vorkommen der ~1300€ für ne 2080ti ausgegeben hat und gerade die Features welche die Karte so teuer machen nicht nutzen kann weil es einfach keine Software gibt.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Was soll ich sagen? Es ist schwer deine Positings zu verstehen. =/

Was spricht dagegen die selbe Anzahl an Partikeln pro Volumen unterschiedlich darzustellen?
Und das hat nichts mit Lichtdurchlässigkeit zu tun?

Du versuchst mir ständig zu erklären, wie ich die Meshtopologie dabei beeinflussen soll und ich dir, wofür Flex in erster Linie da ist. Die Meshtopologie lässt sich aber auch anderweitig noch beeinflussen, dafür braucht es die dazugehörige Extention nicht immer und auch nur, wenn die maximale Partikelmenge erreicht ist und es um Partikelclone ginge.

Die Device API fordert für den vollen Umfang klar einen Cuda Solver, compute ist nur eine Hilfsfunktion und damit sind nicht alle Parameter uneingeschränkt auf GCN ausführbar.

Steht auch im API Manual. Was anderes lese ich da jedenfalls nicht heraus. Also müssen wenn, die Entwickler GCN berücksichtigen und das stand auch in meinem ersten Post.

Ich kann auch nicht nachstellen was du vorschlägst, weil das auf einem Mobile Gerät so nicht funktioniert, trotz open source.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Das dürfte die aneinandervorbeiste Unterhaltung aller Zeiten sein :D.

Und das hat nichts mit Lichtdurchlässigkeit zu tun?

Du versuchst mir ständig zu erklären, wie ich die Meshtopologie dabei beeinflussen soll und ich dir, wofür Flex in erster Linie da ist.

Doch genau das hat dann was mit Lichtdurchlässigkeit zu tun.
Eigentlich möchte ich Dir erklären wofür FleX da ist :ugly: und dass Transluzenz oder SSS nichts mit der Simulation der Partikel zu tun hat.

Die Meshtopologie lässt sich aber auch anderweitig noch beeinflussen, dafür braucht es die dazugehörige Extention nicht immer und auch nur, wenn die maximale Partikelmenge erreicht ist und es um Partikelclone ginge.

Die Device API fordert für den vollen Umfang klar einen Cuda Solver, compute ist nur eine Hilfsfunktion und damit sind nicht alle Parameter uneingeschränkt auf GCN ausführbar.

Steht auch im API Manual. Was anderes lese ich da jedenfalls nicht heraus. Also müssen wenn, die Entwickler GCN berücksichtigen und das stand auch in meinem ersten Post.

Ich kann auch nicht nachstellen was du vorschlägst, weil das auf einem Mobile Gerät so nicht funktioniert, trotz open source.

Das widerspricht dem was ich gesehen habe und dem was in einer Präsentation von NV zu FleX steht.
In der Präsentation wurde ganz klar hervorgehoben, dass FleX herstellerunabhängig auf GPUs läuft. Einzige Einschränkung: Unter Linux gibt's nativ nur CUDA.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Das dürfte die aneinandervorbeiste Unterhaltung aller Zeiten sein :D.

Doch genau das hat dann was mit Lichtdurchlässigkeit zu tun.
Eigentlich möchte ich Dir erklären wofür FleX da ist :ugly: und dass Transluzenz oder SSS nichts mit der Simulation der Partikel zu tun hat.

Das widerspricht dem was ich gesehen habe und dem was in einer Präsentation von NV zu FleX steht.
In der Präsentation wurde ganz klar hervorgehoben, dass FleX herstellerunabhängig auf GPUs läuft. Einzige Einschränkung: Unter Linux gibt's nativ nur CUDA.
Nein, open source bedeutet nicht das Nvidia etwas für andere Hersteller liefern muss. Die API ist dx11 und 12 compatible, Linux ebenso. Die Hostaktualisierung erfolgt Paket basierend und asynchrone. Die Partikeldaten und deren Callbacks werden nach Bearbeitung durch den Solver zugeordnet (Schreib- und Lesezugriffe der CPU) und das tut nun mal der Cudasolver. Es gibt dort Unterschiede zwischen Cuda und GCN. Es ist lauffähig, nur nicht ohne den dazugehörigen Solver. PhysX wäre schon immer auf GCN lauffähig mit dazugehörigen Solver, ob Cuda closed oder open source egal.

Genau das habe ich auch schon geschrieben.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Meiner Meinung nach, klare Worte:

YouTube

Blablabla und viel hate. Und in ein paar Jahren wird er davon nichts wissen wollen. Das ist das was ich an Youtubern so liebe, die drehen sich dann wie ein Fähnchen im Wind, weil mans ja nicht so nachweisen kann wie geschriebene Artikel
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Nein, open source bedeutet nicht das Nvidia etwas für andere Hersteller liefern muss.

Flex ist nicht OpenSource.

Die API ist dx11 und 12 compatible, Linux ebenso. Die Hostaktualisierung erfolgt Paket basierend und asynchrone. Die Partikeldaten und deren Callbacks werden nach Bearbeitung durch den Solver zugeordnet (Schreib- und Lesezugriffe der CPU) und das tut nun mal der Cudasolver. Es gibt dort Unterschiede zwischen Cuda und GCN. Es ist lauffähig, nur nicht ohne den dazugehörigen Solver. PhysX wäre schon immer auf GCN lauffähig mit dazugehörigen Solver, ob Cuda closed oder open source egal.

Genau das habe ich auch schon geschrieben.

Und? Es gibt extra einen Direct Compute Solver der läuft. Das einzige, was man tun muss, ist eben nicht den CUDA Solver zu benutzen. Ich verstehe das Problem nicht.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Blablabla und viel hate. Und in ein paar Jahren wird er davon nichts wissen wollen. Das ist das was ich an Youtubern so liebe, die drehen sich dann wie ein Fähnchen im Wind, weil mans ja nicht so nachweisen kann wie geschriebene Artikel

Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?
Ist ja nicht so als ob er die gegenwärtige Situation korrekt wiedergibt - aber du kannst gerne Quellen die du als renommiert ansiehst posten die das Gegenteil behaupten.
Das mit RTX und DLSS alles in Ordnung ist - z.b. PCGH http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Einschraenkungen-fuer-DLSS-1275449/

Oh wait... PCGH sagt genau dasselbe wie Jay. Hmm diese elenden Youtuber!
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?
Ist ja nicht so als ob er die gegenwärtige Situation korrekt wiedergibt - aber du kannst gerne Quellen die du als renommiert ansiehst posten die das Gegenteil behaupten.
Das mit RTX und DLSS alles in Ordnung ist - z.b. PCGH http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Einschraenkungen-fuer-DLSS-1275449/

Oh wait... PCGH sagt genau dasselbe wie Jay. Hmm diese elenden Youtuber!
Ich kenne Jays videos als sehr einseitig. Dass jemand seine Meinung als allgegenwertig darstellt finde ich super. Schon allein die Überschrift "RTX and DLSS... 2019 is going to be a record BAD year..." ist absolut BILD Niveau, oder nicht? Auf was beruft er sich, außer, dass er unzufrieden ist? Hat er in irgendwelchen Worten erklärt, wie wichtig diese Techniken sind? Nein. Dann ist es außer heißer Luft nichts. Erwähnt er, dass noch kaum eine neue 3D Technik sofort die besten Ergebnisse gebracht hat? Nein, dann ist es eben nur geistiger Dünnpfiff.
Wenn man einen Diskurs leiten will, sollte man wenigstens die Fähigkeit annähernd besitzen beide Seiten der Medaille sehen zu können. Und das tut er nicht. Entgegen renommierter Fachmagazine. Er konzentriert sich nur darauf Dinge schlecht darzustellen.

Allein schon die Aussage, es werde ein "record bad year" werden. Das ist so dämlich. Es gibt einen Knick bei den Einnahmen von Nvidia, aber man ist immer noch auf einem Hoch, im vergleich zu noch vor 2-3 Jahren.

Hinzu kommt, dass der Absturz jetzt ganz klar mit Mining und nicht mit Turing zusammen hängt. Das war auch schon Monate davor ersichtlich nVidia Geschaeftsergebnisse Q2/2018: Ende des Mining-Booms ergibt kurzfristige Delle auf weiterhin sehr hohem Geschaeftsniveau | 3DCenter.org
Und deshalb sind diese "Turing ist so schlecht, seht her hahahaha schlechte Zahlen hahaha schlecht" dümmlichen Kommentare nicht nur ärgerlich sondern absolut nervend einseitig. Das würde ich jetzt übrigens auch schreiben, wenn Jay und Co nicht immer gegen Nvidia sondern immer gegen AMD schimpfen. Sowas als "Influenza" braucht die Welt leider nicht. Letztlich sind die Zahlen auf 2017er Niveau. Also einem Jahr wo Pascal gerade voll ausgefahren wurde samt der Titan und Co, aber noch nicht wo man Mining-Karten direkt verkauft hat

Und PCGH ist ja an und für sich auch nicht für sein hohes Niveau bekannt, warum führst du das als Beispiel auf. Ich Sprach von renomierten Fachmagazinen, nicht Clickbaits. Immerhin: In einigen Jahren wird bei PCGH Retro die Einführung von Echtzeitraytracing stehen und nicht, dass es eine schlechte Idee war oder sonstwas.

Ich mag auch, dass Jay ständig irgendwelche Fragen, vermutungen und sonstwas in den Titel schreibt. Clickbait eben. Aber ja, hochqualitativer "tech Youtuber" halt.

"
AMD Radeon 7... Amazing or Disappointing?
Has RGB gone too far??
This AIO is ridiculous!
This might be my new favorite Air Cooler??!!
This Laptop ISNT a Laptop... but it is...
Will it arrive undamaged?? Place your bets
I went to delid my CPU... but I didn’t expect this!
ASUS made an AIO... but is it any good??

Die inflationäre Verwendung von Satzzeichen zeigt halt zum einen eine gewisse Argumentationsarmut bzw. mangelnde Selbstüberzeugung bei der Qualität und außerdem, dass es wohl eh besser wäre, wenn er keine Artikel schreibt.

Sorry, aber wer nicht sieht, dass diese "erfahrenen Tech-Youtuber" oft nur Selbstdarsteller (mit gutem Geschäftssinn) sind und sich teilweise weit weg von wissenschaftlicher Praxis mit ihren Themen beschäftigen, dem ist dann wohl nicht zu helfen. Einfach mal viele sauber recherchierte Artikel und Wissenschaftliche Artikel lesen lassen, damit man den Qualitätsunterschied merkt

 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Flex ist nicht OpenSource.

Und? Es gibt extra einen Direct Compute Solver der läuft. Das einzige, was man tun muss, ist eben nicht den CUDA Solver zu benutzen. Ich verstehe das Problem nicht.

Weil es AMD seit dem 16.9.1 zu Demonstrationszwecken unterstützt und der gesamte Gameworkssource ohne Anmeldung im nV-Devcenter mittlerweile über Unity und github herunter geladen werden kann, sowie es in UE bereits integriert ist. Eulas wie Freiheraus es beschrieb.

Könntest du mal kurz erklären was du unter Solver verstehst - Hilfsprogramm? DX11/12? Meiner Kenntnis nach gebrauchte dieser viel zu hohe Tesselationstufen auf AMD Hardware womit die hardwarebeschleunigte Animation viel langsamer als auf Cuda ausgeführt wird. Das war auch der Grund den AMD damals bei PhysX vorhielt und nV antwortete, dass man es anpassen könnte, AMD eben seinen eigenen Solver schreibt, was sie aber nicht wollten.

Open source ist kein Begriff für generell freie Software.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Und PCGH ist ja an und für sich auch nicht für sein hohes Niveau bekannt, warum führst du das als Beispiel auf. Ich Sprach von renomierten Fachmagazinen, nicht Clickbaits. Immerhin: In einigen Jahren wird bei PCGH Retro die Einführung von Echtzeitraytracing stehen und nicht, dass es eine schlechte Idee war oder sonstwas.

Achja, wenn die Faktenlage nicht zur Argumentation passt wird eben einfach immer behauptet das Niveau wäre niedrig, oder die hätten keine Ahnung.
Ich wunder mich immer wieder warum solche Experten sich in Foren von Clickbait Magazinen tummeln.

Sorry, aber wer nicht sieht, dass diese "erfahrenen Tech-Youtuber" oft nur Selbstdarsteller (mit gutem Geschäftssinn) sind und sich teilweise weit weg von wissenschaftlicher Praxis mit ihren Themen beschäftigen, dem ist dann wohl nicht zu helfen. Einfach mal viele sauber recherchierte Artikel und Wissenschaftliche Artikel lesen lassen, damit man den Qualitätsunterschied merkt


Hmm ja weil das für Gamer Hardware auch notwendig ist.
Man braucht ganz dringend Pr.Dr.Dr.Hardware Guru um zu erkennen dass RTX und DLSS derzeit den Aufpreis nicht wert sind - gesunder Menschenverstand reicht da nicht aus.
Was sind denn deiner Meinung nach renommierte Fachmagazine zum Thema Gaming Hardware?

Aber hey, du hast ein C't Abo uuuuuhhhh #gebildet.
Und was sagt Heise zu Turing?
Kommentar zur Nvidia GeForce RTX 2080: Der grosse Bluff | heise online

Die technisch interessanteste Neuerung – die Integration von Spezialeinheiten für zusätzliche Raytracing-Effekte – wirft Nvidia als bloße Nebelkerze. Sie lenkt von dem geringen Leistungszuwachs gleichermaßen ab wie von den in keinem Verhältnis stehenden Preisen. An letztere wollte Nvidia die Käuferschar seit der Einführung der ersten Titan-Grafikkarten vor fünf Jahren peu à peu gewöhnen.


Komisch, selbst die C't hat Meinungen und teilt diese...
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Blablabla und viel hate. Und in ein paar Jahren wird er davon nichts wissen wollen. Das ist das was ich an Youtubern so liebe, die drehen sich dann wie ein Fähnchen im Wind, weil mans ja nicht so nachweisen kann wie geschriebene Artikel

Nunja, er versucht eben Klicks zu generieren, da muss man sich dem Hate-Pöbel anschließen, alleine wenn er schon sagt 6 Monate nach dem Release usw.. dann ist das für mich prinzipiell schon ein Hinweis darauf dass das Video unseriös wird und man es gar nicht weiter anschauen muss. Die Entwicklung wird dauern, ob man das jetzt gut findet oder schlecht findet sei mal dahingestellt, aber wir haben in der Vergangenheit schon so viele Beispiele gehabt, dass man eigentlich wissen sollte, dass so etwas eben auch Zeit in Anspruch nimmt.

Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?

Welche Argumente denn? Jetzt verteidigst du schon Videos ohne konkreten Inhalt, hauptsache es geht gegen Nvidia.:D
"For me the honeymoon-period is over and iam kind of done with it".

Ja, wow, dann soll er seine RTX doch verkaufen und dann in 2 Jahren die nächste Gen kaufen, dann hat er auch mehr Anwendungsbeispiele.
Oder er wartet halt bis Mitte des Jahres oder bis AMD aus dem Knick kommt. Dann soll er doch Raytracing Reflexionen in Battlefield im MP abschalten, kann er machen.
Ich sehe da mittlerweile wegen fast durchgängig 100 FPS keinen Grund dafür, aber gut.

Das ist doch nichts anderes als Clickbait, vergisst Metro und dann die angekündigten Verbesserungen hinsichtlich DLSS.
Der Typ tut ja fast so als bestünden die Karten nur aus diesen Features.

Ich wunder mich immer wieder warum solche Experten sich in Foren von Clickbait Magazinen tummeln.

Und wenn es halt gar nicht mehr anders geht, dann schaltet der Hoffi in den Beleidigungsmodus.:D

Man braucht ganz dringend Pr.Dr.Dr.Hardware Guru um zu erkennen dass RTX und DLSS derzeit den Aufpreis nicht wert sind

Was meinst du mit "Aufpreis" eigentlich? Haben die Karten denn nicht auch ohne diese Features genug Leistung um im Marktkontext zu bestehen?
Du tust ja fast so, als wären sie gleichschnell wie Pascal.


Aber hey, du hast ein C't Abo uuuuuhhhh #gebildet.
Und was sagt Heise zu Turing?
Kommentar zur Nvidia GeForce RTX 2080: Der grosse Bluff | heise online
Komisch, selbst die C't hat Meinungen und teilt diese...

Jetzt sind wir doch wieder irgendwie nur beim Preis gelandet.
Dass die Karten aufgrund der angewachsenen Chipgröße teurer geworden sind, wissen wir jetzt glaube ich auch.
Aber ich kann mir nicht erklären warum das so negativ sein soll. Der der upgraden willen, zahlt die Zeche und der der nicht will, kann entspannt seine 1080 oder 1080 Ti weiterbenutzen und muss kein Geld lockermachen.
Das ist eine komfortable Situation, dennoch wird das ganze Forum mit Hate überzogen, wo war der eigentlich bezüglich der VII von dir? #Wendehals.

Die technisch interessanteste Neuerung – die Integration von Spezialeinheiten für zusätzliche Raytracing-Effekte – wirft Nvidia als bloße Nebelkerze.

Tja, Heise hat sich seit dem NDA-Quatsch schon lange von einem neutralen Journalismus entfernt. Die Einführung von Echtzeitraytracing ist alles andere als eine Nebelkerze.
Dazu muss man sich einfach nur mal ein paar Videos mit Entwicklern anschauen, die die Funktionsweise und Integration erklären.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Nunja, er versucht eben Klicks zu generieren, da muss man sich dem Hate-Pöbel anschließen, alleine wenn er schon sagt 6 Monate nach dem Release usw.. dann ist das für mich prinzipiell schon ein Hinweis darauf dass das Video unseriös wird und man es gar nicht weiter anschauen muss. Die Entwicklung wird dauern, ob man das jetzt gut findet oder schlecht findet sei mal dahingestellt, aber wir haben in der Vergangenheit schon so viele Beispiele gehabt, dass man eigentlich wissen sollte, dass so etwas eben auch Zeit in Anspruch nimmt.

Nvidia Geforce RTX 2000 - Alle Spiele mit Raytracing und DLSS

Aufgelistet alle Spiele mit RTX und DLSS.
6 Monate nach Release sind 2 Spiele mit RTX auf dem Markt - auf der Liste findet sich nur EIN kommender AAA Titel der RTX Support bekommt. Dazu kommt, dabei sind Titel von Studios die bislang noch kein Spiel veröffentlicht haben. Mal schauen wann dann deren Game samt RTX Support am Martk aufschlägt.

RTX braucht Zeit? Klingt gut, aber hey, gib doch heute schonmal hunderte Euro dafür aus und lass sie verschimmeln und denk nicht drüber nach was wäre wenn du die Rohleistung ohne RTX und den dazugehörigen Aufpreis hättest haben können.
Dass Entwicklungen Zeit brauchen sieht man sehr gut an DX12. Nur hat DX12 keinen Premiumaufpreis von mehreren hundert € gekostet. Warum mich das kümmert? Weil ich in 2-3 Jahren eine GPU nachrüsten möchte und gerne Grafikkarten hätte deren Funktionen ich nutzen kann und nicht irgendwelchen Blödsinn bezahlen muss der nichtr ausgereift ist, mir absolut keinen Mehrwert bringt, mir aber aufgezwungen wird. Mag sein dass RTX dann Standard ist - nur hoffe ich dann eben auch dass Nvidia (oder AMD) nicht mit dem nächsten Gimmick ums Eck kommen um GPU Preise künstlich zu erhöhen!
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

6 Monate später und es hat sich nix getan... DLSS sieht einfach shice aus, RT kann man drüber streiten. Es ist einfach nicht ausgereift genug, aber Hauptsache den Leuten mal 1250€+ aus der Tasche ziehen bzw generell überteuerte Preise, wie ihr das alles so locker hinnehmt, ist mir ein Rätsel.
Irgendwann muss dieses verteidigen eurer "Lieblingsmarke" doch mal aufhören, die Preise haben euch ja meist nicht gejuckt, (nur 8GB VRAM auch nicht) da kamt ihr an mit: "Aber können RT und DLSS genießen, während alle anderen in die Röhre schauen".
Nun kommt raus das die Technik bzw die Umsetzung nach einem halben Jahr mehr als bescheiden ist und noch immer verteidigt ihr hier... Ist es denn echt so schwer mal zu sagen was Sache ist?

Und PCGH ist ja an und für sich auch nicht für sein hohes Niveau bekannt, warum führst du das als Beispiel auf. Ich Sprach von renomierten Fachmagazinen, nicht Clickbaits. Immerhin: In einigen Jahren wird bei PCGH Retro die Einführung von Echtzeitraytracing stehen und nicht, dass es eine schlechte Idee war oder sonstwas.
Was rollora und seinen Hass gegenüber Videos angeht, naja lassen wir das mal, aber zu sagen PCGH hätte kein ("hohes") Niveau ist echt unterste Schublade, würde raten deinen Account löschen zu lassen, so ein elitärer niveauvoller user braucht sicher kein Forum von...
Hauptsache du hast die Weisheit und eine Kelle ("hohes") Niveau mit dem Löffel gefressen, sieht man ja allein an deiner Aussage hier, wie sehr das alles gefruchtet hat!
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Aufgelistet alle Spiele mit RTX und DLSS.
6 Monate nach Release sind 2 Spiele mit RTX auf dem Markt - auf der Liste findet sich nur EIN kommender AAA Titel der RTX Support bekommt.

Du glaubst also es wäre so einfach feste Zusagen während eines Entwicklungsprozesses zu liefern, wenn die Spieleentwickler terminlich eh schon unter Druck sind.
Meine Güte, da wird sicherlich noch mehr im Laufe der Zeit kommen. Erstmal müssen die bekannten Engines DXR erst einmal implementieren und da wird das stetig wachsen.

RTX braucht Zeit? Klingt gut, aber hey, gib doch heute schonmal hunderte Euro dafür aus und lass sie verschimmeln und denk nicht drüber nach was wäre wenn du die Rohleistung ohne RTX und den dazugehörigen Aufpreis hättest haben können.

Das muss ich nicht, da ich mir den Preis einer RTX 2080 Ti locker leisten kann, unabhängig davon wie schnell DXR integriert wird oder nicht.
Welche Rohleistung ohne RTX? Die 5 bis 10% Chipfläche was die RT und Tensor Cores ausmachen, sind geschenkt.
Die 1660 Ti hat bei 1536 Shadern eine Chipfläche von knapp 300mm², die GTX 1080 kam mit 314mm² und 2560 Shadern aus, da kostet wohl die stark aufgepumpte Architektur von Turing den Platzbedarf und nicht Raytracing...

Dass Entwicklungen Zeit brauchen sieht man sehr gut an DX12.

Na, da sieh mal einer an. Da haben die gleichen Nasen seit 2015 die heute so vehement gegen Weiterentwicklungen wie DXR sind, die ganzen Threads zugemüllt wie wichtig und zukunftsträchtig Directx12 doch wäre.
Und dann hat man bis heute eher magere Ergebnisse und man nutzt weiter meistens Directx11, allerdings geht es eben doch mittlerweile voran und da keine Alternative zu Directx12 von MS gepushed wurde, wird das eben die Zukunft sein.
Nur hat DX12 keinen Premiumaufpreis von mehreren hundert € gekostet.

Du kannst ja heute eine Premium Radeon VII mit 16GB HBM Speicher für 750 Euro kaufen, ohne Primitive Shader, 10% weniger Leistung als bei einer 2080, ohne DXR Unterstützung.
Dein Gefasel von wegen Premiumaufpreis ist doch lächerlich, wenn selbst der Konkurrent weniger Leistung für einen teureren Preis aufbieten kann.
Scheinbar hat Nvidia die Preise schon richtig gesetzt.
Warum mich das kümmert? Weil ich in 2-3 Jahren eine GPU nachrüsten möchte und gerne Grafikkarten hätte deren Funktionen ich nutzen kann

Seit wann haben sich die Hardwarefunktionen einer GPU nach der ersten Serie damit so durchgesetzt, dass man sie permanent nutzen kann? Erinnerst du dich noch an Tesselation, oder die Einführung von compute-shadern?

und nicht irgendwelchen Blödsinn bezahlen muss der nichtr ausgereift ist, mir absolut keinen Mehrwert bringt, mir aber aufgezwungen wird.

Blabblabla... es ist doch mittlerweile klar was deine Hauptaussage ist. Dass nach knapp 6 Monaten Hardwareverfügbarkeit noch keine entsprechende Software breit auf dem Markt verfügbar ist.
Das scheint ja generell erst seit Turing ein Problem zu sein, wo man wieder auf die Preiskritik kommt.
Im Grunde genommen hatest du doch nur eben auf dem gleichen Niveau wie die anderen Nörgler auf dem Preis der Hardware herum, Huang soll sie für dich bitte billiger machen.:schief:

Mag sein dass RTX dann Standard ist - nur hoffe ich dann eben auch dass Nvidia (oder AMD) nicht mit dem nächsten Gimmick ums Eck kommen um GPU Preise künstlich zu erhöhen!

Ein Unternehmen nimmt eben so viel wie sie nehmen können, wenn du dir das nicht mehr leisten kannst, dann ist mir das ziemlich egal, denn man muss definitiv nicht immer ganz nach oben ins Regal greifen.
Hatte ich früher auch nicht tun können, habe aber trotzdem nicht das ganze Forum mit dem gewhine zugespammt.:hmm:

Es ist einfach nicht ausgereift genug, aber Hauptsache den Leuten mal 1250€+ aus der Tasche ziehen bzw generell überteuerte Preise, wie ihr das alles so locker hinnehmt, ist mir ein Rätsel.

Aus der Tasche ziehen? Wer wird denn bitte gezwungen die neuen Karten zu kaufen?
Und was heißt überteuerte Preise? Was hat denn deine GTX 1080 Ti Aorus Xtreme gekostet`? 1000 Euro?
Mir ist es ein absolutes Rätsel, wieso die User eines Extreme-Hardware-Forums so auf die Barrikaden gehen, weil die GPU Preise zum Pascal oder Vega Launch mal um 50 bis 300 Euro (Spitze) angestiegen sind.
Und es ist doch auch absolut nachvollziehbar. Was kostet denn eine High End CPU ala Threadripper? 1800 Euro? Warum wird dann da nicht alles in Grund und Boden gehated?

Ihr müsst ja einen hohen Leidensdruck haben. Braucht ihr denn unter allen Umständen immer die schnellste GPU?
Hab ich mir damals auch nicht leisten können, deswegen hab ich auch nicht schlechter gelebt...

Nun kommt raus das die Technik bzw die Umsetzung nach einem halben Jahr mehr als bescheiden ist und noch immer verteidigt ihr hier... Ist es denn echt so schwer mal zu sagen was Sache ist?

Sry, ich finde die Technik nicht bescheiden. Die Umsetzung mag zeitlich hinter dem was sich die User vorgestellt haben, hinterherhinken. Okay.
Aber selbst DLSS wird laut Nvidia verbessert. Lass die Leute doch einfach mal ihren Job machen, du hast doch eh keine RTX verbaut, was juckt es dich ergo?

Hauptsache du hast die Weisheit und eine Kelle ("hohes") Niveau mit dem Löffel gefressen, sieht man ja allein an deiner Aussage hier, wie sehr das alles gefruchtet hat!

Der Kommentarbereich ist jedenfalls seit dem Turing Launch nur noch voll von irgendwelchem inflationärem Preisleistungsgefasel.
Erstaunlicherweise ist davon im Radeon VII Thread nichts zu lesen.:schief:
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Meine Güte, da wird sicherlich noch mehr im Laufe der Zeit kommen.

Genau, im Laufe der Zeit wird sich RTX auch als Feature rechtfertigen. Aktuell tut es das nicht, das hast du vollkommen richtig gesehen.


Das muss ich nicht, da ich mir den Preis einer RTX 2080 Ti locker leisten kann, unabhängig davon wie schnell DXR integriert wird oder nicht.
Welche Rohleistung ohne RTX? Die 5 bis 10% Chipfläche was die RT und Tensor Cores ausmachen, sind geschenkt.
Die 1660 Ti hat bei 1536 Shadern eine Chipfläche von knapp 300mm², die GTX 1080 kam mit 314mm² und 2560 Shadern aus, da kostet wohl die stark aufgepumpte Architektur von Turing den Platzbedarf und nicht Raytracing...

Achja, die Neid / Geiz Debatte wieder. Wenn Du Dir Hardware für mehrere tausend € in die Sig schreibst kostet dich das keinen Cent. Mal abgesehen davon dass ich das sowieso nur für heiße Luft halte (du darfst mich hier gerne eines Besseren belehren) bist du nicht der Nabel der Welt.
Und ist das jetzt ein sinnvolles Argument? Ich kanns mir leisten also kanns insgesamt nicht zu teuer sein? Und welche Rohleistung ohne RTX - nimm eine 2080ti, nimm den Aufpreis für RTX weg und release dann die Karte im Preisbereich ~800€.
Es geht nicht um den Platzbedarf, es geht darum dass Nvidia das Topmodell mal eben 300-500€ teurer gemacht hat.


Na, da sieh mal einer an. Da haben die gleichen Nasen seit 2015 die heute so vehement gegen Weiterentwicklungen wie DXR sind, die ganzen Threads zugemüllt wie wichtig und zukunftsträchtig Directx12 doch wäre.
Und dann hat man bis heute eher magere Ergebnisse und man nutzt weiter meistens Directx11, allerdings geht es eben doch mittlerweile voran und da keine Alternative zu Directx12 von MS gepushed wurde, wird das eben die Zukunft sein.

Merkst du was? DX12 war the next big thing. Und es ist garnichts passiert, jahrelang. Aktuell ist RTX the next big thing und der Ausblick an Spielen damit ist ähnlich wie damals bei DX12.
Entwickler basteln Spiele damit sie auf sehr vielen verschiedenen Systemen laufen. RTX kostet Zeit und Aufwand, nicht jeder Entwickler macht das mit wenn nur eine absolute Minderheit überhaupt GPUs mit diesem Feature nutzt. Das ist ein Teufelskreis, nur ohne Alternative für den GPU Käufer, denn oberhalb einer 1660ti zahlt er den RTX Aufschlag.

Du kannst ja heute eine Premium Radeon VII mit 16GB HBM Speicher für 750 Euro kaufen, ohne Primitive Shader, 10% weniger Leistung als bei einer 2080, ohne DXR Unterstützung.
Dein Gefasel von wegen Premiumaufpreis ist doch lächerlich, wenn selbst der Konkurrent weniger Leistung für einen teureren Preis aufbieten kann.
Scheinbar hat Nvidia die Preise schon richtig gesetzt.

Und wenn Dir nichtsmehr einfällt wird AMD gebasht. Schon blöd wenn einem die Argumente ausgehen.

Seit wann haben sich die Hardwarefunktionen einer GPU nach der ersten Serie damit so durchgesetzt, dass man sie permanent nutzen kann? Erinnerst du dich noch an Tesselation, oder die Einführung von compute-shadern?

Richtig. Und seit wann haben die Hardwarefunktionen einer GPU diese deutlich verteuert? Korrekt, ab Turing. Beweisführung abgeschlossen.

Blabblabla... es ist doch mittlerweile klar was deine Hauptaussage ist. Dass nach knapp 6 Monaten Hardwareverfügbarkeit noch keine entsprechende Software breit auf dem Markt verfügbar ist.
Das scheint ja generell erst seit Turing ein Problem zu sein, wo man wieder auf die Preiskritik kommt.
Im Grunde genommen hatest du doch nur eben auf dem gleichen Niveau wie die anderen Nörgler auf dem Preis der Hardware herum, Huang soll sie für dich bitte billiger machen.:schief:

Und wieder, keine Argumente - "hatest", "Nörgler" - überhaupt nicht verstanden worum es geht.
Turing ist zu teuer für das was es leistet. Das sagt PCGH, das sagt der Markt der Turing deutlich schlechter annimmt als Pascal, das sagt sogar Huang.
ICH kann mir Turing leisten wenn ich wollte. Das ist überhaupt kein Thema. Nur seh ich das nicht ein. Und wie erwähnt, dass du überhaupt Besitzer einer 2080ti bist - naja behaupten kann man vieles.
Z.b. das man das sinkende Schiff verlässt.

Ein Unternehmen nimmt eben so viel wie sie nehmen können, wenn du dir das nicht mehr leisten kannst, dann ist mir das ziemlich egal, denn man muss definitiv nicht immer ganz nach oben ins Regal greifen.
Hatte ich früher auch nicht tun können, habe aber trotzdem nicht das ganze Forum mit dem gewhine zugespammt.:hmm:

Und der Verbraucher gibt es entsprechend zurück - deshalb darf Nvidia auch regelmäßig darüber berichten dass sich Turing nicht verkauft wie geplant.



Tja, Heise hat sich seit dem NDA-Quatsch schon lange von einem neutralen Journalismus entfernt. Die Einführung von Echtzeitraytracing ist alles andere als eine Nebelkerze.
Dazu muss man sich einfach nur mal ein paar Videos mit Entwicklern anschauen, die die Funktionsweise und Integration erklären.

Das ist wirklich großartig.
Rollora sagt Youtuber und PCGH seien nicht objektiv / hätten kein hohes Niveau - dafür kommt er im REyzen 3000er Thread mit Heise.
Bringt man Heise Links kommt eben Schaffe und sagt, naja die sind eben auch nicht neutral.

Wie kommts eigentlich das jede Quelle von euch immer diskreditiert wird? Gibt es denn überhaupt noch Techsites auf die Ihr euch einigen könnt - also die allgemein als seriös wahrgenommen werden? Oder sind die alle Teil der Pro AMD Verschwörung.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?


Da muss ich Rollora mal Recht geben, dass ich dieses Video von Jay auch sehr einseitig fand.

RT ist doch nicht auch schlecht, weil DLSS schlecht ist !?

Man kann z.B. das eine mögen und das andere für total überflüssig empfinden.
Dass die Implementierung von RT noch einige Jahre braucht, bis es weiter verbreitet ist, sollte klar sein und dass diejenigen, die es jetzt nutzen, early adopter sind, is denen wohl auch klar.
Aber warum nicht !?

Man kann Exodus z.B. auch mit RT on und DLSS off spielen.
edit: Zumindest in 1440p nativ, was mir reicht. :)
Und nein ich kaufe Exodus trotzdem nicht, weil ich Epic Shice finde ! :D

Ich warte mal ab, wann AMD ebenfalls RT eingebaut hat und es auch in Konsolen kommt.
Dann wird's für die Masse interessant.

Vielleicht werde ich sogar auch noch mal early adopter, falls Nvidia in 7nm deutlich mehr Power bringt, als jetzt, mit mehr Speichermenge und auch RT mit DLSS off in nativer Auflöung in 1440p ordentlich, das heißt für mich die meiste Zeit 60+ fps, läuft(natürlich DLSS off, weil ich das gar nicht mag).

Vor kurzem fand Jay selbst noch RT gut und nun findet er alles nicht mehr gut, also das ganze RTX Thema, weil DLSS shice ist !?

Hm ... :hmm:
Das finde ich ebenfalls etwas übertrieben.

Klar ist RT ne Sache, die gerade erst gestartet ist und noch lange braucht. Aber wegen DLSS muss man RT nicht auch blöd finden.


Just my 2 cents. :)


edit:

DLSS sieht einfach shice aus, RT kann man drüber streiten.

Siehst du ? Das meine ich: Man kann es auch differenziert betrachten, bzw. mal genauer hinschauen, in die Details und nicht einfach sagen: Das ganze RTX Thema ist Mist.
 
Zuletzt bearbeitet:
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Weil es AMD seit dem 16.9.1 zu Demonstrationszwecken unterstützt und der gesamte Gameworkssource ohne Anmeldung im nV-Devcenter mittlerweile über Unity und github herunter geladen werden kann, sowie es in UE bereits integriert ist. Eulas wie Freiheraus es beschrieb.

Was unterstützen AMD und Intel?

Könntest du mal kurz erklären was du unter Solver verstehst - Hilfsprogramm? DX11/12?

Der Solver macht das, wonach er benannt ist: Dinge lösen. In dem Fall Gleichungen numerisch lösen.

Meiner Kenntnis nach gebrauchte dieser viel zu hohe Tesselationstufen auf AMD Hardware womit die hardwarebeschleunigte Animation viel langsamer als auf Cuda ausgeführt wird. Das war auch der Grund den AMD damals bei PhysX vorhielt und nV antwortete, dass man es anpassen könnte, AMD eben seinen eigenen Solver schreibt, was sie aber nicht wollten.

Möglich beim Mesh für Fluide, Gase,..., auf das Mesh der Softbodies, Stoffe,... hat das keinen Einfluss.

Open source ist kein Begriff für generell freie Software.

Ich und die meisten anderen verstehen unter Open Source Software, die unter einer GPL oder ähnlichen Lizenz steht. Das ist bei FleX nicht so.
 
AW: AMD ist nicht von Nvidias DLSS überzeugt und bevorzugt SMAA- und TAA-Lösungen

Genau, im Laufe der Zeit wird sich RTX auch als Feature rechtfertigen.

Na also, dann gibt es doch auch keinen Grund irgendetwas voreilig als Witz, Nebelkerze oder Schwachsinn hinzustellen.
Das dauert eben und ich habe mir die Karten ja nicht primär wegen RT gekauft, sondern wegen der Leistung.

Achja, die Neid / Geiz Debatte wieder. Wenn Du Dir Hardware für mehrere tausend € in die Sig schreibst kostet dich das keinen Cent.

Stimmt, das kostet keinen Cent.:D

Und ist das jetzt ein sinnvolles Argument? Ich kanns mir leisten also kanns insgesamt nicht zu teuer sein?

Zusammenhang war doch ein ganz anderer. Es ist ja nicht nur Raytracing was Turing ausmacht, sondern durchaus eben auch die konkurrenzlose Leistung.
Das ist ja beim 9900K kein Stück anders.

Es geht nicht um den Platzbedarf, es geht darum dass Nvidia das Topmodell mal eben 300-500€ teurer gemacht hat.

Naja, doch es geht schon um den Die-Space, du sprachst das ja explizit an, was man so bekommen würde, wenn Nvidia RT und Tesnor Cores weggelassen hätte.
Nur brauche die eben kaum Chipfläche und die Argumentation ist dann hätte, wäre, wenn.
Ja und sie haben das Topmodell teurer gemacht, ist ja bei der Monster-Chipfläche von 750mm² auch kein Wunder. Im CPU Bereich musst du dafür auch über 1000 Euro drücken und bekommst noch nicht mal einen Kühler, geschweige denn ein PCB.

Merkst du was? DX12 war the next big thing. Und es ist garnichts passiert, jahrelang. Aktuell ist RTX the next big thing und der Ausblick an Spielen damit ist ähnlich wie damals bei DX12.
Entwickler basteln Spiele damit sie auf sehr vielen verschiedenen Systemen laufen. RTX kostet Zeit und Aufwand, nicht jeder Entwickler macht das mit wenn nur eine absolute Minderheit überhaupt GPUs mit diesem Feature nutzt.

Und das ist doch völlig normal. Besser wird es erst wenn die Features auch in der kleinsten Leistungsklasse ankommen, ergo für die die leere Taschen haben oder das nicht nutzen wollen, einfach warten und nicht kaufen.
Woher diese Motivation kommt sich ständig über etwas aufzuregen, was man aber eh nicht kaufen will, ist mir ein absolutes Rätsel, da scheint man es ja doch unbedingt haben zu wollen.
Ist eben einfach Neid kombiniert mit Missgunst.

Und wenn Dir nichtsmehr einfällt wird AMD gebasht. Schon blöd wenn einem die Argumente ausgehen.

Wo bashe ich denn damit AMD? Leistung am Limit der aktuellen Möglichkeiten kostet eben und ich halte den Preis der VII mit satten 16GB HBM keineswegs zu gering.
Aber jetzt kommt wieder diese Attitüde hauptsache billig und günstig, ob es am Markt dann noch eine Wahl gibt oder nicht, interessiert nicht.:schief:

Richtig. Und seit wann haben die Hardwarefunktionen einer GPU diese deutlich verteuert? Korrekt, ab Turing. Beweisführung abgeschlossen.

Aua. Was für ein Blödsinn. Diese ganzen Preiserhöhungen der letzten 10 Jahre scheinen wohl komplett an dir vorbeigegangen zu sein.:schief:
Aber klar, nur Nvidia erhöht die Preise und natürlich immer ganz ganz böse kapitalistisch. Die haben bei der GTX 1080 anno 2016 schon für 789 Euro für die FE gestöhnt, aber können die GPU sicherlich auch noch weitere 5 Jahre nutzen, ohne extreme Einschnitte erleiden zu müssen. Diese Preiskritik ist göttlich, denn es muss natürlich jeder sofort jede neue Gen haben.

Und wieder, keine Argumente - "hatest", "Nörgler" - überhaupt nicht verstanden worum es geht.

Doch ich verstehe schon. Dir ist das ganze zu teuer und rein an dem subjektiven Eindruck entlädt sich seit Launch von Turing die ganze Kritik.
Ich verwette meinen Hintern - hätten die Karten 100 oder 200 Euro weniger gekostet, dann wäre die Kritik an Raytracing nicht mal halb so laut.

Das sagt PCGH, das sagt der Markt der Turing deutlich schlechter annimmt als Pascal, das sagt sogar Huang.

Also so schlecht kann Turing nicht angenommen werden, denn die Geschäftzahlen bewegen sich ja auch dem Niveau 2016 bis Anfang 2017 von Pascal.
Aber ja der Preis ist angestiegen und das sicherlich nicht unbegründet, aber dem Nörgler kann man es ja nicht recht machen.
Der glaubt wirklich AMD verkauft 16GB HBM und 1TB/s Bandbreite für 500 Euro und Nvidia haut den 750mm² Chip für 700 Euro raus. Niemals.

Nur seh ich das nicht ein. Und wie erwähnt, dass du überhaupt Besitzer einer 2080ti bist - naja behaupten kann man vieles.

Dafür dass du das nicht einsiehst, bist du aber immer stark erregt wenn es wieder um das Thema geht - immer ganz vorne dabei beim Preis-Bashing.
Und nunja, wenn du wirklich glaubst ich schreibe Hardware in die Signatur die ich nicht besitze - also solche Kindereien könnte ich dir vielleicht zutrauen.



dwdw-jpg.1033693
 

Anhänge

  • dwdw.JPG
    dwdw.JPG
    170,5 KB · Aufrufe: 47
Zuletzt bearbeitet:
Zurück