Es ist halt ein Algorithmus der, wie auch bei RTX, erstmal optimiert werden muss. Man hätte auch damals schreiben können: Von Mantle sind wir nicht überzeugt. Hätte anfangs mehr als nur gepasst. Konnte mich auch noch an den Thread "Muss es (immer noch) Ultra sein" erinnern. Da waren die Änderungen kaum wahrnehmbar, trotzdem will die jeder mit 1337Hz auf 4K erreichen. Wenn man jetzt eine Technik an der Hand hat die das vielleicht mit guten FPS/Frametimes hinbekommt und dabei noch wenige Prozent der Bildqualität einbüßt, wäre das doch super. Aber wie fast alles, braucht es Zeit. Geduld ist heutzutage einfach eine Tugend.
Und das hat nichts mit Lichtdurchlässigkeit zu tun?Was soll ich sagen? Es ist schwer deine Positings zu verstehen. =/
Was spricht dagegen die selbe Anzahl an Partikeln pro Volumen unterschiedlich darzustellen?
Und das hat nichts mit Lichtdurchlässigkeit zu tun?
Du versuchst mir ständig zu erklären, wie ich die Meshtopologie dabei beeinflussen soll und ich dir, wofür Flex in erster Linie da ist.
Die Meshtopologie lässt sich aber auch anderweitig noch beeinflussen, dafür braucht es die dazugehörige Extention nicht immer und auch nur, wenn die maximale Partikelmenge erreicht ist und es um Partikelclone ginge.
Die Device API fordert für den vollen Umfang klar einen Cuda Solver, compute ist nur eine Hilfsfunktion und damit sind nicht alle Parameter uneingeschränkt auf GCN ausführbar.
Steht auch im API Manual. Was anderes lese ich da jedenfalls nicht heraus. Also müssen wenn, die Entwickler GCN berücksichtigen und das stand auch in meinem ersten Post.
Ich kann auch nicht nachstellen was du vorschlägst, weil das auf einem Mobile Gerät so nicht funktioniert, trotz open source.
Nein, open source bedeutet nicht das Nvidia etwas für andere Hersteller liefern muss. Die API ist dx11 und 12 compatible, Linux ebenso. Die Hostaktualisierung erfolgt Paket basierend und asynchrone. Die Partikeldaten und deren Callbacks werden nach Bearbeitung durch den Solver zugeordnet (Schreib- und Lesezugriffe der CPU) und das tut nun mal der Cudasolver. Es gibt dort Unterschiede zwischen Cuda und GCN. Es ist lauffähig, nur nicht ohne den dazugehörigen Solver. PhysX wäre schon immer auf GCN lauffähig mit dazugehörigen Solver, ob Cuda closed oder open source egal.Das dürfte die aneinandervorbeiste Unterhaltung aller Zeiten sein .
Doch genau das hat dann was mit Lichtdurchlässigkeit zu tun.
Eigentlich möchte ich Dir erklären wofür FleX da ist und dass Transluzenz oder SSS nichts mit der Simulation der Partikel zu tun hat.
Das widerspricht dem was ich gesehen habe und dem was in einer Präsentation von NV zu FleX steht.
In der Präsentation wurde ganz klar hervorgehoben, dass FleX herstellerunabhängig auf GPUs läuft. Einzige Einschränkung: Unter Linux gibt's nativ nur CUDA.
Nein, open source bedeutet nicht das Nvidia etwas für andere Hersteller liefern muss.
Die API ist dx11 und 12 compatible, Linux ebenso. Die Hostaktualisierung erfolgt Paket basierend und asynchrone. Die Partikeldaten und deren Callbacks werden nach Bearbeitung durch den Solver zugeordnet (Schreib- und Lesezugriffe der CPU) und das tut nun mal der Cudasolver. Es gibt dort Unterschiede zwischen Cuda und GCN. Es ist lauffähig, nur nicht ohne den dazugehörigen Solver. PhysX wäre schon immer auf GCN lauffähig mit dazugehörigen Solver, ob Cuda closed oder open source egal.
Genau das habe ich auch schon geschrieben.
Blablabla und viel hate. Und in ein paar Jahren wird er davon nichts wissen wollen. Das ist das was ich an Youtubern so liebe, die drehen sich dann wie ein Fähnchen im Wind, weil mans ja nicht so nachweisen kann wie geschriebene Artikel
Ich kenne Jays videos als sehr einseitig. Dass jemand seine Meinung als allgegenwertig darstellt finde ich super. Schon allein die Überschrift "RTX and DLSS... 2019 is going to be a record BAD year..." ist absolut BILD Niveau, oder nicht? Auf was beruft er sich, außer, dass er unzufrieden ist? Hat er in irgendwelchen Worten erklärt, wie wichtig diese Techniken sind? Nein. Dann ist es außer heißer Luft nichts. Erwähnt er, dass noch kaum eine neue 3D Technik sofort die besten Ergebnisse gebracht hat? Nein, dann ist es eben nur geistiger Dünnpfiff.Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?
Ist ja nicht so als ob er die gegenwärtige Situation korrekt wiedergibt - aber du kannst gerne Quellen die du als renommiert ansiehst posten die das Gegenteil behaupten.
Das mit RTX und DLSS alles in Ordnung ist - z.b. PCGH http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Einschraenkungen-fuer-DLSS-1275449/
Oh wait... PCGH sagt genau dasselbe wie Jay. Hmm diese elenden Youtuber!
Flex ist nicht OpenSource.
Und? Es gibt extra einen Direct Compute Solver der läuft. Das einzige, was man tun muss, ist eben nicht den CUDA Solver zu benutzen. Ich verstehe das Problem nicht.
Und PCGH ist ja an und für sich auch nicht für sein hohes Niveau bekannt, warum führst du das als Beispiel auf. Ich Sprach von renomierten Fachmagazinen, nicht Clickbaits. Immerhin: In einigen Jahren wird bei PCGH Retro die Einführung von Echtzeitraytracing stehen und nicht, dass es eine schlechte Idee war oder sonstwas.
Sorry, aber wer nicht sieht, dass diese "erfahrenen Tech-Youtuber" oft nur Selbstdarsteller (mit gutem Geschäftssinn) sind und sich teilweise weit weg von wissenschaftlicher Praxis mit ihren Themen beschäftigen, dem ist dann wohl nicht zu helfen. Einfach mal viele sauber recherchierte Artikel und Wissenschaftliche Artikel lesen lassen, damit man den Qualitätsunterschied merkt
Die technisch interessanteste Neuerung – die Integration von Spezialeinheiten für zusätzliche Raytracing-Effekte – wirft Nvidia als bloße Nebelkerze. Sie lenkt von dem geringen Leistungszuwachs gleichermaßen ab wie von den in keinem Verhältnis stehenden Preisen. An letztere wollte Nvidia die Käuferschar seit der Einführung der ersten Titan-Grafikkarten vor fünf Jahren peu à peu gewöhnen.
Blablabla und viel hate. Und in ein paar Jahren wird er davon nichts wissen wollen. Das ist das was ich an Youtubern so liebe, die drehen sich dann wie ein Fähnchen im Wind, weil mans ja nicht so nachweisen kann wie geschriebene Artikel
Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?
Ich wunder mich immer wieder warum solche Experten sich in Foren von Clickbait Magazinen tummeln.
Man braucht ganz dringend Pr.Dr.Dr.Hardware Guru um zu erkennen dass RTX und DLSS derzeit den Aufpreis nicht wert sind
Aber hey, du hast ein C't Abo uuuuuhhhh #gebildet.
Und was sagt Heise zu Turing?
Kommentar zur Nvidia GeForce RTX 2080: Der grosse Bluff | heise online
Komisch, selbst die C't hat Meinungen und teilt diese...
Die technisch interessanteste Neuerung – die Integration von Spezialeinheiten für zusätzliche Raytracing-Effekte – wirft Nvidia als bloße Nebelkerze.
Nunja, er versucht eben Klicks zu generieren, da muss man sich dem Hate-Pöbel anschließen, alleine wenn er schon sagt 6 Monate nach dem Release usw.. dann ist das für mich prinzipiell schon ein Hinweis darauf dass das Video unseriös wird und man es gar nicht weiter anschauen muss. Die Entwicklung wird dauern, ob man das jetzt gut findet oder schlecht findet sei mal dahingestellt, aber wir haben in der Vergangenheit schon so viele Beispiele gehabt, dass man eigentlich wissen sollte, dass so etwas eben auch Zeit in Anspruch nimmt.
Was rollora und seinen Hass gegenüber Videos angeht, naja lassen wir das mal, aber zu sagen PCGH hätte kein ("hohes") Niveau ist echt unterste Schublade, würde raten deinen Account löschen zu lassen, so ein elitärer niveauvoller user braucht sicher kein Forum von...Und PCGH ist ja an und für sich auch nicht für sein hohes Niveau bekannt, warum führst du das als Beispiel auf. Ich Sprach von renomierten Fachmagazinen, nicht Clickbaits. Immerhin: In einigen Jahren wird bei PCGH Retro die Einführung von Echtzeitraytracing stehen und nicht, dass es eine schlechte Idee war oder sonstwas.
Aufgelistet alle Spiele mit RTX und DLSS.
6 Monate nach Release sind 2 Spiele mit RTX auf dem Markt - auf der Liste findet sich nur EIN kommender AAA Titel der RTX Support bekommt.
RTX braucht Zeit? Klingt gut, aber hey, gib doch heute schonmal hunderte Euro dafür aus und lass sie verschimmeln und denk nicht drüber nach was wäre wenn du die Rohleistung ohne RTX und den dazugehörigen Aufpreis hättest haben können.
Dass Entwicklungen Zeit brauchen sieht man sehr gut an DX12.
Nur hat DX12 keinen Premiumaufpreis von mehreren hundert € gekostet.
Warum mich das kümmert? Weil ich in 2-3 Jahren eine GPU nachrüsten möchte und gerne Grafikkarten hätte deren Funktionen ich nutzen kann
und nicht irgendwelchen Blödsinn bezahlen muss der nichtr ausgereift ist, mir absolut keinen Mehrwert bringt, mir aber aufgezwungen wird.
Mag sein dass RTX dann Standard ist - nur hoffe ich dann eben auch dass Nvidia (oder AMD) nicht mit dem nächsten Gimmick ums Eck kommen um GPU Preise künstlich zu erhöhen!
Es ist einfach nicht ausgereift genug, aber Hauptsache den Leuten mal 1250€+ aus der Tasche ziehen bzw generell überteuerte Preise, wie ihr das alles so locker hinnehmt, ist mir ein Rätsel.
Nun kommt raus das die Technik bzw die Umsetzung nach einem halben Jahr mehr als bescheiden ist und noch immer verteidigt ihr hier... Ist es denn echt so schwer mal zu sagen was Sache ist?
Hauptsache du hast die Weisheit und eine Kelle ("hohes") Niveau mit dem Löffel gefressen, sieht man ja allein an deiner Aussage hier, wie sehr das alles gefruchtet hat!
Meine Güte, da wird sicherlich noch mehr im Laufe der Zeit kommen.
Das muss ich nicht, da ich mir den Preis einer RTX 2080 Ti locker leisten kann, unabhängig davon wie schnell DXR integriert wird oder nicht.
Welche Rohleistung ohne RTX? Die 5 bis 10% Chipfläche was die RT und Tensor Cores ausmachen, sind geschenkt.
Die 1660 Ti hat bei 1536 Shadern eine Chipfläche von knapp 300mm², die GTX 1080 kam mit 314mm² und 2560 Shadern aus, da kostet wohl die stark aufgepumpte Architektur von Turing den Platzbedarf und nicht Raytracing...
Na, da sieh mal einer an. Da haben die gleichen Nasen seit 2015 die heute so vehement gegen Weiterentwicklungen wie DXR sind, die ganzen Threads zugemüllt wie wichtig und zukunftsträchtig Directx12 doch wäre.
Und dann hat man bis heute eher magere Ergebnisse und man nutzt weiter meistens Directx11, allerdings geht es eben doch mittlerweile voran und da keine Alternative zu Directx12 von MS gepushed wurde, wird das eben die Zukunft sein.
Du kannst ja heute eine Premium Radeon VII mit 16GB HBM Speicher für 750 Euro kaufen, ohne Primitive Shader, 10% weniger Leistung als bei einer 2080, ohne DXR Unterstützung.
Dein Gefasel von wegen Premiumaufpreis ist doch lächerlich, wenn selbst der Konkurrent weniger Leistung für einen teureren Preis aufbieten kann.
Scheinbar hat Nvidia die Preise schon richtig gesetzt.
Seit wann haben sich die Hardwarefunktionen einer GPU nach der ersten Serie damit so durchgesetzt, dass man sie permanent nutzen kann? Erinnerst du dich noch an Tesselation, oder die Einführung von compute-shadern?
Blabblabla... es ist doch mittlerweile klar was deine Hauptaussage ist. Dass nach knapp 6 Monaten Hardwareverfügbarkeit noch keine entsprechende Software breit auf dem Markt verfügbar ist.
Das scheint ja generell erst seit Turing ein Problem zu sein, wo man wieder auf die Preiskritik kommt.
Im Grunde genommen hatest du doch nur eben auf dem gleichen Niveau wie die anderen Nörgler auf dem Preis der Hardware herum, Huang soll sie für dich bitte billiger machen.
Ein Unternehmen nimmt eben so viel wie sie nehmen können, wenn du dir das nicht mehr leisten kannst, dann ist mir das ziemlich egal, denn man muss definitiv nicht immer ganz nach oben ins Regal greifen.
Hatte ich früher auch nicht tun können, habe aber trotzdem nicht das ganze Forum mit dem gewhine zugespammt.
Tja, Heise hat sich seit dem NDA-Quatsch schon lange von einem neutralen Journalismus entfernt. Die Einführung von Echtzeitraytracing ist alles andere als eine Nebelkerze.
Dazu muss man sich einfach nur mal ein paar Videos mit Entwicklern anschauen, die die Funktionsweise und Integration erklären.
Kannst du auch nur eines seiner Argumente entkräften ohne "blabla"?
DLSS sieht einfach shice aus, RT kann man drüber streiten.
Weil es AMD seit dem 16.9.1 zu Demonstrationszwecken unterstützt und der gesamte Gameworkssource ohne Anmeldung im nV-Devcenter mittlerweile über Unity und github herunter geladen werden kann, sowie es in UE bereits integriert ist. Eulas wie Freiheraus es beschrieb.
Könntest du mal kurz erklären was du unter Solver verstehst - Hilfsprogramm? DX11/12?
Meiner Kenntnis nach gebrauchte dieser viel zu hohe Tesselationstufen auf AMD Hardware womit die hardwarebeschleunigte Animation viel langsamer als auf Cuda ausgeführt wird. Das war auch der Grund den AMD damals bei PhysX vorhielt und nV antwortete, dass man es anpassen könnte, AMD eben seinen eigenen Solver schreibt, was sie aber nicht wollten.
Open source ist kein Begriff für generell freie Software.
Genau, im Laufe der Zeit wird sich RTX auch als Feature rechtfertigen.
Achja, die Neid / Geiz Debatte wieder. Wenn Du Dir Hardware für mehrere tausend € in die Sig schreibst kostet dich das keinen Cent.
Und ist das jetzt ein sinnvolles Argument? Ich kanns mir leisten also kanns insgesamt nicht zu teuer sein?
Es geht nicht um den Platzbedarf, es geht darum dass Nvidia das Topmodell mal eben 300-500€ teurer gemacht hat.
Merkst du was? DX12 war the next big thing. Und es ist garnichts passiert, jahrelang. Aktuell ist RTX the next big thing und der Ausblick an Spielen damit ist ähnlich wie damals bei DX12.
Entwickler basteln Spiele damit sie auf sehr vielen verschiedenen Systemen laufen. RTX kostet Zeit und Aufwand, nicht jeder Entwickler macht das mit wenn nur eine absolute Minderheit überhaupt GPUs mit diesem Feature nutzt.
Und wenn Dir nichtsmehr einfällt wird AMD gebasht. Schon blöd wenn einem die Argumente ausgehen.
Richtig. Und seit wann haben die Hardwarefunktionen einer GPU diese deutlich verteuert? Korrekt, ab Turing. Beweisführung abgeschlossen.
Und wieder, keine Argumente - "hatest", "Nörgler" - überhaupt nicht verstanden worum es geht.
Das sagt PCGH, das sagt der Markt der Turing deutlich schlechter annimmt als Pascal, das sagt sogar Huang.
Nur seh ich das nicht ein. Und wie erwähnt, dass du überhaupt Besitzer einer 2080ti bist - naja behaupten kann man vieles.