x1337x
PC-Selbstbauer(in)
3,4 Millionen dynamischen und emittierenden Dreiecken in weniger als 50 Millisekunde pro Frame rendert.
3.4M ist nett, aber 50ms sind viel zu viel.
Das wären ja gerade mal 20 fps.
3,4 Millionen dynamischen und emittierenden Dreiecken in weniger als 50 Millisekunde pro Frame rendert.
Die Karten sind auf jeden Fall nicht einfach kaputt und funktionieren auch ohne RTX ja ganz ok
Ich warte da auch noch ab, bis sich RT in den Spielen durchgesetzt hat.
Hab eh erst neue Karten eingebaut.
In 3 Jahren kommt dann was neues.
Wenn der Speicher immer mehr zum limitierenden Faktor wird, sollte vielleicht langsam das Design der Grafikkarte an sich überdacht werden und ähnlich bei beim Mobo Plätze für austauschbaren Ram eingebracht werden. Dann könnte die Base-Variante mit 8 oder 16GB verkauft werden und wer mehr bräuchte könnte noch 1 - 3 Riegel nachkaufen und upgraden. Wär doch mal ne sinnvolle Entwicklung
Bis jezt hatte es locker drei Generationen gebraucht bis neue Funktionen gut & praxisnah funktionierten.
Wäre dann mit der RTX 40X0 soweit was dank AMD&NV (bzw. manges echter Konkurenz) auchin 3 Jahren der Fall wäre.
Past allso 1A.
Ich würde sagen, dass ihnen genau das nicht gelungen ist. Die Stärke von Raytraycing-Beleuchtung ist der realistische, detaillierte Gesamteindruck, aber diese Demo wirkt ausgesprochen unnatürlich. Auch in Bezug auf Schattendetails und -verteilung. Gerade die spannendste Frage "gehen die Vereinfachungen mit einem Verlust an Bildqualität einher?" lässt sich so praktisch nicht beantworten.
Und immer noch ist keine Karte dazu in der Lage es vernünftig darzustellen.
Es wird mit etwas Werbung gemacht, steht auch dick auf der Verpackung, aber willst es im Spiel komplett nutzen knickt die Karte voll ein. Daher einfach nur sinnlos der ganze kram.
Wenn der Speicher immer mehr zum limitierenden Faktor wird, sollte vielleicht langsam das Design der Grafikkarte an sich überdacht werden und ähnlich bei beim Mobo Plätze für austauschbaren Ram eingebracht werden. Dann könnte die Base-Variante mit 8 oder 16GB verkauft werden und wer mehr bräuchte könnte noch 1 - 3 Riegel nachkaufen und upgraden. Wär doch mal ne sinnvolle Entwicklung
Du meinst das man da noch Plätze frei hat um einfach auf der gpu weiteren vram draufstecken kann. Wäre da echt ne gute Idee. Dann hätte keiner mehr vram sorgen. Einfach 8 oder mehr GB auf die gpu drauf stecken. Machen wir doch gleich alles modular. Das heißt haben sie zu wenig Kerne bzw zu wenig shader, dann wechseln sie doch den Chip und schwups haben sie fast doppel so viele davon. Das wäre es doch. Dann hätte es doch nvidia und die anderen Konsorten leichter was neues rauszubringen. Was hält ihr denn von dieser ganzen Idee?
Das geht nicht. Das macht die Anbindung des Speichers nicht mit.
Im Gegenteil. Mit HBM rückt der Speicher noch näher an die GPU.
Und dann findest du eine schnöde Resamplingmethode besser, die einfach nur "schätzt" und was hat das noch mit Echtzeit und Realismus zu tun, wenn ich Millionen künstliche Lichtquellen einfügen kann, um Szenen dann neben RT sinnhaft ausleuchten zu können? Das ist doch nichts weiter als bekanntes (Frickel-) Rendering wie GI oder SSR, auch dort kamen schon Tracer in einer Lightmap zum Einsatz.Dann wollen wir doch mal hoffen, dass die neuen Karten deutlich mehr VRam bekommen und nicht nur 2 Gb mehr wie schon mehrfach prognostiziert.
Na dann, hoffe mal weiter. Frage mich gerade wie man das an 320bit oder 35xbit anbinden will. It's not a bug, it's a feature....?Ich hoffe auf "3080" mit 12 Gb und 3080 Ti mit 16 Gb.
Ist doch trauig das solche technikbegeisterten Leute wie er nicht RTX kaufen!
12 GiB ist sowohl mit 196 Bit, als auch mit 392 Bit Anbindung möglich.
Die RTX-Karten sind bei Turing einfach zu teuer.
Interessant finde ich Raytracing schon.
Was wird denn in dem Artikel gesagt (du denkst ich kenne den nicht?), NULL reine Spekulation. Man ist sich nicht mal sicher welche Stufe in Hardware unterstützt wird. Und falls es dir entgangen ist, Tier_2 ist schon ein deutlicher Umbruch. DXR ermöglicht auf Basis von directX RT Algorithmen in Hardwarenähe auszuführen, schreibt aber in keiner Weise vor in welcher Methode, wie die unterschiedlichen Stacks in der Entwicklung von RTX aufzeigen und an diesem Beispiel wunderbar belegen. Es sind vor allem gemeinsame Vorgaben für die Hardware, die man erfüllen muss um directX als Standard auszuführen, optional ist immer möglich und so war das schon immer.RTX ist keinerlei Gefrickel, sondern eine ziemlich gut funktionierende SDK, die einfach nur die DXR-Schnittstelle in DX12 nutzt, bzw. bald dann eben DX12U.
Nö, AMD wird auch DXR unterstützten:
Raytracing: So werden Strahlen von GPUs beschleunigt: Raytracing bei AMD und Fazit - ComputerBase
AMD hat auch gar nicht die Möglichkeit, einen parallelen Standard durchzusetzen. Ich sage nur Mantle.
O.k. ich verstehe. Vllt. mal ein Rat von mir: "nicht zuweit aus dem Fenster lehnen", Marketingfolien ablesen und beschäftige dich in dem Zusammenhang dieser News mit Pathspace und weiterer Methodik.Falsch, für den Spieleentwickler ist RTX deutlich preiswerter, als zig Artists nur damit zu beschäftigen, die Lichteffekte zu faken
Was geht denn bei dir ab? Schlecht geschlafen? Wo steht das denn?
Deine Lese- und Sozialkompetenz ist aber mal auf nem unterirdischen Niveau.
Auch wenn es hier einige PC Besitzer nicht hören wollen. Vielleicht ist der Weg der neuen Konsolen eventuell doch der bessere. Schnelle SSDs die den Speicher innerhalb einer halben Sekunde füllen, so das nicht mehr so viele Assets in den Speicher geladen werden müssen, die eventuell nie abgefragt werden...
Ja und genau deshalb wird RTX dann auch genauso auf den AMD-Karten mit DXR-Support laufen.
Alleine durch die XBox kann es sich AMD gar nicht leisten, DXR nicht zu unterstützen.
In den Ram schiebst du es sowieso, weil das gar nicht anders geht.