Battlefield 5 im Blindtest: Bemerkt man Raytracing?

Anders sieht das aus, wenn es Gameengienes rein auf RT Basis gibt, die ohen eine RT Karte nicht laufen,

darauf wollte ich hinaus u wenn man irgendwann dedizierte RT Karten baut liegt es auf der Hand das man dahin tendiert und nicht mehr auf SFR/AFR angewiesen ist

So wie das in der Filmbranche im Quadro Aufgabengebiet, schon Gang u Gäbe ist GPU Cluster mit fast 100% Scallierung zum Rendern zu nutzen, ohne die Nachteile von SLI/Crossfire Gedöns

Ich denke mal das man Turing irgendwann auch die NVLink Brücke der 2080 TI für solche Aufgaben entsperrt um die hohe Bandbreite z.B für den Shared Vram zu nutzen im Treiber, dann wird es auch wieder interessant ein Cluster aus mehreren Karten zu verbinden

Eine könnte die Beleuchtung berechnen, eine die Kollisionsabfrage erledigen, wieder eine andere die Spiegelungen usw usf

Imo muss man eh noch beides supporten da die Infrastruktur/Engines erst aufgebaut werden müssen ,daher konnte Turing gar nicht mehr auf das eine oder das andere ausgerichtet werden

dann hat die "Rasterizierungs-GPU" aber Freizeit und Idled rum ;)

Teilbereiche Shader davon könnten sehr gut auch die Aufgaben der Tensor Kerne unterstüzen da muss nix idlen
 
Zuletzt bearbeitet:
Das bringt doch nichts, was sollen denn die ollen Shader da berechnen, was die RT-Karte nicht selbst deutlich effizienter kann?

Und das Thema Video-Rendering skaliert ja auch auf Consumer-Karten entsprechend, wenn es genug zu rendern gibt. Das ist ja nicht das Problem des VBIOS auf der GPU, sondern ein Anwendungsthema.
Bei Renderung von Videos ist eine gleichmäßige framerate nicht wichtig, wenn Frame1 18ms braucht, und Frame 3 plötzlich 38ms und Frame 2 nur 6ms, dann ist das beim Videorendering völlig egal, so lange nicht die 6ms die Datenrate zum Wegschreiben der Daten sprengt. Das sind doch 2 paar völlig verschiedene Bereiche die man absolut nicht vergleichen kann.
GPGPU-Usage skalliert eigentlich immer gut, und das auch ohne Bridge, vor allem wenn genug parallele Aufgaben vorhanden sind.

F@H kannst ja auch mit 4 GPUs voll nutzen, wobei 4 gleichartige GPUs auch etwa 4 fach so viel Leistung wie eine Einzele bringen.


Und das Thema reine RT-Engines; ja wäre vielleicht nice, davon sind wir aber noch meilenweit entfernt, ne 2080Ti kann selbst in fHD nur 8% (?) der Szene in RT rendern um am Ende noch bei 60Hz raus zu kommen?
Realtime RT GPUs sprengen aktuell die Möglichkeiten der Technik eines PCs, und zwar in mehreren Punkten.
 
Das bringt doch nichts, was sollen denn die ollen Shader da berechnen, was die RT-Karte nicht selbst deutlich effizienter kann?
.
nun wenn sie einmal da sind, kann man sie ja auch nutzen , so wie derzeit für den Denoiser Part in Battlefield, der derzeit wohl immer noch mit den regulären Shader komplettiert wird

somit wäre ein Teil der Rastergrafikarchitektur wenigstens dann nicht sinnlos verbaut, sollte es dann mal soweit sein für reine RT Engines
 
Es wird so fix keine reinen RT Engines geben, und wenn se dann da sind, ist in so ner RT Karte auch genug Rechenleistung.
Das Thema erledigt sich von selbst.
Sowas wie ne Voodoo1 oder Voodoo2 wirds nie wieder geben.
 
Zurück