Da ich recht lange Redshift zum Rendern benutzt habe:
Meiner Meinung nach ist das hauptsächlich eine Werbeaktion von Maxon um Redshift zu verkaufen (ist kompatibel zu eigentlich jeder 3D-Software). Da Redshift als biased Renderer nicht-physikalisch-korrekte Ergebnisse liefert, dadurch aber deutlich schneller rendert, ist es tatsächlich einer der besten GPU-Renderer zur Zeit und auch Industriestandard für zumindest Pre-Visualization.
Was der Benchmark natürlich wunderbar zeigt: Der Vorteil von GPUs für solche Anwendungen. Da Redshift auch Out-of-Core arbeiten kann, fallen die Begrenzungen bei der Szenengröße weg, die bisher die meisten GPUs daran gehindert haben, effektiv an CGI in Hollywood-Qualität zu arbeiten. Daher hilft bei GPUs mit "wenig" Speicher (hat jemand mal auf die Speicherauslastung geachtet, mit 24 GB?) eine schnelle Anbindung.
Überhaupt lasten die meisten aktuellen Offline-Pathtracer die GPUs sehr ungünstig aus. Bei Blenders Cycles genau das Gleiche. Redshifts eigener Benchmark ist etwas aussagekräftiger da rechenintensiver – aber der Verbrauch geht auch da nie ans Limit. Takt, Speicher und Speicheranbindung (auch zum RAM) sind in Summe wichtiger.
Da nicht genau beschrieben ist, welche Redshift-Features in Cinebench R24 aktiv sind: Über die OptiX-Bibliothek können sowohl die Raytracingkerne als auch die Tensorkerne (zum Entrauschen) auf nVidia-Karten genutzt werden. Gerade die "RTX"-Beschleunigung hat in Szenen mit viel Geometriedetails die nVidia-Karten ordentlich nach Vorne gebracht.
Wer Interesse hat schaut sich mal die "Echtzeit"-Demos von Redshift auf YouTube an: Mit AI-Denoiser und Raytracing-Beschleunigung geht da echt schon Einiges (auch wenn nVidias eigene Algorithmen/Demos meist noch besser sind).