AW: Geforce GTX 1650: Turing-Ablöse der GTX 1050 Ti und langerwartete Konkurrenz zur RX 570
Hier hat doch niemand das Leistungsvermögen belächelt, es geht darum das man die 1650 unterm Turingbranch verkauft, sie aber was den NVENC angeht beschneidet. Gerade die schwächere GPU könnte davon profitieren, schon dann wenn man sie als Multimedia für Gelegenheitsspieler bewirbt.
Das nVidia bei transcodieren oder Streaming Vorteile hat, weil größenteils auch darauf optimiert wird, will doch niemand abstreiten. Hier liegen die Latenzzeiten bis zu 9ms niedriger als AMD VCEs oder 5ms gegenüber Intels H.264 pro Frame, hängt aber im real-life Stream auch von den Pingzeiten ab und beim Encodieren/Decodieren von der verwendeten Software.
Wie geschrieben kann Turings NVENC Version dabei bis zu 15% schneller sein, schon dann wenn man dabei auch auf GPGPU und CPU zurückgreift. Es hätte daher Sinn gemacht genau diesen Codec plus der dazugehörigen Einheit im TU117 zu implementieren.
So verkauft man ihn unter Turing und GTX Logos, verwendet aber den älteren und damit langsameren Standard Voltas, wobei der nur noch jeweils eine Einheit besitzt, Pascal noch zwei.
Pascal würde übrigens genauso 8k am DP 1.4a und VDCS v1.2 wiedergeben können, dass ist keine Frage der Einheiten oder GPU, sondern des Compressionsstandards.
Die Diskussion wird irreführend weil hier die immer Gleichen sofort mit AMD Vergleichen kommen, um von dem eigentlichen Thema abzulenken, und das ist pure Absicht dieses Klientel. Die seit dem Aktiencrash und dem Abfallen der GPU Verkäufe nVidias wie Sand am Meer in Foren zu finden sind und irgendwelches unsinniges Zeug dazwischen blubbern.
Wie ich schon geschildert habe, hat die Turing Encoding Architektur nicht nur Vorteile, und ich sehe diese kaum bis gar nicht gegenüber Pascal/Volta, was die Video Engine angeht. Denn es wurde unter anderem das Field Encoding komplett gestrichen.
Und mit 4K 60fps scheint sie auch so Ihre Probleme zu haben. Den scheinbar Geschwindigkeitsvorteil bei meinem System habe ich nicht festgestellt, und ich habe 3 verschiedene Turing Grafikkarten getestet.
Und wir reden hier immer noch vom Hobbyencoding, denn wer nutzt denn da bei einer GTX1650 GPGPU im grossen Stil ?! Zumal bei der Turing Serie auch die höherpreisigen professionellen Karten wohl auch nur noch 1 NVENC Kern haben, im Gegensatz zum Vorgänger.
Video Encode and Decode GPU Support Matrix | NVIDIA Developer
https://devtalk.nvidia.com/default/topic/1038493/video-codec-sdk/details-about-nvenc-in-turing-/1
In den Nvidia Threads sind nicht alle so begeistert von den Turings. Aber das nur am Rande.
Ich sehe hier so gut wie keinen Vorteil der Turing Architektur, ausser bei 4K 24FPS. Natürlich ist das Software und Codec abhängig, aber hat sich irgendwer mal die Mühe gemacht, die Cores auf die wichtigsten Codecs zu vergleichen ?!
Jedenfalls, ich habe das mit meiner Software bei mir gemacht, und es besteht bei mir überhaupt kein Unterschied, was die Geschwindigkeit angeht. Ausser beim kodieren von 4K 24FPS Material, aber sonst habe ich keinen Vorteil gesehen. Bei 4K 60fps waren die Turings sogar langsamer, und Interlaced HW Support wurde gestrichen, was ich leider noch benötige (TV Aufnahmen und ältere Files).
Die GTX1650 ist in meinen Augen gut bedient mit dem "Volta" Kern, denn ich sehe hier eben keinen Nachteil, wie Du. Das ist meine Meinung, deine respektiere ich auch.
Jedoch - und das stimmt - die GTX1650 ist zu teuer und müsste eigentlich als eine Pascal GTX1065 Version deklariert sein, und nicht als Turing.
Und wenn einem die AMD Vergleiche nicht passen, der sollte sich den Titel mal durchlesen. Hier wird Bezug auf eine RX570 genommen, also ist diese sachliche Diskussion auch legitim.
Aber das Thema ist für mich durch. Alles von meiner Seite gesagt, jeder soll sich sein eigenes Bild machen.