Nvidia Geforce: Treiber hebt 10-Bit-Limitierung unter OpenGL auf

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce: Treiber hebt 10-Bit-Limitierung unter OpenGL auf

Nvidia gibt den Support von 10-Bit pro Farbkanal unter der OpenGL-API nun auch für Grafikkarten der Geforce- und Titan-Reihe frei. Das verkündete das Unternehmen im Rahmen der aktuellen Siggraph. Bislang gab es entsprechende Unterstützung nur in Verbindung mit der Quadro-Reihe für den Profi-Markt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce: Treiber hebt 10-Bit-Limitierung unter OpenGL auf
 
Nvidia trommelt weiter die Werbetrommel für Raytracing?
Darf ich Raytracing in GIS-Anwendungen haben? Karten mit Raytracing-Effekten in QGIS oder ArcGIS zu erstellen wäre witzig. Oder in TANNIS - endlich Glasfaserinfrastrukturen mit Raytracing planen.

Könnte ein kleines bisschen nicht ernst gemeint sein.
 
Frage von mir als Farb-Laien:
Wofür braucht man 10bit bei den Farben?
Für die menschliche Wahrnehmung an Farben kann es mMn nicht sein, so viele verschiedene Farben sieht kein Mensch.
Hat das was mit Computing oder HDR zu tun?
 
Man hat halt feinere Abstufungen. Daneben ist ein höherer Dynamikumfang bei gleicher Abstufung möglich (HDR).

Bei Profimonitoren ist 10 Bit Standard.
 
Frage von mir als Farb-Laien:
Wofür braucht man 10bit bei den Farben?
Für die menschliche Wahrnehmung an Farben kann es mMn nicht sein, so viele verschiedene Farben sieht kein Mensch.
Hat das was mit Computing oder HDR zu tun?

https://www.nvidia.com/content/dam/...-favorite-creative-apps/24-bit-32-bit-gfe.png

Spiele haben immer noch nur 8 und eine handvoll Photo/Render Programme 10/12 und 30bpc

Man hat also etwas freigeschaltet was eh niemand nutzt, mangels Anwendungen, Monitoren und Portemonnaie.
Und Profis die mehrere tausend Euro für Software und Monitore ausgeben um damit zu arbeiten nutzen eh eine Quadro.

Von daher wayne, sollen lieber Workstation Funktionen auf GTX/RTX Karten freischalten
 
Zuletzt bearbeitet:


Ich habe das Bild gerade mal in 24bit umgewandelt und sehe beim rechten Beispiel keinerlei Unterschied, selbst mit hin- und herwechseln.
Auch meine Freundin (Frauen sehen im Schnitt mehr Farben als Männer) kann da nichts feststellen, für uns sind die Übergänge absolut fließend und weich.

Aber vielleicht ist das ein Effekt, den man erst erkennt, wenn man die bessere Möglichkeit (also 30bit-Monitor) vor Augen hat. War in der Vergangenheit ja oft genau so (VGA->DVI, nichtHD->HD, HD->4k, schlechter Sound -> guter Sound).
 
Vorsicht - es geht auch darum in welcher Bittiefe ein Bild GENERIERT wird, bedeutet mit welcher Genauigkeit (=Nachkommastellen) gerechnet wird.
Wenn du ein fertiges Bild hin und herwandelst ist das was völlig anderes, als wenn eine 3D-Renderinganwendung ein Bild aus Rohdaten generiert und mit denen Tausendfach rumrechnen muss.

Natürlich kann man drüber streiten wie viel es am Ende bringt und natürlich ist das Beispielbild von NV ein werbegünstiger worst-case. Aber generell bringt eine höhere Bittiefe geringere Rechenungenauigkeiten und entsprechend sauberere Farbverläufe.
 
Ohne entsprechenden Monitor kann man das auch nicht sehen. Bringt genauso wenig, wie Vergleichsbilder SDR/HDR oder TN/OLED.
 
Ich habe das Bild gerade mal in 24bit umgewandelt und sehe beim rechten Beispiel keinerlei Unterschied, selbst mit hin- und herwechseln.
Auch meine Freundin (Frauen sehen im Schnitt mehr Farben als Männer) kann da nichts feststellen, für uns sind die Übergänge absolut fließend und weich.

Aber vielleicht ist das ein Effekt, den man erst erkennt, wenn man die bessere Möglichkeit (also 30bit-Monitor) vor Augen hat. War in der Vergangenheit ja oft genau so (VGA->DVI, nichtHD->HD, HD->4k, schlechter Sound -> guter Sound).

Was redest du da eigentlich?
Es gibt doch nur 6, 8 oder 10 bit Bildschirme?
Man darf die Bitausgabe also nicht mit der Bittiefe eines Bildes vergleichen wollen.
Es bringt auch nichts, ein HDRxxxx Bild mit einem SDR Bild auf einem handelsüblichen Monitor vergleichen zu wollen.
Oder allgemein Kontrastwerte oder Farbwerte zweier Bilder.
Den gleichen Kram hat man bei Soundkarten.
Stell da ruhig 192kbit ein, wenn da nur 44khz von der Quelle ausgegeben werden kann.
 
Vorsicht - es geht auch darum in welcher Bittiefe ein Bild GENERIERT wird, bedeutet mit welcher Genauigkeit (=Nachkommastellen) gerechnet wird.
Wenn du ein fertiges Bild hin und herwandelst ist das was völlig anderes, als wenn eine 3D-Renderinganwendung ein Bild aus Rohdaten generiert und mit denen Tausendfach rumrechnen muss.

Natürlich kann man drüber streiten wie viel es am Ende bringt und natürlich ist das Beispielbild von NV ein werbegünstiger worst-case. Aber generell bringt eine höhere Bittiefe geringere Rechenungenauigkeiten und entsprechend sauberere Farbverläufe.

Wird in solchen Fällen nicht intern eh mit FP32 pro Kanal gerechnet?
 
Ich habe das Bild gerade mal in 24bit umgewandelt und sehe beim rechten Beispiel keinerlei Unterschied, selbst mit hin- und herwechseln.
Auch meine Freundin (Frauen sehen im Schnitt mehr Farben als Männer) kann da nichts feststellen, für uns sind die Übergänge absolut fließend und weich.

Aber vielleicht ist das ein Effekt, den man erst erkennt, wenn man die bessere Möglichkeit (also 30bit-Monitor) vor Augen hat. War in der Vergangenheit ja oft genau so (VGA->DVI, nichtHD->HD, HD->4k, schlechter Sound -> guter Sound).

Der bessere Vergleich ist "HDR vs. nicht-HDR". Man kann Bilder so runterrechnen, dass sie den Effekt verdeutlichen. Aber natürlich kann man auf einem Monitor, der weder HDR noch 10 Bit darstellt, nicht die Vorteile demonstrieren, sondern man kann nur ein Bild mit deutlich reduziertem Dynamik-Umfang respektive deutlich reduzierter Farbtiefe danebenstellen, dass soviel schlechter als SDR/8 Bit ist, wie HDR/10 Bit besser wären. Im Beispiel wird das bessere Bild natürlich sowieso nur mit 8 Bit ausgegeben und wenn du es runterrechnest, hat die Ausgabe immer noch 8 Bit => kein Unterschied.


Vorsicht - es geht auch darum in welcher Bittiefe ein Bild GENERIERT wird, bedeutet mit welcher Genauigkeit (=Nachkommastellen) gerechnet wird.
Wenn du ein fertiges Bild hin und herwandelst ist das was völlig anderes, als wenn eine 3D-Renderinganwendung ein Bild aus Rohdaten generiert und mit denen Tausendfach rumrechnen muss.

Natürlich kann man drüber streiten wie viel es am Ende bringt und natürlich ist das Beispielbild von NV ein werbegünstiger worst-case. Aber generell bringt eine höhere Bittiefe geringere Rechenungenauigkeiten und entsprechend sauberere Farbverläufe.

Berechnet werden die Bilder in weitaus höheren Farbtiefen. Spätestens mit der Einführung von HDR-Rendering sind mindestens 16 Bit pro Kanal üblich, aber schon die Voodoo 4 müsste intern immer mit 10 oder 12 Bit gerechnet haben, genauso wie die Kyro II vorher mit 8 Bit rechnete, auch wenn nur 5 Bit ausgegeben werden sollten. Vor der Ausgabe wird das Bild an die Fähigkeiten des Monitors angepasst.
 
Ja aber nur wenn es die Anwendung und der Monitor unterstützt.

Studio Treiber unterstützt generell keine Kepler und Maxwell Karten, spätestens ab dem nächsten Game Ready Driver sollte die 10Bit Limitierung auch für Kepler, Maxwell aufgehoben sein.
 
Zurück