3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

ich denke sie erkennt, wenn die grafikkarte kein 3d signal mehr berechnen mußt und damit keinen takt an die brille schickt. Ist das 10min der fall, schaltet sie sich aus...

also genau, wie ich gesagt habe. Um diese Technik zu entwickeln haben die bestimmt 20 Milliarden Dollar ausgegeben, die eigentlich hätten in Wirtschaftsförderung gesteckt werden sollen. und das schlägt sich im preis nieder. :D
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Kein Traum.
Mein einer Monitor(VX922) als beispiel hat reale 16ms(PCGH Test). Das liegt aber nur daran, dass bei 60hz nicht mehr drin ist. (Ich frage mich auch, warum sie den nicht auf 75hz getestet haben, denn er gehört zu den wenigen, die es nativ können).
Also wäre es auch möglich niedriger zu kommen...

Hmm - der muss wohl aufgrund der miesen Bildqualität an mir vorbeigegangen sein.
THG hat ihn sogar in den 10ms-Bereich gebracht.

gilt wie gleich unter dem kino geschrieben nicht für jeden so. das sind alles sehr subjektive sachen. Das problem bei TFTs ist ja nicht nur, dass sie unscharf werden, sodnern, dass sich z.b. doppelte ränder bilden und das erkennt man auch mit ungeschulten auge...

Doppelte Ränder bilden sich nur, wenn zwei Bilder zeitgleich zu sehen sind, zwischen denen sich die Position des Randes aber deutlich verändert hat.
Das klappt nicht mehr in dem von mir konstruierten Fall mit quasi unendlich hoher Akutalisierung. Da wäre zwischen den beiden Rändern auch noch versucht worden, jeden einzelnen Zwischenzustand anzuzeigen. Ergebniss ist ein verschmierter Rand, wobei die Leuchtstärke mit dem Alter und somit Abstand zur gerade aktuellen Position gleichmäßig abnimmt - 1a Motion Blur. Auch technisch mit Kino vergleichbar: Ob ich nun kontinuirlich einen Film belichte, der dann anschließend die Bewegung über einen längeren Zeitraum als "Schmier" enthält, oder ob ich kontinuirlich ein Display mit Informationen füttere, die das ebenfalls zu "einem" Bild vereinigt, kommt aufs gleiche raus.

Wenn einem das Bild im Kino nicht reicht (ich schließ mich da durchaus an ;) ), dann ist "Bild wie im Kino" natürlich auch nicht so prall.


Nehmen wir mal ich würde einen 120Hz LCD Monitor besitzen, und würde ein Spiel spielen, Crysis zum Beispiel und das liefert bei mir nur 40 fps, Würde es dann mit der 3d Brille anfangen zu flackern(zwischen Hintergrund und Objektvordergrund) oder wie gewohnt insgesamt zu ruckeln? Das flackern würde mich mehr stören als das leichte ruckeln.

Gute Frage eigentlich - die 3D Berechnung hat zwar in der Vergangenheit wenig Leistung gekostet, aber trotz allem muss die Grafikkarte ja alle 16ms ein anderes Bild abliefern und kann nicht einfach ein altes nochmal anzeigen, wenns "mal wieder länger dauert".
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Hmm - der muss wohl aufgrund der miesen Bildqualität an mir vorbeigegangen sein.
THG hat ihn sogar in den 10ms-Bereich gebracht.
Miese bild qualität? Ich weiß nicht ob du es richtig gelesen hast, aber es steht explizit drin, dass das problem bei den anderen displays auftrat, aber explizit dieser nicht. Der TFT war damals das Maß aller dinge. (hat auch keine lichthöfe und gehört von der qualität zur oberen hälfte der getesteten geräte)
Dazu hat es eine der besten upscalling funktionen
Doppelte Ränder bilden sich nur, wenn zwei Bilder zeitgleich zu sehen sind, zwischen denen sich die Position des Randes aber deutlich verändert hat.
Das klappt nicht mehr in dem von mir konstruierten Fall mit quasi unendlich hoher Akutalisierung. Da wäre zwischen den beiden Rändern auch noch versucht worden, jeden einzelnen Zwischenzustand anzuzeigen. Ergebniss ist ein verschmierter Rand, wobei die Leuchtstärke mit dem Alter und somit Abstand zur gerade aktuellen Position gleichmäßig abnimmt - 1a Motion Blur. Auch technisch mit Kino vergleichbar: Ob ich nun kontinuirlich einen Film belichte, der dann anschließend die Bewegung über einen längeren Zeitraum als "Schmier" enthält, oder ob ich kontinuirlich ein Display mit Informationen füttere, die das ebenfalls zu "einem" Bild vereinigt, kommt aufs gleiche raus.
Nicht ganz, denn das problem ist, dass die kristalle je nach farbwechsel verschieden schnell reagieren. Wenn z.b. ein schwarzer rand rot werden soll und zwei stellen weiter der weiße punkt schwarz werden soll, kann der weiß-schwarze das shcneller als der andere. dadurch kann sowas auch erzeugt werden. Die theorie des reaktionslosen displays hat nur leider nichts mit der praxis zu tun. Dazu ändert sich ja auch immer nur der teil des bildes, der neue informationen bekommt. der erst bleibt stehen. Weshalb es passieren kann, das die bilder sich mischen, weil z.B. der eine part noch umstellt, während der andere schon die nächste szene aufbaut und das sähe dann extrem unschön aus.
Wenn einem das Bild im Kino nicht reicht (ich schließ mich da durchaus an ;) ), dann ist "Bild wie im Kino" natürlich auch nicht so prall.
Jub stimme da voll zu
Gute Frage eigentlich - die 3D Berechnung hat zwar in der Vergangenheit wenig Leistung gekostet, aber trotz allem muss die Grafikkarte ja alle 16ms ein anderes Bild abliefern und kann nicht einfach ein altes nochmal anzeigen, wenns "mal wieder länger dauert".
vermutlich wird die grafikkarte das alte bild (für jede seite) immer merken und es so lange wiederholen, bis ein neues berechnet ist. Ist ja nur eine frage der software, was sie der grafikkarte sagt...
 
Zuletzt bearbeitet:
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Mit der Qualität meine ich vor allem die Farbwiedergabe (sowohl hinsichtlich Kalibrierung als auch Abstufung), Videowiedergabe und vor allem die miserablen Blickwinkel ;)

Unterschiedliche Reaktionszeit je nach Farbe :huh:
Bist du dir sicher? S/W oder G/G macht zwar ein Unterschied, aber die unterschiedlichen Farben kommen beim TFT ausschließlich durch passive Filter, die Helligkeitsänderung funktioniert für unterschiedliche Subpixel dagegen genau gleich.
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Mit der Qualität meine ich vor allem die Farbwiedergabe (sowohl hinsichtlich Kalibrierung als auch Abstufung), Videowiedergabe und vor allem die miserablen Blickwinkel ;)
Farbwiedergabe ist natürlich nur die eines Pn Panels. Dazu waren damals die TFTs nicht so knülle.
Ich habe ihn 2006 auch gekauft und wie gesagt, damals gab es nichts wirklich besseres (hier mal noch ein anderer test http://www.prad.de/new/monitore/test-viewsonic-vx922-teil6.html#Bildqualitaet)
Inzwischen ist er natürlich abgesehen von reaktionszeit veraltet...
Unterschiedliche Reaktionszeit je nach Farbe :huh:
Bist du dir sicher? S/W oder G/G macht zwar ein Unterschied, aber die unterschiedlichen Farben kommen beim TFT ausschließlich durch passive Filter, die Helligkeitsänderung funktioniert für unterschiedliche Subpixel dagegen genau gleich.

nicht die verschiedenen farben. sondern die die von schwarz nach weiß bzw umgekehrt wechseln, wechseln schneller, als die z.b von rot nach grün oder von weiß nach grau oder grau nach grau. damit kann es passieren, dass sie aufgrund der trägheit, bilder mischen...
 
Zuletzt bearbeitet:
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Die unterschiede zwischen verschedenen g-g Wechseln liegen bei overdrive-Monitoren unter 20% und mal ehrlich: Wie oft hat man so viele verschiedene Kontraste in nem Spiel?
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Öfter als einen bildschirm mit "unendlicher" wiederholungsrate ;)
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Was mich brennend interessiert, da ich gerade vor dem Kauf eines neuen TV-LCDs stehe, ob die Brille auch mit solchen Geräten umgehen kann?

Z.B. kommt für mich der Sony z4500 mit 200Hz in Frage. Funktioniert oder nicht?? Ich hab schon halb Internet abgesucht, niergends wird es angesprochen. Nachdem hier einige eXperten unterwegs sind, hoffe ich auf eine glaubwürdige Antwort, hehe

schon mal Danke im Voraus. Waldi
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Was mich brennend interessiert, da ich gerade vor dem Kauf eines neuen TV-LCDs stehe, ob die Brille auch mit solchen Geräten umgehen kann?

Z.B. kommt für mich der Sony z4500 mit 200Hz in Frage. Funktioniert oder nicht?? Ich hab schon halb Internet abgesucht, niergends wird es angesprochen. Nachdem hier einige eXperten unterwegs sind, hoffe ich auf eine glaubwürdige Antwort, hehe

schon mal Danke im Voraus. Waldi

Ich kann es nicht mit sicherheit sagen, aber ich würde sagen, dass es sein kann, aber nicht muß.

Wenn der Fernsehr nur die normalen 50/60hz signale annimmt und diese dann kombiniert um selber zwischenbilder zu erzeugen, wird es nicht funktionieren. Wenn er dagegen die bilder direkt durchschleusen kann, also auch ein 200hz signal annimmt und direkt ausgibt, ohne das zwischenberechnen, dann sollte es möglich sien, die brille damit zu nutzen.
Wie der Fernsehr damit umgeht, würde ich aber direkt beim hersteller nachfragen (Nicht bei einem MM oder Saturn futzi, die haben meißt keine ahnung...)
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Ist das jetzt eine andere Technik als die alten Shutterbrillen damals?
Der letzte "Stereo Treiber" den ich finde ist dieser:
3D Stereo Treiber

91.31! Mittlerweile gibt es 190.x.

Wäre das jetzt eine Neuauflage der alten Technik, könnte man ja hoffen dass alte Hardware nun indirekt wieder unterstützt wird.
Und wenn nicht, wäre es gut wenn man eine zusätzliche Unterstützung bestehender Geräte einbaut.
Oder geht es absichtlich nicht, weil sie fürchten die ganzen Gebrauchten Brillen würden ihnen das Geschäft schmälern?
Es gibt auch noch andere Hardware wie Brillen mit eigenen Bildschirmen.
Wäre schade wenn so etwas nur mit alten reibern und offiziell nur bis inkl. der 7000er Serie funktioniert.
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Zwischen 91 und 190 liegen allerdings keine 99 Treiber ;)
Das Prinzip bei den neuen ist auf alle Fälle das gleiche und ich würde mich wundern, wenn sie beim Softwaregrundgerüst mit null angefangen haben. Abgesehen von der Synchronisation gibt es eigentlich eh nichts, was Probleme machen könnte - außer künstliche Sperren...
Revelator-Besitzer vor, bitte.
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Ist das jetzt eine andere Technik als die alten Shutterbrillen damals?
Der letzte "Stereo Treiber" den ich finde ist dieser:
3D Stereo Treiber

91.31! Mittlerweile gibt es 190.x.

Wäre das jetzt eine Neuauflage der alten Technik, könnte man ja hoffen dass alte Hardware nun indirekt wieder unterstützt wird.
Und wenn nicht, wäre es gut wenn man eine zusätzliche Unterstützung bestehender Geräte einbaut.
Oder geht es absichtlich nicht, weil sie fürchten die ganzen Gebrauchten Brillen würden ihnen das Geschäft schmälern?
Es gibt auch noch andere Hardware wie Brillen mit eigenen Bildschirmen.
Wäre schade wenn so etwas nur mit alten reibern und offiziell nur bis inkl. der 7000er Serie funktioniert.


prinzipiell ist es die gleiche Technik wie damals, nur dass der controller, welcher die Brille mit den benötigten frequenzen zwecks abdunkelung versorg wird nun per USB angeschlossen anstelle des Kabels welches zwischen monitor und Grafikkarte steckte.. ;)

mfg Klemens
 
AW: 3D Vision für Geforce: Nvidia kündigt sein 3D-Brillen-System offiziell an

Also sind die neuen Treiber nicht für die alte Hardware geeignet?
Ich suche "verzweifelt" Treiber (miteinander funktionierende Kombi aus Treiber und Stereozusatztreiber) für die 6200Go (NV44M, Notebook-GPU).
Das ganze wird noch extrem eingeschränkt weil nVidia seine Treiber für Notebooks sperrt, obwohl sie dort auch funktionieren.
Und diese "rum-inf-erei" funktioniert bei mir nicht.
Und auch wenn ich Omega nehme, finde ich keinen dazu passenden Stereotreiber.

Das Ganze für XP32 und Vista32 und Vista64.
Also soweit es möglich ist. Für xp32 sollte es sicher eine Möglichkeit geben.
Zumindest für den Desktop. Falls das dann irgendwie für das NB geknackt werden kann.....
 
Zurück