RTX Karten ohne DVI !?! Wat nu?

andyw1228

Komplett-PC-Aufrüster(in)
Ich habe einen guten alten Asus VG 278H mit 3D Vision 2 und obwohl er nur 1080p kann, werde ich ihn wohl noch lange nutzen, denn es gibt soweit ich das überblicke keine 4K Monitore mit 3D.
Ich bin auch nicht so scharf auf 4K, sondern eher auf Breitformat, aber auch da ist’s mit 3D Mau.
Nun ja, eine Rift habe ich ja auch. Die Immersion ist bei VR, 3D und Breitformat mMn besser, als bei 4K.

Das Problem ist, dass ich mir eine RTX 2080 gekauft habe und die eigentlich auch behalten würd3, aber ich Probleme mit den Anschlüssen bekomme: der Monitor hat HDMI, DVI u d olles VGA
Die Graka hat einen HDMI Anschluss und der Rest ist DisplayPort! Dann hat sie noch einen USB C (3.0 oder 3.1?) Anschluss...
Wenn ich den Monitor über HDMI anschließe, dann bekomme ich keine 1080p@120 und 3D geht wohl auch nicht. Außerdem wäre dann kein Anschluss mehr für die Rift übrig.
Ich benötige also einen oder 2 DVI Duallink Anschluss, damit ich den Monitor anschließen kann.
Nun gibt es zahlreiche Adapter, bei denen aber nicht explizit dabei steht, ob sie 120Hz unterstützen. In einem anderen Thread habe ich aktive Adapter für über 130€ gesehen... das kann’s doch nicht sein, oder ?
Ich könnte mir gut vorstellen, dass dieses Problem noch andere User haben, die einen älteren Monitor an eine neue Graka anschließen möchten. Habt ihr da schon Erfahrungen gesammelt ?
Gibt es passive DisplayPort- DVI DL Adapter?

Was die Rift angeht: kann ich die Rift per Adapter an den USB C der RTX anschließen?
ich gehe davon aus, dass der HDMI und USB C Anschluss der Grund für die VR READY Werbung von NVIDIA sind und für VR und AR Headsets gedacht sind.

Gruß
Andre
 
In einem anderen Thread habe ich aktive Adapter für über 130€ gesehen... das kann’s doch nicht sein, oder?

Doch und es ist die einzige Möglichkeit, wobei es solche Konverter eigentlich für knapp unter 100€ gab.

Gibt es passive DisplayPort- DVI DL Adapter?

Passiv gibt es nur SL-Adapter.

Was die Rift angeht: kann ich die Rift per Adapter an den USB C der RTX anschließen?

Du kannst einen USB-C-HDMI-Konverter versuchen. Achte darauf, dass es HDMI 2.0 bzw. 4K60 ist.
Ich verwende für meinen Laptop diesen: Anker Aluminium USB C auf HDMI Adapter: Amazon.de: Computer & Zubehoer (wird im Betrieb ein bisschen warm)
 
Danke für die Tipps!
Auf so einen Mist ist man doch in Zeiten von Plug&Play und USB gar nicht vorbereitet.
Das erinnert mich an die 90er, wo man noch gucken musste, ob AGP oder PCI und ob man noch Interrupts frei hatte...
Schade, dass es solche Einbahnstraßen gibt, obwohl es mMn nicht nötig ist- ein DVI Anschluss würde die Kosten auch nicht groß erhöhen.

Was Rift und USB C angeht, wie wäre es damit :
Anker 7-in-1 USB C Hub mit 100W Power Delivery, USB C: Amazon.de: Computer & Zubehoer

da könnte man dann ALLE Rift Kabel (3x USB, HDMI) anschließen und noch mehr.

Ich werde wohl versuchen so einen Adapter für 50€ zu ergattern.
 
Ein DVI Anschluss wurde den Preis von Grafikkarten nicht wirklich signifikant erhöhen - aber warum sollten Hersteller im heutigen Preiskampf "veraltete" Technologie - welche nur ein Bruchteil der User noch nutzt - verbauen?

Und eine DVI-Buchseist im Vergleich zu HDMI und DP von den Ausmaßen her RIESIG!
"Früher" hatte man wenns hochkommt EINEN Monitor - heutzutage sind zwei und mehr keine Seltenheit!
Wenn man dann neben den "aktuellen" Anschlüssen auch noch einen DVI verbauen würde dann wirds eng am Panel!
 
So wenige sind das gar nicht, die noch DVI nutzen. Es gibt immer noch Monitore mit DVI und der Nachfol von meinem ist 3 Jahre alt glaube ich. Der hat dann 144 statt 120Hz und ist aber ohne 3D Emitter.
Es gibt eine Menge Leute, die deswegen nicht aufrüsten, der Reddit Thread ist lang, also es stört viele.
Vor allem 3D Nutzer, da die nicht auf 4K umgestiegen sind und ehrlich gesagt werde ich die Karte wieder zurück geben, denn eigentlich reicht meine GTX1080 und Raytracing ist nicht das Killerfeature. Ich glaube sie stellen sich selber ein Bein und es ist gut möglich, dass sich ein Hersteller erbarmt und eine RTX 2080 mit DVI baut. Die 2070 gibt es ja mit DVI.
Die denken wahrscheinlich, dass man so eine Karte an einem 4K Monitor anschließt und die haben natürlich alle DisplayPort.
Aber es gibt ne Menge Leute, die die Power für VR oder 3D brauchen.

ich habe mehrfach gelesen, dass für 1080p @120Hz ein günstiger aktiver Adapter funktioniert?
nur für 144Hz soll man nicht um den teuren elektronischen Adapter rumkommen.
 
Es gibt keinen günstigen Adapter, die können alle nur 60Hz.
DVI und 3D sind praktisch tot.
Schon seit ein paar Jahren sollte man keinen neuen Monitor mehr ohne HDMI/DP kaufen.
 
Ein DVI Anschluss wurde den Preis von Grafikkarten nicht wirklich signifikant erhöhen - aber warum sollten Hersteller im heutigen Preiskampf "veraltete" Technologie - welche nur ein Bruchteil der User noch nutzt - verbauen?
Im Preisvergleich werden 36 RTX-Karten mit DVI gelistet, allerdings nur die günstigen (2060/2070). Kurioserweise haben gerade die teuersten RTX-Karten (2080/2080Ti) keinen DVI-Ausgang, ergo kann das Argument "Preiskampf" kein Grund sein. ;)

Vermutlich nutzen mehr User noch DVI als schon 4K...
 
Wenn ich dran denke wie oft ich damals bei Pascal Anrufe von Kunden bekommen habe, die gefragt haben warum es keinen VGA gibt, das gleiche in grün jetzt mit DVI, wobei der ja schon bei einigen 1080ti weg rationalisiert wurde.

Preiskampf denke ich auch nicht, denke eher es ist der Punkt dass der DVI etwas mehr Platz benötigt, zumal kann man den Kunden dann dazu bringen einen neuen Monitor zu kaufen, natürlich bevorzugt mit G-sync ;) :ugly:
 
Ist auch allen echt nicht aufgefallen, dass der s Monitor DVI-D Inputs hat und keinen analogen Dvi?
 
Ist auch allen echt nicht aufgefallen, dass der s Monitor DVI-D Inputs hat und keinen analogen Dvi?

"Analoges" DVI (DVI-A) ist äußerst selten.
Mir persönlich ist leibhaftig noch nie DVI-A begegnet.

Mal ganz davon abgesehen das "DVI-A" eigentlich eine sehr seltsame Bezeichnung ist!
"DIGITAL Visual Interface - ANALOG" ;)

Oder meinst du DVI-I ?

Aber was hat deine Post denn eigentlich genau für einen Sinn in Bezug zum Thema?
 
"Analoges" DVI (DVI-A) ist äußerst selten.
Mir persönlich ist leibhaftig noch nie DVI-A begegnet.

Mal ganz davon abgesehen das "DVI-A" eigentlich eine sehr seltsame Bezeichnung ist!
"DIGITAL Visual Interface - ANALOG" ;)

Oder meinst du DVI-I ?

Aber was hat deine Post denn eigentlich genau für einen Sinn in Bezug zum Thema?

Ich weiß auch nicht, was er damit sagen wollte, wahrscheinlich dass man sich vorher informiert, bevor man neue Hardware kauft...
Bisher war das bei Grakas aber immer ein „non-issue“ und ich wäre nie auf die Idee gekommen, dass ein 1080p 120Hz 3D Monitor jetzt schon eine Einbahnstraße ist. :what:
Ich ging irgendwie davon aus, DVI auch die beliebten (W)QHD Auflösungen kann.

4K kommt mir nicht ins Haus- nur 60Hz, kein 3D, viel zu viele Pixel ;)
Bin jetzt echt kurz davor mir einen 21:9 Monitor mit 120Hz (und natürlich DisplayPort...) zu kaufen.
Der ist dann 3D fähig und mittlerweile unterstützt ja NVIDIA auch Freesync.

Habe gerade einen ASUS Rog PG278 geliehen und der ist ganz gefällig. So groß, wie mein alter, aber mehr Pixel, Gsync und 160Hz. Er ist angeblich 3D Vision 2 fähig, aber hat keinen Emitter.
ich muss sagen, dass ich keinen Unterschied zwischen 120 und 144 oder 160 Hz merke und die höhere Pixeldichte macht sich nur subtil bemerkbar.
Die 2080 werde ich wohl nicht behalten - mal schauen.
Deswegen werde ich mir einen curved 21:9 WQHD Monitor mit 120Hz und evtl Freesync kaufen.
Das erhöhte FOV macht sich deutlich bemerkbar und wenn ich einen 3D Vision Emitter günstig schießen kann, hätte ich auch wieder 3D. Einziger Haken: ich weiß nicht, ob meine alte GTX1070 die Auflösung schafft. Per DSR habe ich aber schon Witcher 3 in 4K mit spielbaren FPS gespielt...

hat einer ner einen Schuss aus der Hüfte welcher Monitor das sein könnte (maximal 600€) ?

gruß
Andre
 
Soweit ich weiß, ist die einzige Vorrausetzung, dass der Monitor mindestens 120Hz schafft.
Das wäre dann 3DVision Surround auf einem Monitor...
 
der Punkt ist, dass man DVI-D ganz simpel auf DisplayPort adaptieren kann, siehe:

HP DisplayPort zu DVI-D Adapter FH973AA: Amazon.de: Computer & Zubehoer

lag auch bei der 1080ti FE dabei solch ein Adapter, habe ich hier liegen

Dann weißt du nicht mehr, als ich bevor ich die RTX2080 kaufte...
Das Teil ist nur ein DVI Single Link Adapter und der schafft maximal 1080p@60
Ein Aktiver Dual Link Adapter kostet um die 100€ :daumen2:
Oder willst du behaupten, dass dein Adapter 1080p in >120Hz schafft !?
 
Dann investiere die 100€ oder kauf einen Monitor mit entsprechendem Anschluss, habe nur die Aussage von -Xe0n- aufgegriffen da nachgefragt wurde was diese zu bedeuten hatte.

einzige was ich dir dazu noch sagen kann ist, dass der Adapter WQHD@ 75hz OC mitmacht, selbst getestet

Mein Vorschlag bzw. der Hinweis von -Xe0n- belaufen sich darauf dass du deinen Monitor nutzen kannst
 
Ist Single-Link
Bekommt man weder 144Hz noch hohe Auflösungen drüber. Reicht für FHD@60Hz, aber für nicht viel mehr.

Das lustige ist doch das aber genau die 144Hz-User nach diesen Adaptern schrein, weil in den alten Kisten, die sie als Monitor verwenden nur ein 1.4er HDMI-Port steckt (neben DVI, wenn überhaupt von DP ganz zu schweigen) und damit reißt man halt nix mehr. Und die 50 Euro für ein Dual-Link Adapter übersteigen meist schon den Wert der alten Möhren um ein vielfaches :-)
Und da steckt dann der User im Dilemma.

Meine alten Dual-Link-DVI-Adapter gehen langsam ins 10. Jahr ihrer Existenz, sie leben immer noch und sie bringen 2560x1600@60Hz. Also genau das wofür man DVI vor 10 Jahren benutzt hat (da hat halt auch noch niemand nach 144Hz gekräht^^).
 
Zurück