News Odyssey Neo G9: Monitor-Flaggschiff kann nur mit AMD-Grafikkarten ausgereizt werden

:-_-: Naja dann warte ich wohl noch ein bischen bis Nvidia sich dazu entscheidet das Problem mal zu beheben, wenn das überhaupt möglich ist.

Ja, mal sehen, ob das treiberseitig noch gefixt wird bzw. werden kann. Außerdem muss der Monitor noch auf die offizielle Gsync-kompatible Liste bei Nvidia.
Sie müssten nur mal DSC richtig fixen und bis 3,75x freigeben, nicht nur bis 3x.
 
Und das Mittelfeld ist viel zu schwach um diesen Monitor mit FPS zu füttern.
Dieser Monitor ist zweifelsfrei Sau geil. Aber zum zocken kann man den nicht gebrauchen.
Jedes Game das du spielst landet mit dem automatisch in einem FPS Loch.

Spiele, die 32:9 in 2x4K mit 240 FPS unterstützen lassen sich sicher an einer Hand abzählen. Zudem, wenn sie auch noch graphisch intensiv sein sollten.
Die 2x4K wirst du in 99% der Laufzeit nur am Desktop verwenden. Und da reichen die 120 Hz auch. Fürs Spielen schaltest du auf ein zentrietes 16:9 oder 21:9 Bild um, weil die öfter unterstützt werden.
Der Monitor ist quasi eine Art Crysis unter den Monitoren. lol Die Hardware, die ihn voll ausnützen kann, gibt es moch gar nicht.

Insofern ist es lustig, dass nur AMD den Anschluss benutzen kann, aber momentan auch eher egal.
 
Spiele, die 32:9 in 2x4K mit 240 FPS unterstützen lassen sich sicher an einer Hand abzählen. Zudem, wenn sie auch noch graphisch intensiv sein sollten.
Die 2x4K wirst du in 99% der Laufzeit nur am Desktop verwenden. Und da reichen die 120 Hz auch. Fürs Spielen schaltest du auf ein zentrietes 16:9 oder 21:9 Bild um, weil die öfter unterstützt werden.
Der Monitor ist quasi eine Art Crysis unter den Monitoren. lol Die Hardware, die ihn voll ausnützen kann, gibt es moch gar nicht.

Insofern ist es lustig, dass nur AMD den Anschluss benutzen kann, aber momentan auch eher egal.
Also, ich habe einen der ersten dieser Samsung Odyssey G9-Reihe mit 5120x1440 in 120Hz und VA-Panel und ich spiele jedes Spiel in nativen 32:9 5K@120Hz. Nix mit so Krempel wie 16:9 oder 21:9. Wenn ich mir schon so einen Monitor in die Bude schleppe, dann will ich da auch dessen Impersionspotential maximal ausschöpfen.
Natürlich mit ner RTX 4090 befeuert. Aber damit geht es. Und da liegt der Hase im Pfeffer: Für den 32:9 in 8K wird mal dann wohl die kommende 5090 brauchen müssen, so sie denn nicht nur ein Gerücht bleibt.
Und wem so eine Karte dann zu teuer ist, der sollte sich lieber 2 Monitore hinstellen und nur auf einem daddeln und den anderen als Desktoperweiterung benutzen, statt sich dieses teuer Neo G9 Schiff auf den Schreibtisch zu stellen. :ka:
 
Die Rechenpower wird auf jeder auf dem Markt verfügbaren Grafikkarte nicht ausreichen, um moderne Spiele in maximalen Settings in dieser Auflösung mit 240fps zu befeuern. Man wird da in jedem Fall Kompromisse eingehen müssen. Oft aber auch einfach wegen dem CPU-Limit. (Bei älteren oder technisch einfacheren Spielen sieht das natürlich anders aus, aber in dem Segment wird auch eine Radeon 7000 wiederum oft ausreichen)

Dieser Monitor wäre durchaus als Langfristinvestition spannend. Also heute zwar den Monitor nicht auszureizen, aber später bei RX8000/9000 oder RTX5000/6000 dann. Wäre, wenn nicht OLED drin steckt. Ein OLED-Monitor der seine 8+ Jahre öfters statische Bildinhalte durchhält, will ich erst mal sehen.
 
Also, ich habe einen der ersten dieser Samsung Odyssey G9-Reihe mit 5120x1440 in 120Hz und VA-Panel und ich spiele jedes Spiel in nativen 32:9 5K@120Hz. Nix mit so Krempel wie 16:9 oder 21:9. Wenn ich mir schon so einen Monitor in die Bude schleppe, dann will ich da auch dessen Impersionspotential maximal ausschöpfen.

Das kann ja lange nicht jedes Spiel.
Noch nicht mal die 21:9 von meinem Monitor nützt jedes Spiel aus.
 
Dieser Monitor wäre durchaus als Langfristinvestition spannend. Also heute zwar den Monitor nicht auszureizen, aber später bei RX8000/9000 oder RTX5000/6000 dann. Wäre, wenn nicht OLED drin steckt. Ein OLED-Monitor der seine 8+ Jahre öfters statische Bildinhalte durchhält, will ich erst mal sehen.

Da kann ich Dich beruhigen, der Monitor hat kein OLED-Display. Das Bild vom Artikel ist falsch (zusätzlich steht da leider auch noch prominent OLED drauf), der genannte Monitor sieht so aus und hat Mini-LEDs:

1695584114666.png


Wenn er, wie bei mir, ohne Standfuß verbaut wird, sieht das dann auf dem Desk ungefähr so aus:

1695584779285.jpeg
 
Zuletzt bearbeitet:
Wieder Mal eine völlig sinnbefreite News. Ja, ich hab selber eine 7900XTX und bin auch super zufrieden, freue mich auch über positive AMD News. Aber was soll das denn hier sein? Selbst wenn die 7000er Karten die Auflösung mit 240Hz packen, die Karten scheitern dann bei dieser Auflösung an den FPS Zahlen... außer man spielt ein 10 Jahre altes Spiel darauf. Aktuell befeuert meine Karte den Odyssee OLED G8 und ich scheitere schon bei dieser geringen Auflösung (3440x1440) bei sehr vielen Spielen an den 175FPS (175Hz max). Ich sehe also hier den Vorteil der AMD Karten nicht und von "ausreizen" kann somit auch nicht die Rede sein.

Den Artikel hättet ihr euch echt schenken können. Der Monitor selbst ist für mich auch nur ein Halo-Produkt, wirklich gebraucht hats den nicht.
 
Ich weiß nicht, warum immer das falsche Bild genommen wird, das abgebildete Modell hat mit dem Monitor aus der News nichts zu tun. Der Odyssey Neo G9 mit der Dual UHD Auflösung hat kein OLED Display, sondern Mini LEDs.
Das ist schon hart irreführend. Der Monitor ist jetzt sehr interessant für mich, auch wenn er durchaus eine Stange Geld kostet. Schließlich ist mein bestehender Monitor auch an die 10 Jahre alt und ich hatte sowieso vor, so einen gebogenen Ultraweit-Monitor zu besorgen. Auf den Nutzungszeitraum darf so ein zukunftssicherer Monitor durchaus was kosten, zumal er mir quasi indirekt wieder was reinholt...
 
Das Format wäre nichts für mich, ich trauere immer noch dem 16:9 Format hinterher. Aber da gibt es dann halt eben 8K120 Monitore und die 4K Monitore können raus auf 480Hz.

AMD macht keine High End Karten mehr.

Ist nur ein Gerücht, hat keiner Bestätigt.

Nvidia hat neue Karten auf 2025 verschoben weil es gar nicht nötig ist neue zu bringen weil die Konkurrenz fehlt.

Das ist ebenfalls ein Gerücht, die Karten wurden bisher nichtmal angekündigt.

Man sollte generell damit aufhören, irgendwelche Gerüchte als Tatsachen zu behandeln.

Jedes Game das du spielst landet mit dem automatisch in einem FPS Loch.

CS:GO und CS 1.6 sind anderer Meinung.

AMD arbeitet am neuen Rekord für den Leerlaufstromverbrauch.

Zum Glück hält Nvidia den noch. Die GTX 980Ti zieht 120-140W, wenn der richtige Monitor dranhängt und ist auch sonst heiß unterwegs.

Die GTX 980Ti war zwar eine geile Karte, aber der Aspekt war relativ mies.

Wieder Mal eine völlig sinnbefreite News. Ja, ich hab selber eine 7900XTX und bin auch super zufrieden, freue mich auch über positive AMD News. Aber was soll das denn hier sein? Selbst wenn die 7000er Karten die Auflösung mit 240Hz packen, die Karten scheitern dann bei dieser Auflösung an den FPS Zahlen... außer man spielt ein 10 Jahre altes Spiel darauf. Aktuell befeuert meine Karte den Odyssee OLED G8 und ich scheitere schon bei dieser geringen Auflösung (3440x1440) bei sehr vielen Spielen an den 175FPS (175Hz max). Ich sehe also hier den Vorteil der AMD Karten nicht und von "ausreizen" kann somit auch nicht die Rede sein.

Luke

Nutze die Macht der niedrigen Details und des FSR 2 Upscalings!
 
Zum Glück hält Nvidia den noch. Die GTX 980Ti zieht 120-140W, wenn der richtige Monitor dranhängt und ist auch sonst heiß unterwegs.

Die GTX 980Ti war zwar eine geile Karte, aber der Aspekt war relativ mies.
Sicher nicht, auch da vorbildlich. https://www.hardwareluxx.de/index.p...e-der-geforce-gtx-980-ti-im-test.html?start=8 https://www.computerbase.de/2015-08/partnerkarten-geforce-gtx-980-ti-test/

Eine XTX mit dem Odysee hier bekommt problemslos den Leerlaufheizpilz Award 2023.
 
Sicher nicht, auch da vorbildlich.

Definitiv doch. Wie gesagt: wenn man den richtigen Monitor dran hängt. Mit einem WQHD 144Hz oder 4K60 Monitor aufwärts zieht das Ding Strom, als gäbe es keinen Morgen mehr. Mit meinem Röhrenmonitor war alles unverdächtig, aber mit meinem 4K Monitor hat das Teil plötzlich so richtig viel Strom verbraucht. Das ganze ist auch erst ein paar Wochen später rausgekommen. Der Vorteil war, dass der PC im Winter auch ohne 3D Last gut geheizt hat. Kein Vergleich zu meiner GTX 1060.

Eine XTX mit dem Odysee hier bekommt problemslos den Leerlaufheizpilz Award 2023.

Den definitiv, aber beim Allzeitaward muß sie sich der GTX 980Ti geschlagen geben.
 
Die Rechenpower wird auf jeder auf dem Markt verfügbaren Grafikkarte nicht ausreichen, um moderne Spiele in maximalen Settings in dieser Auflösung mit 240fps zu befeuern. Man wird da in jedem Fall Kompromisse eingehen müssen.

Kompromisse muss man auch in FHD machen. Verstehe das Argument nicht.
Man muss doch nur schauen wie ein modernes Spiel ohne maximale Settings ohne DLSS und Frame Generation in FHD läuft.

IMG_0357.png


Ich zocke mit der 4090 schon so einiges in 8k und alles andere in 4K. Da wird sich auch ein Weg für Dual UHD finden lassen. Am Ende überlebt der Monitor sowieso mehrere Grakas. Wozu haben wir DLSS und Frame Generation?
 
Die GTX 980Ti zieht 120-140W, wenn der richtige Monitor dranhängt und ist auch sonst heiß unterwegs.

Wenn du mir nicht glaubst:

Bei mir wurde das Problem auch mit den neuesten Treibern nie gelöst.
Lesen lernen wenn du schon was verlinkst.
Bei 60 Hz verbrauchte der Monitor nur 22 Watt, das gesamte System 73,7 Watt. Bei 100 und 120 Hz änderte sich kaum etwas an diesen Zahlen, doch bei 144 Hz lag der Verbrauch des gesamten Rechners plötzlich bei 134 Watt.
Laut dir die 980ti alleine schon 120-140W.
Also nein, ich glaube dir nicht.
 
Kompromisse muss man auch in FHD machen. Verstehe das Argument nicht.
Man muss doch nur schauen wie ein modernes Spiel ohne maximale Settings ohne DLSS und Frame Generation in FHD läuft.

Anhang anzeigen 1438527

Ich zocke mit der 4090 schon so einiges in 8k und alles andere in 4K. Da wird sich auch ein Weg für Dual UHD finden lassen. Am Ende überlebt der Monitor sowieso mehrere Grakas. Wozu haben wir DLSS und Frame Generation?
Du spielst bestimmt nicht in 8K. 8K wäre 4x 4K, welche GPU soll das denn bitte packen? Da krepiert sogar die 4090 krachend.
 
Zurück