Ultra-High-Speed-Kabel bringen 8K und mehr auf Xbox Series X und PS5

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ultra-High-Speed-Kabel bringen 8K und mehr auf Xbox Series X und PS5

Seit Kurzem ist klar, dass künftige Produkte mit HDMI 2.1 das volle Potenzial nur mit zertifizierten Ultra-High-Speed-HDMI-Kabeln erreichen können. Die kommende Konsolengeneration PS5 und Xbox Series X wird den neuen Standard mitbringen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ultra-High-Speed-Kabel bringen 8K und mehr auf Xbox Series X und PS5
 
Das Video dazu ist auch lustig. Besonders die Stelle, wo Raff sagt "Das mit der Konsole ist Oldschool das sieht man heute garnicht mehr"

Tja die Konsole wurde als Hilfsmittel bei der Bugsuche verwendet. Da das heute niemand mehr macht, gibts auch keine Konsole mehr. Dafür haben wir Day1 Patches, die mitunter die Größe des Spieles erreichen. xD
 
Ich weiß nicht warum sich alle auf die 8k oder 4k mit 120FPS einschießen, um das zu Unterstützen braucht es GPU's die es aktuell noch nicht gibt oder die Qualität müsste so deutlich runtergeschraubt werden, das die Sinnhaftigkeit in frage gestellt werden kann und das bei einer Konsole die vermutlich nicht mehr oder kaum mehr als 500€ kosten soll.
Ich bleibe Skeptisch auch wenn ich innerlich auf ein Wunder hoffe ;)
 
Ich weiß nicht warum sich alle auf die 8k oder 4k mit 120FPS einschießen, um das zu Unterstützen braucht es GPU's die es aktuell noch nicht gibt oder die Qualität müsste so deutlich runtergeschraubt werden, das die Sinnhaftigkeit in frage gestellt werden kann und das bei einer Konsole die vermutlich nicht mehr oder kaum mehr als 500€ kosten soll.
Ich bleibe Skeptisch auch wenn ich innerlich auf ein Wunder hoffe ;)

4k und mehr als 60FPS sollten bei der nächsten Konsolengeneration kein Problem sein, wenn man sich anschaut was eine aktuelle One X leistet und wie weit diese von der Leistung ihres Nachfolgers entfernt sein wird.
8k vielleicht eher für Filme+Serien gedacht.
 
Ich weiß nicht warum sich alle auf die 8k oder 4k mit 120FPS einschießen

Ganz einfach: Große Schlagwortzahlen fürs Marketing bringen Umsatz. Dass die nächstre Konsolengeneration nicht annähernd genug Leistung hat um 8K oder 120 Hz (erst recht nicht beides) zu schaffen spielt keine Rolle, weiß der große Mob da draußen ja nicht und wirds auch nicht herausfinden (selbst recherchieren macht von denen keiner und den Unterschied zwischen 4K und 8K erkennt auch keiner von denen).

Das ist bei nahezu allen Gütern so, bei elektronik (wo das Wissen in der brteiten Bevölkerung ganz besonders niedrig ist) funktionierts entsprechend besonders gut. Superduper-HD (ready), 16 Kerne mit zusammen 64 GHz, 3000MB/s-SSD, 1200W Netzteile alles natürlich "Gamer" und mit RGB, die 35. Kamera am Handy mit UHD auf 6 Zoll-Bildschirmen (keine Lupe mitgeliefert^^), die Liste des Marketingtrolls ist endlos - und warum? Weils funktioniert. :ka:
 
Ich weiß nicht warum sich alle auf die 8k oder 4k mit 120FPS einschießen...

Zum einen geht es um 4K 120 Hz (bestenfalls zusätzlich mit variabler Bildrate von ca. 40 Hz bis 120 Hz) und nicht um 4K 120 fps.
Bei meiner Xbox One X gibt es auch fast keine Spiele, die 4K 60 fps schaffen, dennoch habe ich sie auf 4K 60 Hz eingestellt... damit sind dann alle Spiele abgedeckt, die höhere Auflösungen als FullHD nutzen (egal mit welcher fps-Zahl, egal ob nativ 1440p, 1600p, 1800p, 1900p...) und es sind alle Spiele abgedeckt, die mehr als 30 fps darstellen (egal welche Auflösung). Ohne je nach Spiel die Bildausgabe-Auflösung und Hertzzahl anzupassen.

Und genauso kann man die Bildausgabe dann bei PS5 und XSX auf 4K 120 Hz (bestenfalls plus VRR) einstellen und hat dann alle Spiele abgedeckt, ohne je nach Spiel die Bildausgabe-Auflösung und Hertzzahl anzupassen.


Zum anderen muss man nicht immer an die neusten und effektüberladenen AAA-Spiele für PS5 und XSX denken. Es gibt ja auch genügsamere Indie-Spiele und die Konsolen werden auch abwärtskompatibel.

Spiele wie Ori 1 und 2, Rayman-Spiele, Sonic-Spiele, Thumper oder auch Remasters von älteren Spielen, bei denen sich das 60-fps-Lock entfernen lässt, könnten in 4K 120 fps (oder auch 4K VRR mit 60 - 120 fps oder auch mit 120 fps und dynamischer Auflösung) laufen.
 
Zum einen geht es um 4K 120 Hz (bestenfalls zusätzlich mit variabler Bildrate von ca. 40 Hz bis 120 Hz) und nicht um 4K 120 fps.

Und genauso kann man die Bildausgabe dann bei PS5 und XSX auf 4K 120 Hz (bestenfalls plus VRR) einstellen und hat dann alle Spiele abgedeckt, ohne je nach Spiel die Bildausgabe-Auflösung und Hertzzahl anzupassen.

Zum anderen muss man nicht immer an die neusten und effektüberladenen AAA-Spiele für PS5 und XSX denken.

Jo, die PC ler sehen meist nur ihr MAXED ULTRA ULTRA Bildchen vor sich. In 90% der Fälle sieht High..Medium bei einigen Reglern schon ausreichend gut aus. Gerade bei RDR2 war der optische Gewinn net in Relation zum Hardwarehunger@maxed.
 
VRR wird wohl sicher dabei sein. Bereits die One X unterstützt das schon.

Ich hoffe darauf, dass man bei vielen Spielen zwischen 4K (mit so vielen fps wie halt möglich) und FHD (bis 120 fps) wählen kann. Ich würde grundsätzlich dann immer letzteres wählen. Zusammen mit Freesync könnte ich mir sogar vorstellen, weitestgehend von PC auf Konsole zu wechseln. Aber halt nur dann. Bleibt eine Begrenzung auf 60fps, dann nicht.
 
PCGH schrieb:
Ähnliches ist mit immer noch im Handel erhältlichen HDMI-1.4-Kabeln zu beobachten. Viele Kabelhersteller schenken sich bislang die Zertifizierung und machen einfach nur mit Schriftzügen wie "4K-HDMI-Kabel" Werbung.

Um fair zu sein, man kann mit einem HDMI 1.4 Kabel durchaus 4K übertragen, nur eben mit 30 Hz (ich betreibe meinen Haswell Laptop so an meinem Monitor). Wenn sich bei Geräte auf HDMI 2.0 verstehen und die Verbindung gut ist, gehen sogar 60Hz.

Das HDMI Forum hat dem ganzen Wirrwar übrigens selbst Vorschub geleistet, indem sie die einfachen Bezeichnungen wie HDMI 1.1, 1.4, 2.0 und jetzt 2.1, verboten haben und auf ihre komischen Bezeichnungen, bei denen schnell keiner mehr durchblickt, bestehen.
 
Ganz einfach: Große Schlagwortzahlen fürs Marketing bringen Umsatz. Dass die nächstre Konsolengeneration nicht annähernd genug Leistung hat um 8K oder 120 Hz (erst recht nicht beides) zu schaffen spielt keine Rolle, weiß der große Mob da draußen ja nicht und wirds auch nicht herausfinden (selbst recherchieren macht von denen keiner und den Unterschied zwischen 4K und 8K erkennt auch keiner von denen).

Das ist bei nahezu allen Gütern so, bei elektronik (wo das Wissen in der brteiten Bevölkerung ganz besonders niedrig ist) funktionierts entsprechend besonders gut. Superduper-HD (ready), 16 Kerne mit zusammen 64 GHz, 3000MB/s-SSD, 1200W Netzteile alles natürlich "Gamer" und mit RGB, die 35. Kamera am Handy mit UHD auf 6 Zoll-Bildschirmen (keine Lupe mitgeliefert^^), die Liste des Marketingtrolls ist endlos - und warum? Weils funktioniert. :ka:

Konsolen sind ja einige Jahre auf dem Markt. Und in den nächsten Jahren werden auch Filme usw in noch höherer Auflösung erscheinen und um diese abspielen zu können wird halt schon mal vorgesorgt. Muss ja nichts mit Gaming zu tun haben.
 
Konsolen sind ja einige Jahre auf dem Markt. Und in den nächsten Jahren werden auch Filme usw in noch höherer Auflösung erscheinen und um diese abspielen zu können wird halt schon mal vorgesorgt. Muss ja nichts mit Gaming zu tun haben.

Haben die Konsolen denn schon die Laufwerke / Codecs für die optischen Datenträger die 8K-Inhalte haben irgendwann (sollten diese je erscheinen...) - also UHD-Bluray-Nachfolger und AV1 in Hardware? Nein.
Braucht man eine Konsole, um 8K-Streamingangebote auf 8K-TVs abzuspielen? Nein. Können die entsprechenden 8K-TVs eigenständig.

Das Argument "Meine Playstation kann DVD" ist in Zeiten von Streaming und Smart-TVs nicht mehr stichhaltig. Alle Multimedia-Funktionen sind in entsprechend hochauflösenden Fernsehern ohnehin schon integriert.
 
HDMI hätte schon längst ausreichend Bandbreite bieten müssen.
Es kann nicht sein, daß es an der Schnittstelle dermaßen scheitert und gefühlt jedes halbe Jahr ein neuer Standart raus kommt. Die Panels können schon eine ganze Weile 120Hz. Demnach hätten schon die ersten 4k TVs 120Hz liefern sollen. Ebenso jetzt die 8k...

Wie kann man bei gesundem Menschenverstand über eine ausreichend dimensionierte Schnittstelle für 4k gar 8k bei 120Hz bloss meckern? Ist es etwa besser sich paar Jahre später wider einen neuen TV zu kaufen, nur weil der Stecker zickt? Garkein Umweltbewusstsein? Einen TV kauft man in der Regel für mehrere Jahre und jener sollte für Gamer relativ zukunftssicher sein...
CRT konnten auch >100Hz und die ersten Games ruckelten mit 20fps rum. War für mich nie ein Grund zur Beanstandung. Fehlende bzw. nicht existierende Bildsynchronisation ala Freesync/Gsync hingegen schon...
 
Warum verwendet man nicht direkt überall Displayport?
Ich hatte Probleme meinen 4k Beamer mit meinem PC(GTX1070 TI) zu verbinden, zertifizierte Kabel haben es etwas besser gemacht(50Hz statt 45Hz), was aber abhilfe Geschafft hat, war ein passiver(~8€) Displayport zu HDMI Adapter zu verwenden statt den HDMI Anschluss der GPU. Jetzt läuft es selbst mit einem unzertifizierten 5m Kabel einwandfrei.
Displayport ist doch HDMI weit vorraus, oder irre ich da?:huh:
 
Warum verwendet man nicht direkt überall Displayport?

Weil die Gründer/Eigentümer des HDMI-Standards auch Geld verdienen wollen. :schief:

Technisch gesehen haste Recht, man könnte einfach überall DP verwenden. Aber durch jahrzehntelanges Marketing und viel Geld/Industrieeinfluss hat die HDMI-Gruppe ihren technisch unterlegenen Standard in den Hirnen der Leute eingepflanzt (fast jeder kennt HDMI, nur wenige den DisplayPort) und heute jat fast jedes Bildausgabegerät deswegen so nen Anschluss.

Es benutzt ja auch Gott und die Welt USB weils jeder kennt (obwohl Thunderbolt und Firewire damals bis heute faktisch schon immer schneller/besser waren) und die BluRay, die DVD und davor VHS haben sich als unterlegene Techniken auch gegen die Konkurrenz (HDDVD, Video2000,...) durchgesetzt weil sie entsprechend beworben wurden (und es mehr Pr0n auf den Plattformen gab^^). Genauso MP3 bis heute - es gibt zig Audiokompressionen (AC3, AAC, OGG,...) die viel besser als das uralte MP3 sind aber die setzen sich nicht durch (außer da wos keiner sieht als BluRay Tonspur oder auf YouTube beispielsweise) weil die Leute sie nicht kennen.


Kurz: Es setzt sich nicht die Technik durch die am besten ist sondern die, die die größte Akzeptanz in der breiten Masse findet. Und die breite masse versteht nichts von Technik und kauft was in der Werbung kommt.
 
Weil die Gründer/Eigentümer des HDMI-Standards auch Geld verdienen wollen. :schief:

Technisch gesehen haste Recht, man könnte einfach überall DP verwenden. Aber durch jahrzehntelanges Marketing und viel Geld/Industrieeinfluss hat die HDMI-Gruppe ihren technisch unterlegenen Standard in den Hirnen der Leute eingepflanzt (fast jeder kennt HDMI, nur wenige den DisplayPort) und heute jat fast jedes Bildausgabegerät deswegen so nen Anschluss.

War es nicht eher so dass HDMI von Anfang an Audio konnte was bei DP erst später kam?

Allein die Eigenschaft hat doch DP ins Hintertreffen geraten lassen.
 
Die Ziele waren anfangs eben andere, HDMI war auf Heimkino hin optimiert (Bild+Ton). DisplayPort auf maximale Bildqualität/Datenrate.

Heute bzw schon lange können beide Standards alles. Nur ist in der Unterhaltungsindustrie HDMI eben von den Eigentümern und TV-/DVD-Geräteherstellern (Toshiba beispielsweise) hart gepusht worden und wurde dadurch bekannt und breitflächig genutzt. Im reinen Monitorbereich hat sich der DP bei guten Monitoren durchgesetzt weil er einfach besser war (und bis heute ist) - aber die paar Nerds kommen nicht gegen die Hunderte Millionen TV-Schauer an. Dass der DP in den ersten Versionen keine standardisierte Übertragung für nicht-Bilddaten hatte hat da sicherlich mit reingespielt (man hätte 2 Kabel für seinen TV benötigt oder proprietäre Hardware die Nutzdaten neben dem Bildsignal durchschleift), das war ein großer Fehler der DP-Specs das nicht von anfang an vorzusehen.
 
Ich hab nichts gegen HDMI, der Anschluss hat durchaus seine Vorteile, Wie z.B. ARC oder Ethernet. Aber das die Hersteller Mitlerweile nurnoch HDMI verbauen finde ich etwas Schade. Ältere Fernseher hatten doch ein Breites Spektrum an Anschlüsse, da gab es neben HDMI noch VGA, ypbpr, S-Video und andere.
 
Zurück