USB 4.0 ab 2021 mit Display Port 2.0 und Thunderbolt auf dem Weg zur Allzweckwaffe?

In Artikel steht viel Unsinn zu USB4.

Bei USB4 ist zb. Thunderbolt optional, USB4 muß TB nicht immer unterstützen.
USB4 basiert auch nicht auf Thunderbolt, kA warum der Mist aber immer wieder behauptet wird.
 
In Artikel steht viel Unsinn zu USB4.

Bei USB4 ist zb. Thunderbolt optional, USB4 muß TB nicht immer unterstützen.
USB4 basiert auch nicht auf Thunderbolt, kA warum der Mist aber immer wieder behauptet wird.

Hättest Du zu dieser Aussage auch einen vertrauenswürdigen Beleg?
Die USB Promoter Group ist da wohl etwas anderer Meinung.
Wenn USB4 auf TB3 basiert, kann sie wohl schlecht mal mit mal ohne TB auskommen.
USB4 ist abwärtskompatibel. Das ist auch alles

The USB Promoter Group today announced the pending release
of the USB4 specification, a major update to deliver the next generation USB architecture that
compliments and builds on the existing USB 3.2 and USB 2.0 architectures. The USB4 architecture is
based on the Thunderbolt™ protocol specification recently contributed by Intel Corporation. It doubles
the bandwidth of USB and enables multiple simultaneous data and display protocols.

https://usb.org/sites/default/files/2019-02/USB_PG_USB4_DevUpdate_Announcement_FINAL_20190226.pdf
 
Wenn USB4 auf TB3 basiert, kann sie wohl schlecht mal mit mal ohne TB auskommen.
TB ist bei USB4 trotzdem optional.

USB4 muß laut Spec nur USB-Geräte unterstützen, ob ein Thunderbolt-Gerät damit läuft kann man nur anhand der Bezeichnung "USB4" nicht erkennen.
 
Ich weiss noch zu Windows 98 Zeiten als USB eingeführt wurde, wie damals genau dieses Versprechen kam. Der Anschluss für alles, selbst Monitore mit USB 1.0 anstatt D-Sub sollten kommen. Ja, ja.....

Ich weiss noch wie ich zu Windows 98 Zeiten mit meinem Vater bei MediaMarkt war um meinen ersten PC zu kaufen.
Mein Vater hatte sich mit dem Verkäufer dort über den noch recht neuen USB-Sockel unterhalten.
Da wurden Sachen gesagt, wie das sich USB niemals durchsetzen wird :D
Werd ich nie vergessen.
 
Das Thema ist für Spieler überhaupt nicht interessant, da die Grafikkartenhersteller einfach keine gescheite Leistung für einen gescheiten Preis liefern.
Wenn ich erstmal 1200 € für eine Graka blechen muss, die dann grad so 60fps in 4k darstellen kann, dann brauch ich über mehr Hertz und eine höhere Auflösung nicht nachdenken.
 
Eine Vereinheitlichung der vielen Stecker wäre natürlich sinnvoll, aber machen wir uns nichts vor, bis das Einzug erhällt, und alle mitmachen, werden noch Jahre vergehen. Außerdem sind USB Typ-A Stecker sehr beliebt. Kunden von einem neuen "Standard" zu überzeugen, wo doch so viele Geräte diesen Steckertyp nutzen, dürfte nicht ganz einfach werden. Wer schmeißt denn schon seine "alte Hardware" weg, nur weil ein neuer (schnellerer) Steckertyp am Markt ist.
 
USB 4.0 und Typ C kann m.M.n. nciht schnell genug kommen!
Alte Geräte kann man mit Adaptern weiterhin nutzen aber in Zukunft hat man keine zig verschiedene Kabel und Stecker.
In der Theorie ja; in der Praxis ist es dann doch zu oft "Computer sagt nein"

Ich kenne das von den MacBook Pros bei uns auf Arbeit (und jetzt im Home Office) mit Thunderbolt 3 / UBS-C.
  • Dongles mit schlechter Isolierung am Stecker - stören das WLAN
  • Schwere HUBS an kleinen Steckern ... schon mehrere abgebrochen - mir zum glück noch nicht passiert :)
  • volle Funktionalität erst nach mehrmaligem Einstecken
    • Strom wird nicht durchgereicht zum Notebook
    • Umgedreht Strom vom Notebook reicht nicht Für Endgeräte
    • HDMI Signal fehlt komplett
    • HDMI ohne Audio
    • Rauschen beim Audio über HDMI
    • USB Gerät nicht erkannt

Das sind alles Kleinigkeiten, mit denen man klar kommen kann.
Aber beim Vorgänger mit USB, Thunderbolt 2 und MagSafe Steckplatz gab es die Problem nicht.

Das gleiche beim iPhone ohne Klinke.
Da hab ich auch schon Stecker der Adapter abgebrochen.
Und noch mehr in den Elektro Schrott gegeben - verlässlich funktioniert nur der von Apple.

Womit wir beim Thema Kosten sind.
Mehrere Dongles für 15/20€ probieren - bis man mal ein funktionierendes gefunden hat.
Dagegen kostet es den PC / Mainboard Hersteller eher cent Beträge eine Schnittstelle zu verlöten.

Auch mal ein Stück zurück geblickt.
Als Full HD noch Standard war, hat DVI an 90% der Monitore das bessere Bild geliefert als HDMI.
Dummerweise interessiert das den Mainstream nicht; da ist hohe Bildrate wichtiger als gute Farbwiedergabe ....
 
Das Thema ist für Spieler überhaupt nicht interessant, da die Grafikkartenhersteller einfach keine gescheite Leistung für einen gescheiten Preis liefern.

Die meisten machen auch noch andere Dinge, als zocken und da können hohe Auflösungen ihre Vorteile auch ohne starke Grakas ausspielen. Ich nutze, mit meinem Laptop meinen 4K Monitor und möchte ihn nicht missen.

Wenn ich erstmal 1200 € für eine Graka blechen muss, die dann grad so 60fps in 4k darstellen kann, dann brauch ich über mehr Hertz und eine höhere Auflösung nicht nachdenken.

Man muß ja nicht alles in der hohen Auflösung zocken.
 
Ein 2000€ Monitor oder teurer ist ohne DP2.0 oder von mir aus USB 4.0 ist keine 2000€ wert.... auch heute nicht. Und was wurde in letzter Zeit vorgestellt teils teure Monitore mit alten Anschlüssen. Und was werden die Next Gen Grafikkarten am Ende des Jahres haben auch dieselben alten Anschussstandarts. Weil so langsam weiter geht. Sieht so aus als würd ich bis 2022 mit meiner alten FullHD-Grucke weitermachen müssen.
Und warum steigst Du nicht auf 3840x 1600, oder 3440 x 1440 bei 10 Bit und 120hz/144hz um?
Es wird erst ein Industriestandard definiert (Display Port 2.0, 26. Juni 2019), bis zum Produkt dauert es aber ein Jahr.

Das Thema ist für Spieler überhaupt nicht interessant, da die Grafikkartenhersteller einfach keine gescheite Leistung für einen gescheiten Preis liefern.
Wenn ich erstmal 1200 € für eine Graka blechen muss, die dann grad so 60fps in 4k darstellen kann, dann brauch ich über mehr Hertz und eine höhere Auflösung nicht nachdenken.

Eine ATI 1800XT bekommst Du sicher für eine "gescheite" Leistung für einen "gescheiten" Preis!

Es gibt viele Spieler die zwar nicht die neusten Games spielen, dafür durch Mods die Anforderungen in die Höhe treiben!
Und es gibt Spieler die Ihre Games nicht nur in 4K spielen, sonder in 12k im drei Monitor Setup, Racing Games, Flight Games, Euro Truck, Farming Simulator....
Ich zocke z.B. gerne in 11520 x 1600 bei 120hz, für sehr Leistung hungrige Games schalte ich aber gerne auf den Singlemonitor zurück. ;)

Und wenn mich etwas limitiert, ist es eher das Nvidia mit GForce nur 4 gleichzeitige Anschlüsse unterstützt. HDMI Audio (da unkomprimiert) + 3 Monitore.
Wer noch ein zusatz Displays braucht, nimmt entweder die iGPU oder eine zusätzliche (USB) Grafikkarte.
 
Zuletzt bearbeitet:
Das Thema ist für Spieler überhaupt nicht interessant, da die Grafikkartenhersteller einfach keine gescheite Leistung für einen gescheiten Preis liefern.
Wenn ich erstmal 1200 € für eine Graka blechen muss, die dann grad so 60fps in 4k darstellen kann, dann brauch ich über mehr Hertz und eine höhere Auflösung nicht nachdenken.

meine rtx 2080 (nicht super oder ti) hat vor nem jahr ~600 euro gekostet und schafft jedes game in 4k/60hz. natuerlich kann man dann vielleicht nicht jede option auf ultra stellen, aber viele der einstellungen bieten quasi keinen erkennbaren mehrwert gegenueber der naechstschlechteren stufe aber kosten massiv performance. 1200 euro hat mein komplettes gaming system gekostet...
 
Zurück