News Intel plant Thunderbolt-Nachfolger mit 50 GBit/s

Wozu man im Consumerbereich so viel Bandbreite benötigt?

Thunderbolt -und wohl auch sein Nachfolger- ist vor allem eines: ein externes PCIe Interface; zur Anbindung von z.B. externen Grafikkarten (im Notebookbereich interressant) kann man garnicht genügend Bandbreite haben...
 
Hier gibt's mehr Infos: heise

Ich finde es irgendwie befremdlich, dass bei jeder Meldung zu den Themen Übertragungsrate und Speicherkapazität die gleichen Kommentare kommen. Die Frage nach dem "Wozu?" wurde sogar im Artikel selbst beantwortet. :schief:
Kosten/Nutzenfaktor ist aber halt auch so ne Sache.

Es wäre auch kein Problem, aus Kupfer ne 10GBit/s Verbindung zu machen, ich glaub aber kaum, das jemand Bock hat auf Kabel, die 4 mal so dick wie aktuelle sind und 5 mal so viel wiegen, und 10-20 mal so viel Kosten wie aktuelle Kabel, und dazu dann auch noch verschraubt werden muss, statt einfach gesteckt.

So ist es halt auch mit TB. Ohne Glasfaser haste keinen echte Mehrwerte, und mit Glasfaser, haste auf jeden Fall einen deutlich höheren Preis und kannst dir dann aussuchen, ob der Preis noch viel höher liegen soll als eh schon, oder ob du damit zufrieden bist das man alle 20-100 (mal Zahlen genommen) Steckvorgänge dir ein neues Kabel holen kannst im Schnitt.

Einfach eine Technik zu nehmen, die es wo anders schon gibt ist nicht sonderlich revolutionär....
 
Ich muss dir in allem recht geben, braucht doch keiner eine Leistung von 50Gb/s für was soll das den gut sein?
Das mit den Standards ist auch so eine Sache, USB3 ist schwachsinnig find ich, weil sogar wenn eine Tastatur oder Maus USB3 unterstützen würde, was bringt mir denn das schlussendlich? Nichts.

Höhere Geschwindigkeiten bringen nur denn etwas, wenn sie auch einer braucht, aber 50Gb/s ist doch echt schwachsinn, Intel soll lieber mal Geld so investieren das ihre Preise runter gehen können, AMD hat nunmal ein besseres P/L Verhältniss was Prozessoren angeht, Intel soll mal CPU`s herstellen die ein besseres P/L Verhältniss haben.

GENAU! Wenn jeder sich einen Z1 für 10 Cent kaufen könnte...das wär' was! Wer braucht schon all dieses moderne Zeugs?
Und dann entwickeln die Firmen auch noch unabhängig voneinander eigene Ideen - wo soll das nur hinführen?!
 
Wo ist die Idee von Intel neu? :ugly:

Bis auf die Sache mit dem Emitter/Empfänger direkt in der Faser ist da rein gar nichts neu dran.

Allein die Idee der Resteverwertung war mehr oder weniger neu, hat ja aber wie man sieht eh nicht geklappt. So ist es nur eine weitere Schnittstelle unter vielen anderen.....

So etwas ist keine wirklich neue Idee, denn einen Punkt gab und gibt es noch immer, warum man keine Glasfaser einsetzt. Kosten in Verbindung mit Handhabbarkeit.
 
Freu mich schon auf externen RAM :D

(auch wenn die Latenzen relativ hoch sein könnten, doofe Lichtgeschwindigkeit^^)
 
Skysnake schrieb:
Bis auf die Sache mit dem Emitter/Empfänger direkt in der Faser ist da rein gar nichts neu dran.

Das ist aber doch wesentlich...

Skysnake schrieb:
Kosten in Verbindung mit Handhabbarkeit.

Letzteres könnte man durch die genannte Unterbringung von Sender und Empfänger im Kabel umgehen, und die Kosten... angesichts der Vorteile wäre es in dem Anwendungsbereich (Netzwerktechnik, Anbindung externer GPUs u.Ä.) wohl auch verkraftbar, wenn ein Kabel 50 oder 100€ kostet; längere Kabel wären auch nicht wesentlich teurer als kurze

Wenn man z.B. an einem 1500€ Subnotebook im stationären Betrieb eine externe 500€ GraKa nutzen will wird einen ein 50€ Kabel kaum noch abschrecken
 
Das ist aber doch wesentlich...
Ist aber erst was ganz neues, was Sie sich überlegen, zumindest wenn man nach dem geht, was Sie vorher so alles angekündigt haben. Dazu muss sich halt zeigen, in wie weit die Faserlaser die Frequenzen gebacken bekommen, und wie teuer die eben in der Herstellung sind. Die werden nicht ohne Grund noch nicht im HPC Bereich genutzt, wo es wirklich kein Thema ist, wenn so ne Steckverbindung 100€ mehr oder weniger kostet, wenn die Leistung dafür entsprechend besser ist.

Letzteres könnte man durch die genannte Unterbringung von Sender und Empfänger im Kabel umgehen, und die Kosten... angesichts der Vorteile wäre es in dem Anwendungsbereich (Netzwerktechnik, Anbindung externer GPUs u.Ä.) wohl auch verkraftbar, wenn ein Kabel 50 oder 100€ kostet; längere Kabel wären auch nicht wesentlich teurer als kurze

Wenn man z.B. an einem 1500€ Subnotebook im stationären Betrieb eine externe 500€ GraKa nutzen will wird einen ein 50€ Kabel kaum noch abschrecken

Die Unterbringung von Sender und Empfänger direkt im Kabel ist aber nicht trivial.... ganz und gar nicht trivial. Für den Laser wüsste ich ja wie man da ran geht, und auch wo so etwas schon gemacht wird (Uni Stuttgart), aber für den Empfänger? hm.... Net wirklich.

Selbst IBM, die auch in die Richtung einiges gemacht haben, sind beim Emitter und Empfänger im Silizium geblieben und nicht in die Faser gegangen.

Ergo wird die Sache mit ziemlicher Sicherheit alles andere als trivial sein. -> Alles andere als billig. Und genau das ist halt wichtig. Wenn jemand für einen Port mal 20€ mehr zahlen soll, den er vielleicht, und die Betonung liegt vielleicht einen Vorteil bringt, dann wird die Akzeptanz verdammt niedrig sein.

Das ein längeres Kabel im Vergleich etwas billiger ist, ist durchaus richtig, aber auch nur bis zu einer gewissen Länge. Über 10-20 Meter steigt der Preis meines Wissens nach wieder recht linear, oder sogar schneller.

Btw. ich hab mal geschaut, was die für nen optisches 10GB Infiniband Kabel haben wollen :lol:

Geht so bei 20 € für 1-2 Meter los und geht bis so 200.

Leider stand nicht dabei, ob die billigen OM1 oder schon OM3 Kabel sind. Ich denke aber mal OM1, womit du die für 10GBit/Faser mal gleich stecken kannst.

Hab mal noch nen bischen geschaut. 2X OM3 bekommt man so ab ca. 40€ für 2m. Für 50 GBit brauch man aber wahrscheinlich ein 4X Kabel. Die haben da zwar einiges bzgl. Mehreren Frequenzen in einer Faser erzählt, wenn ich das richtig verstanden habe, aber das wird meines Wissens nach heute auch schon gemacht. Muss aber eingestehen, das ich mir da nicht sicher bin, da so etwas zwar höhere Bandbreiten liefert, aber eben auch höhere Latenzen liefern sollte. Selbst im günstigsten Fall muss man für son 2m Kabel OHNE Emitter und Empfänger also schon mal so rund 20€ einplanen, wenn se wirklich 4X brauchen, dann sind wir schon bei 80€ nur für das Kabel, ohne Laser.

Ein teurer Spaß.....

Da kannste dann auch eigentlich schon wieder auf ein dickes Kupferkabel gehen, die sind auch nicht teurer, und für den von dir vorgeschlagenen Einsatz genau so brauchbar.
 
Skysnake schrieb:
Die werden nicht ohne Grund noch nicht im HPC Bereich genutzt, wo es wirklich kein Thema ist, wenn so ne Steckverbindung 100€ mehr oder weniger kostet, wenn die Leistung dafür entsprechend besser ist.

Wer sagt denn, dass das schneller ist? Warum sollte es auch schneller sein? Billiger ist es jedenfalls sicher nicht

Der einzige mögliche Vorteil- und der ist im HPC/Serverbereich absolut uninterressant ist die etwas einfachere Handhabung

Die Unterbringung von Sender und Empfänger direkt im Kabel ist aber nicht trivial....

Nein, das ist sie nicht...

...aber auch nicht nötig; im Stecker hat man wesentlich mehr Platz... prinzipiell beliebig viel auch wenn ich bezweifle, dass man einen neuen Riesenstecker von der Größenordnung eines Paralellports einführen möchte

Btw. ich hab mal geschaut, was die für nen optisches 10GB Infiniband Kabel haben wollen :lol:

Geht so bei 20 € für 1-2 Meter los und geht bis so 200.

Für die meisten Anwender und Anwendungen wird das völlig ausreichen
 
Zuletzt bearbeitet:
Naja schneller, weil du schauen musst, wie schnell du den Laser schalten kannst. Wenn du das Ding direkt in die Faser packst, dann aber nur noch mit der halben Frequenz schalten kannst, dann haste halt 50% Bandbreitenverlust.

Bei Scheibenlasern (glaub so hießen die) kannst du zwar verdammt kurze Lichtblitze erzeugen, aber ich bin mir grad nicht sicher, mit welcher Frequenz die das dann kontinuierlich machen können. Glaub für Femtosekunden Laser werden die genutzt, müsste man aber nochmals nach schauen. Irgendwo wird aber schon ein Hacken sein, sonst würde man die Dinger nutzen.

Naja, das mit dem Stecker ist so ne Sache.... Son Modul für eine 10GB Karte ist nicht grad klein. Da wird das dann schon so ne Sache mit dem Stecker. Kommt dann auch drauf an, wie empfindlich das Ding gegen Erschütterungen etc ist. Naja, und noch ein weiteres großes Problem ergibt sich dann mit den Kontakten, Du musst dann ja wieder ein Stück über Kontakte die Daten transportieren, und da rennste bestimmt wieder schnell in eine Pin Limitation, weil du ja das nicht so geschickt wie bei einem PCB machen kannst, wo alles fest verlötet sind. Brauchst also wieder mehr Energie etc etc.
Die Stecker Lösung bringt halt durch die elektrischen Kontakte wieder ganz eigene Probleme mit den möglichen Frequenzen mit sich.
 
und wer soll das brauchen? ich mein es gibt eigentlich doch kein Medium das so schnell daten aufnehmen kann oder irre ich mich da?

Dich bzw. dein Monitor z.B., diverse Bauteile, Rechner als solche...
Bis 2015 sollten auch SSDs so weit sein und es muss ja auch gar nicht ein einzelnes Medium sein.

Sollen die Hersteller verdammt nochmal sich auf einen Standard konzentrieren.
USB3 hier, eSata, Firewire blablabla
und jetzt der Thunderbolt-Müll.

eSATA gehört zur letzten Generation, Firewire ist tot, Thunderbolt selbst geht mit hoher Wahrscheinlichkeit auf die Entwicklung von USB3 zurück.


Ich seh da kaum eine Zukunft drin, zumal das USB Konsortium wohl auch entsprechende Dinge in der Hinterhand hat...

Das USB-Konsortium hat wenig in der Hinterhand, was nicht von Intel stammt, und deren optische Technik bereits aus den USB3-Specs rausgeworfen, weil man das ganze offensichtlich für nicht realisierbar hielt. (Was mit Copperpeak dann ja auch bestätigt wurde :ugly: )


Hast natürlich recht. Wenn ich an 10 Gbit Lan Denke hat man dort schon gewisse Bandbreiten, aber irgendwann ist Rauschen&andere Störfaktoren in Kupfer einfach zu groß im Vergleich zu Glasfaser. Drum haben wir hier ja schon alles per Glasfaser vernetzt. LAN ist sowieso witzig, weil es eigentlich DEN Standard, der für alles reichen würde (Video out usw auch) schon längst reichen würde, bis auf die Energieversorgung, versteht sich

10 Gbit würden für einen 30"/120Hz Monitor schon nicht mehr reichen und entsprechende Karten sind in ihrer aktuellen Form auch deutlich teurer, als USB3 oder DP (Thunderbolt muss man abwarten, wenns mal einzeln kommt). Für externe Hardware, wie sie für Thunderbolt angedacht ist, wären nicht nur Bandbreite, sondern ggf. auch Latenzen problematisch.


Wo ist die Idee von Intel neu? :ugly:

Bis auf die Sache mit dem Emitter/Empfänger direkt in der Faser ist da rein gar nichts neu dran.

Neu von Intel ist die Technik, alles in 1-2 Chips unterzubringen, anstatt eine komplette Karte voller Bauteile zu benötigen. Daraus resultieren Kostenvorteile, die die "neue Idee" ermöglichen, das ganze an Endkunden zu vermarkten.
Denn die Handhabbarkeit von optischen Verbindungen ist auf sehr kurze Entfernungen, wie sie für einen USB oder DP Ersatz benötigt werden, nur eingeschränkt ein Problem, denn dafür reichen unempfindliche und billige Plastikfasern - siehe optische Audio-Verbindungen (da gibts übrigens auch externe Koaxial/Optisch-Wandler, die Idee mit der Kabelintegration ist also auch nicht wirklich bahnbrechend).
 
Naja schneller, weil du schauen musst, wie schnell du den Laser schalten kannst. Wenn du das Ding direkt in die Faser packst, dann aber nur noch mit der halben Frequenz schalten kannst, dann haste halt 50% Bandbreitenverlust.

50% Bandbreitenverlust im Vergleich zu was? Irgendeinem Mainframe Standard?

Naja, das mit dem Stecker ist so ne Sache.... Son Modul für eine 10GB Karte ist nicht grad klein. Da wird das dann schon so ne Sache mit dem Stecker. Kommt dann auch drauf an, wie empfindlich das Ding gegen Erschütterungen etc ist.

Genau hier ist eben jetzt Intel gefragt technische Neuerungen zu bringen; jedenfalls sollte Klar sein: in einem Stecker ist jedenfalls sehr viel mehr Platz als in einer Faser

In Netzwerkkarten ist eine kompakte und erschütterungsunempfindliche Bauweise ja auch relativ vernachlässigbar; mit einer höheren Integrationsdichte kann man sicher sehr viel Platzsparender arbeiten, wenn man nur will (erst recht 2015, wenn man bis dahin mit Multimillionenaufwand geforscht hat), Erschütterungsunempfindlichkeit sollte sich auch relativ leicht erreichen lassen indem man das ganze in Kunststoff eingießt oder sonstwie fixiert

weiteres großes Problem ergibt sich dann mit den Kontakten, Du musst dann ja wieder ein Stück über Kontakte die Daten transportieren, und da rennste bestimmt wieder schnell in eine Pin Limitation, weil du ja das nicht so geschickt wie bei einem PCB machen kannst, wo alles fest verlötet sind. Brauchst also wieder mehr Energie etc etc.
Die Stecker Lösung bringt halt durch die elektrischen Kontakte wieder ganz eigene Probleme mit den möglichen Frequenzen mit sich.

Ich denke, es sollte durchaus noch gut möglich sein, relativ verlustfrei 50GBit elektrisch über einen eigens entwickelten Stecker in der Größenordnung eines z.B. RJ-45 zu übertragen, wenn man nur will
 
Superwip, träum weiter von 50Gbit über sowas wie nen RJ-45 Stecker. Haste mal die elektrischen 10GBit Stecker gesehen???? Die sind alle verschraubt und ein ganzes Stück größer..... (so ca. 3-5 mal so groß)

@Ruyven: Die Idee mit der Integrierung ist gar nicht sooo schlecht, wird aber auch schon gemacht. Kommt bald auch was auf den Markt, was fast alles komplett im Chip hat.

Zwei Sachen vernachlässigst du aber.
1. Die eigentlichen Sender/Empfänger-Module brauchen einiges an Saft, und sind nicht wirklich mehr massiv kleiner zu machen. Zumindest wäre mir nicht bekannt, das da noch viel gehen sollte
2. Die Netzwerkchips werden in GaAs gefertigt. Ich glaub mehr muss ich nicht sagen oder? (Ich machs aber doch zur Sicherheit. Die Dinger sind viel teurer in der Fertigung, und die Wafer sind VIEL kleiner. Glaub 150mm oder kleiner ist da das Maximum. Glaub eher sogar noch kleiner war es. Da muss man genau abwägen, ob es wirklich Kostengünstiger ist, mehr in den Chip zu packen, der halt in GaAs gefertigt wird. Das ist ja auch mit ein relevanter Kostenfaktor bei den NICs.
 
Superwip, träum weiter von 50Gbit über sowas wie nen RJ-45 Stecker. Haste mal die elektrischen 10GBit Stecker gesehen???? Die sind alle verschraubt und ein ganzes Stück größer..... (so ca. 3-5 mal so groß)

Fixier dich mit deinen Beispielen nicht immer nur auf die Netzwerktechnik, schon garnicht im HPC/Mainframe Bereich wo kompakte Bauform bei Steckern nur eine sehr untergeordnete Rolle spielt; Quadlane Displayport 1.2 schafft etwa ganze 17,28GBit/s, auch mit mini-DP Steckern, HDMI 1.4 schafft immerhin 8,16 GBit/s- auch mit dem geradezu winzigen Mini HDMI Stecker
 
Wie siehts denn mit Coax auf Kurzstrecken aus? Die ham ja Langstrecke schon ziemlich hohe Übertragungsraten.
 
@Ruyven: Die Idee mit der Integrierung ist gar nicht sooo schlecht, wird aber auch schon gemacht. Kommt bald auch was auf den Markt, was fast alles komplett im Chip hat.

Zwei Sachen vernachlässigst du aber.
1. Die eigentlichen Sender/Empfänger-Module brauchen einiges an Saft, und sind nicht wirklich mehr massiv kleiner zu machen. Zumindest wäre mir nicht bekannt, das da noch viel gehen sollte
2. Die Netzwerkchips werden in GaAs gefertigt. Ich glaub mehr muss ich nicht sagen oder? (Ich machs aber doch zur Sicherheit. Die Dinger sind viel teurer in der Fertigung, und die Wafer sind VIEL kleiner.

Intels Dual-Chip-Lösung bzw. die geplante Singel-Chip-Lösung wird eben nicht in GaAs gefertigt (das kann ja nun wirklich "jeder" ;) ), sondern in billigem Silizium. Das ist die entscheidende technische Neuerung und damit stehen nicht nur große Wafer (die könnte bei GaAs auch einführen - wenn denn jemand soviel abnehmen würde) und billige Anlagen (z.B. der letzten CPU-Generation - ohne Chip"sätze" bleibt für die ja kaum noch ne Aufgabe) zur Verfügung, sondern auch sehr effiziente und feine Strukturen, was neben den Kosten auch die Größe und den Stromverbrauch senkt. Nicht umsonst wird hier die Anwendung in Handys in Erwägung gezogen. Intel zeigt jetzt schon seit 1-2 Jahren offentlich (und USB3-Entwürfe legen "3-4 Jahre intern" nahe) Lösungen rum, die nicht aufwendiger sind, als ein 10€ GB-NIC und 20+ GBit mitmachen, angeblich (ich vermute mal bei echter Glasfaser in gutem Zustand) auch bei 50m Entfernung.
Wie gesagt: Das wäre keine neue Idee - aber es wäre die alltagstaugliche Umsetzung einer bestehenden, wenn man das Problem mit den empfindlichen Kabeln löst.

Imho könnte das aber durchaus schwierig werden, denn eben weil Intel die Technik in ziemlich identischer Form schon so lange ankündigt und erst USB3 und dann LightPeak davon abdriften, glaube ich nicht, dass es die Chips, die eine Einführung verhindern. Die Kabel mit integriertem Wandler klingen da auch eher nach einer Notlösung, zumal sie nicht nur für Thunderbolt, sondern auch für USB3 "geplant" sind. Ggf. könnte man sowas mit den miniaturisierten Si-Chips bauen (wenn man das Substrat vollständig in die Steckermatrix integriert...) - aber mal ehrlich: Solche Kabel wären viel teurer, als konventionelle und dementsprechend selten. Für selten Kabel wird aber niemand einen schnelleren Anschluss im Rechner verbauen, das heißt trotz hohem Potential wäre man damit nicht schneller unterwegs, man könnte nur höhere Reichweiten erlangen. Große Längen wären aber noch teurer und empfindlicher und würden von noch weniger Leuten benötigt werden und wenn dann nur, wenn sie mit verbreiteten Routern funktionieren.
Das ist kein Henne-Ei-Problem, da hängt noch der komplette Kreislauf Pfanne-Butter-Salz-Zwiebeln-Geflügelzüchter dran und auch mit Apple im Boot kann Intel sowas nicht en Block einführen. Wenn sich Thunderbolt nicht gegen USB3 durchsetzt, dann werden wir vor 2015 und DAU-sicherer Glasfaser vermutlich nichts mehr von optischer Übertragung hören.
(es sei denn, man beginnt z.B. PCIe zu ersetzen. Aber da dauerts auch noch 3 Jahre, ehe 3.0 überholt ist)
 
Fixier dich mit deinen Beispielen nicht immer nur auf die Netzwerktechnik, schon garnicht im HPC/Mainframe Bereich wo kompakte Bauform bei Steckern nur eine sehr untergeordnete Rolle spielt; Quadlane Displayport 1.2 schafft etwa ganze 17,28GBit/s, auch mit mini-DP Steckern, HDMI 1.4 schafft immerhin 8,16 GBit/s- auch mit dem geradezu winzigen Mini HDMI Stecker
Ja und wie lang kann son normales HDMI-Kabel sein, und was kostet es dann? So ganz billig sind die Dinger nicht. Zudem hast du bei der Bildübertragung einen ziemlichen Overhead drin um Datenfehler zu kompensieren etc. Für einen Ethernet-Ersatz/USB kannst du dir aber gar keine Fehler erlauben bei der Übertragung. Das wird die Transferleistung wieder deutlich drücken. Zudem sollte man die Latenzen auch nicht ganz außen vor lassen, wobei das bei dem angedachten Einsatzgebiet wirklich zweitrangig ist, solange man eben PCI-E nicht ersetzen will, was aber so manchem hier vorschwebt.


Intels Dual-Chip-Lösung bzw. die geplante Singel-Chip-Lösung wird eben nicht in GaAs gefertigt (das kann ja nun wirklich "jeder" ;) ), sondern in billigem Silizium. Das ist die entscheidende technische Neuerung und damit stehen nicht nur große Wafer (die könnte bei GaAs auch einführen - wenn denn jemand soviel abnehmen würde) und billige Anlagen (z.B. der letzten CPU-Generation - ohne Chip"sätze" bleibt für die ja kaum noch ne Aufgabe) zur Verfügung, sondern auch sehr effiziente und feine Strukturen, was neben den Kosten auch die Größe und den Stromverbrauch senkt. Nicht umsonst wird hier die Anwendung in Handys in Erwägung gezogen. Intel zeigt jetzt schon seit 1-2 Jahren offentlich (und USB3-Entwürfe legen "3-4 Jahre intern" nahe) Lösungen rum, die nicht aufwendiger sind, als ein 10€ GB-NIC und 20+ GBit mitmachen, angeblich (ich vermute mal bei echter Glasfaser in gutem Zustand) auch bei 50m Entfernung.
Wie gesagt: Das wäre keine neue Idee - aber es wäre die alltagstaugliche Umsetzung einer bestehenden, wenn man das Problem mit den empfindlichen Kabeln löst.

Imho könnte das aber durchaus schwierig werden, denn eben weil Intel die Technik in ziemlich identischer Form schon so lange ankündigt und erst USB3 und dann LightPeak davon abdriften, glaube ich nicht, dass es die Chips, die eine Einführung verhindern. Die Kabel mit integriertem Wandler klingen da auch eher nach einer Notlösung, zumal sie nicht nur für Thunderbolt, sondern auch für USB3 "geplant" sind. Ggf. könnte man sowas mit den miniaturisierten Si-Chips bauen (wenn man das Substrat vollständig in die Steckermatrix integriert...) - aber mal ehrlich: Solche Kabel wären viel teurer, als konventionelle und dementsprechend selten. Für selten Kabel wird aber niemand einen schnelleren Anschluss im Rechner verbauen, das heißt trotz hohem Potential wäre man damit nicht schneller unterwegs, man könnte nur höhere Reichweiten erlangen. Große Längen wären aber noch teurer und empfindlicher und würden von noch weniger Leuten benötigt werden und wenn dann nur, wenn sie mit verbreiteten Routern funktionieren.
Das ist kein Henne-Ei-Problem, da hängt noch der komplette Kreislauf Pfanne-Butter-Salz-Zwiebeln-Geflügelzüchter dran und auch mit Apple im Boot kann Intel sowas nicht en Block einführen. Wenn sich Thunderbolt nicht gegen USB3 durchsetzt, dann werden wir vor 2015 und DAU-sicherer Glasfaser vermutlich nichts mehr von optischer Übertragung hören.
(es sei denn, man beginnt z.B. PCIe zu ersetzen. Aber da dauerts auch noch 3 Jahre, ehe 3.0 überholt ist)
Gut, wenn die die Sache wirklich in Silizium hin bekommen, dann gz, wobei man sich dann keine tollen Latenzen mehr ausrechnen kann, denn die Daten müssen ja verpackt werden vorm Senden, und danach wieder ausgepackt. Müssten dann schon recht massiv parallel arbeiten, um auf die Datenraten zu kommen, da ist dann aber wieder die Frage, ob sich das unterm Strich wieder rechnet, weil höhere Anforderungen ans Kabel und oder Laser. Auch mehr RAM zum Zwischenspeichern muss man wohl einplanen.
Völlig unmöglich halte ich es aber nicht. Ob man dann aber wie gesagt Latenzen hin bekommt, um einen Ersatz zu PCI-E zu schaffen bezweifle ich stark.

Bzgl GaAs ruyven, das Problem ist nicht die Fertigung an sich, sondern schlicht, das du keine größeren Einkristalle bekommst. Die Dinger sind zu brüchig etc. Schon die aktuelle Größe ist scheinbar schlicht wegen dem Sprödheit mehr oder weniger an der Grenze des Sinnvollen angelangt. Hatte genau darüber nämlich ne Diskussion mit meinem Prof, warum die GaAs Wafer so klein sind, wenn in so großen Stückzahlen produziert werden sollen (Anmerkung: Haut ein eigenes Full-Custom Design dieses Jahr in GaAs raus). Tja, da meinte er, geht halt nicht anders. Gibt keine größeren Einkristalle, und schon die aktuelle Größe ist alles andere als trivial und man müsste aufpassen wie sau, das man den Wafer nicht schrottet.

Allgemein geb ich dir aber Recht. Es gibt eigentlich 2 Hauptprobleme an der Sache. Die Kosten und dann noch die Haltbarkeit/DAU-Usability. Wenn beides nicht gelöst werden kann, dann ist die Sache von Anfang an zum Scheitern verurteilt.
 
Ja und wie lang kann son normales HDMI-Kabel sein, und was kostet es dann? So ganz billig sind die Dinger nicht.

Es geht ja nur um den Stecker; das Kabel selbst wird sowieso mit LWL realisiert

Für einen Ethernet-Ersatz/USB kannst du dir aber gar keine Fehler erlauben bei der Übertragung.

Nein, aber dazu gibt es ja diverse Fehlerkorrektursysteme, die man bei Bedarf nutzen kann

Zudem sollte man die Latenzen auch nicht ganz außen vor lassen

Wo an einem Stecker entstehen nennenswerte Latenzen?
 
Es geht ja nur um den Stecker; das Kabel selbst wird sowieso mit LWL realisiert
Es ging grad um reine Kupferleitungen, und das du damit keinen Stecker in Größe eines RJ-45 hin bekommst, wenn du 50 GBit/s haben willst....
Nimm doch mal HDMI. Du hast 12 Datenleitungen, wobei du für die Übertragung so wie ich das verstanden hast pro Datenleitung insgesamt 3 physikalische Leitungen brauchst. So damit kommte dann auf rund 8,16 GBit/s. Wenn du jetzt 50 GBit/s willst, brauchst du 6 Kabel/Stecker. Das ist nicht mehr klein zu realisieren, wenn du die gleichen "günstigen" Kabel nehmen willst. Die 1.3 Kabel, die du brauchst, sind bei 1-2m noch relativ günstig, du musst aber bedenken, was das für ein Kabelbündel dann ist, hat ja 6 Kabel :ugly: Soooo günstig ist dann das auch nicht mehr absolut gesehen, relativ aber dennoch. So wenn du aber z.B. 5m Kabel willst, dann wird es schon sehr teuer, weil die Anforderungen an das Kabel massiv nach oben gehen.
So alternativ kann man bessere Kabel nehmen und die Übertragungsrate etwas pushen, dann wird das Kabel aber noch teurer, und wegen den hohen Frequenzen wird der Anschluss immer heikler (Skinning-Effekt etc.) Damit schaffst du dann weniger HDMI-Äquivalente-Kabel nehmen zu müssen, musst aber schnell auch zu verschraubten Anschlüssen übergehen, damit man auch in das Kabel die Datenrate eingekoppelt bekommt. Son Stecker steckste auch nicht oft um...
Also kurz um, die Realisierung von 50 GBit/s in nem RJ-45 Stecker-Format von der Größe her kannste knicken, wenn du rein auf Kupfer bleibst.

So nun gehen wir mal auf den nachgeschobenen Fall mit dem Umstieg auf Glasfaser als Trägermedium, aber einem elektrischen Stecker über. Da hast dann genau 2 Möglichkeiten. Entweder massiv Parallel rein gehen, was den Stecker groß Macht, man sich aber die hohen Frequenzen erspart, oder aber man macht den Stecker kleiner und geht mit höheren Frequenzen ein, hat dann aber das Problem wieder, das man wohl den Stecker wieder verschrauben muss.... Gut, das Problem ist wohl deutlich geringer, wenn man Glasfaser als Trägermedium benutzt, da man eben nicht so stark treiben muss. Bei gleicher Eingangsleistung kann man also schlechtere Kontakte haben.

Der Stecker wird dann aber wie gesagt nicht gerade klein, wenn man es oft Steckbar machen will. Dadurch das man aber massiv parallel arbeitet, bekommt man erst bei größeren Datenpaketen die Übertragungsrate auch wirklich umgesetzt. Dazu muss der Zwischenspeicher vor dem elektrisch-optischem Wandler recht groß werden. Der arbeitet ja nicht parallel, sondern eher sequenziell. Musst ja auch abfedern, wenn der Empfänger die Daten nicht so schnell annehmen kann wie du willst. Ein Ticketsystem ist da wohl recht sinnig.

Nein, aber dazu gibt es ja diverse Fehlerkorrektursysteme, die man bei Bedarf nutzen kann
Ja, aber das kostet dich Bandbreite, erhöht die Latenz, und sorgt entweder für deutlich mehr Logik in den Bauteilen, oder aber du hast öfters ein erneutes senden, wenn du halt dir die Logik für die Korrektur sparst und stattdessen nur Fehler erkennst.

Mit dem HDMI-Protokoll kenne ich mich ganz ehrlich gesagt nicht aus. Daher kann ich nicht sagen, ob Datenfehler tolleriert werden, bereits in der Datenrate die Korrekturbits mit eingerechnet sind, weil eben das Protokoll/Datenformat drüber schon die Korrektur enthält. :ka:

Ich wäre da aber sehr vorsichtig. Wie überall wird ja gern mit großen Zahlen beworben, wo das eine oder andere eben nicht mit drin ist, was zu Abzügen führt.

Wo an einem Stecker entstehen nennenswerte Latenzen?
Ich meinte damit, wenn man das Zeug vom Bus erst mal massiv Parallel macht, für die Bandbreite, dann wieder sequenziell durchdrückt mit ner Hohen Taktrate und dann wieder zurück, dann hast du einfach eine gewisse Zeit, die benötigt wird, bis ein Datenpacket da ist. Gut kannst du teilweise wider geschickt verschieben, aber du wirst dennoch erst mal das Seuqnzielle Datenpacket analysieren müssen, bevor du das durchdrückst. CRC, Routingtabelle etc. müssen ja analysiert werden, und wenn das für größere Datenpakete machst, hast du einfach höhere Latenzen, da du ja erst mal abwarten musst, bis das Datenpaket da ist, und dann ist allgemein die Kontrolle eines 512 bit Pakets langsamer als die eines 32bit Pakets.

Es gibt einfach unzählige Problemstellen, die dich anspringen, wenn du die Steckverbindung elektrisch machst mit so großen Datenraten, und fast genau so viele, wenn du die Steckverbindung optisch machst.....

Bei 8Gbit/s über kurze Distanzen geht so etwas noch recht gut, wenn es aber länger wird von der Distanz, oder aber die Datenrate erhöht werden soll.

Es geht hier ja nicht über 10 Gbit/s oder 15Gbit/s über 1-2 Meter wo man völlig auf die Latenzen pfeifen kann/will, sondern gleich 50 GBit/s und dann wohl auch in einem Fall, wo man die Latenzen eben nicht vergessen kann (wenn denn LightPeak als PCI-E Ersatz für dezidierte GraKas z.B. her halten soll, wie hier schon genug Leute sich wünschen.....). Und selbst wenn man die Latenzen vergessen kann, sind 50GBit/s eine echte Hausnummer, VOR ALLEM, wenn man eine Verbindung will, die man wie USB ständig um stecken kann....

Ist wie mit schnellen Autos. Bis 100 lachhaft. Darüber wirds immer schwieriger, und der Aufwand von 300 auf 310 ist exorbitant. So ist es hier halt auch. 8 GBit/s sind nicht ganz einfach, aber noch gut machbar. So wie 120 oder 150 beim Auto. Das geht noch ohne all zu große Kosten. Willst du aber 50 Gbit/s, dann spielst du in einer GANZ anderen Liga. Das Problem ist nicht einfach 5 mal so groß, sondern eher 10-20 mal so groß, wenn nicht gar größer, weil immer mehr und mehr Faktoren rein spielen, die dir das Leben schwer machen und das Genick brechen können.

Was bringt dir z.B. ein Lightpeak, das für das System sagen wir mal 50€ kostet, du aber nur 10 mal um stecken darfst... oder du kannst 1000 mal um stecken, zahlst dann aber 300€ für das System. Bringt genau so wenig.

Was man bzgl. der Latenzen auch nicht ganz vergessen sollte ist, das eben die Daten durchgeschleift werden sollen, oder aber Dockingstations verwendet werden sollen. Die Stationsvariante wird nicht ganz billig und das Durchschleifen drückt halt die Latenzen massiv nach oben. Pro hop halt grad nochmal die gesamten Latenzen von einem Hop oben drauf.
 
Ja und wie lang kann son normales HDMI-Kabel sein, und was kostet es dann? So ganz billig sind die Dinger nicht. Zudem hast du bei der Bildübertragung einen ziemlichen Overhead drin um Datenfehler zu kompensieren etc. Für einen Ethernet-Ersatz/USB kannst du dir aber gar keine Fehler erlauben bei der Übertragung. Das wird die Transferleistung wieder deutlich drücken.

Weder Ethernet noch USB kommen ohne Fehlerkorrektur aus - und bei allen Verbindungsstandards wird afaik die Übertragungsrate des physical layer angegeben. D.h. 8 Gbit/s via Displayport-basierter Technik ergegeben genauso viel Nettokapazität, wie 8 GBit/s Ethernet.

Zudem sollte man die Latenzen auch nicht ganz außen vor lassen, wobei das bei dem angedachten Einsatzgebiet wirklich zweitrangig ist, solange man eben PCI-E nicht ersetzen will, was aber so manchem hier vorschwebt.

Ich kenn keine Angaben zu den eigentlichen Latenzen, aber die 6 ns Synchronisationsmöglichkeit von Thunderbolt erreicht bestenfalls noch Firewire, aber Ethernet nie im Leben.

Gut, wenn die die Sache wirklich in Silizium hin bekommen, dann gz, wobei man sich dann keine tollen Latenzen mehr ausrechnen kann, denn die Daten müssen ja verpackt werden vorm Senden, und danach wieder ausgepackt.

Was hat das Packen/Entpacken mit der Übertragungstechnik zu tun? Die angegebenen Übertragungsraten beziehen sich, wie gesagt, nicht auf die Nutzdaten. Ob du letztere durch Komprimierung steigerst oder nicht, bleibt dir überlassen - genau wie bei Ethernet. Einzig die aktuelle Implementierung von z.B. Thunderbolt für Netzwerkzwecke oder PCIe-Brücke, bei der Ethernet- oder PCIe-Pakete weiter verpackt werden, fügt eine zusätzliche Ebene hinzu. Aber das hat nichts mit den technischen Möglichkeiten zu tun, das ist einfach ein Frage der Kompatibilität.

Müssten dann schon recht massiv parallel arbeiten, um auf die Datenraten zu kommen, da ist dann aber wieder die Frage, ob sich das unterm Strich wieder rechnet, weil höhere Anforderungen ans Kabel und oder Laser. Auch mehr RAM zum Zwischenspeichern muss man wohl einplanen.

Die bisherigen Light-Peakdemonstratoren arbeiten afaik nicht mit Multiplexing, d.h. die Übertragung läuft rein seriell. Dagegen ist Ethernet mit seinen 4 Adern (oder mehr bei 10GB?) fast schon ein BUS.


Es ging grad um reine Kupferleitungen, und das du damit keinen Stecker in Größe eines RJ-45 hin bekommst, wenn du 50 GBit/s haben willst....
Nimm doch mal HDMI. Du hast 12 Datenleitungen, wobei du für die Übertragung so wie ich das verstanden hast pro Datenleitung insgesamt 3 physikalische Leitungen brauchst.

HDMI-Stecker, wie sie aktuell verwendet werden, haben 3 Links mit je drei Adern. Displayport hat 4 Links a 2 Adern - das würde sogar in nen RJ45 passen, würde man nicht soviel Masse und ein paar zusätzliche Leitungen für Strom und Multimediafeatures verwenden.

So damit kommte dann auf rund 8,16 GBit/s. Wenn du jetzt 50 GBit/s willst, brauchst du 6 Kabel/Stecker. Das ist nicht mehr klein zu realisieren, wenn du die gleichen "günstigen" Kabel nehmen willst.

Die Mehrheit eines Steckers besteht nicht aus Kontakten, d.h. die 6 fache Bandbreite würde nicht einen 6 mal so großen Stecker, geschweige denn 6 Stecker benötigen. Ausgehend von den derzeit maximal spezifizierten 17,28 Gbit/s für ein 4-Link-DP-Kabel, würde man mit 12 Links bequem auskommen. Mit noch ein bißchen Masse dazu würde aus dem heutigen 20 Pin-Connector vermutlich einer mit 32 Kontakten werden. DSM-59 (die Anschlüsse, die z.B. Matrox verwendet, um zwei DVI-Schnittstellen an einem Port bereitszustellen) hat, wie der Name andeutet, schon ein vielfaches dieser Pinzahlen und ist offensichtlich für höherfrequente Signale geeignet. (Wobei Centronics -36 Kontakte- sicherlich auch für etwas mehr gut wäre, als er am PC traditionell genutzt wird ;) ).
Kabel wären dementsprechend minimal dicker und teurer, als ein DVI-I-Kabel (25 Leitungen + Schirmung)

Aber massiv-paralle Verbindungen sind trotzdem nicht optimal, da geht Intel eher in eine alltagstaugliche Richtung.
 
Ruyven, ich wollte damit auch nur sagen, das du das aber nie in nen RJ-45 gepackt bekommst. In So etwas wie die Größe von nem DVI schon eher. Kleiner wird schwierig.

Die 8 Gbit/s Kabel sind aber laut Wiki 4x3 Adern.

Das mit dem Packen/Entpacken meinte ich das du halt ein Protokoll brauchst, das du drüber stülpst. Wie du ja richtig gesagt hast, werden nur die brutto Datenraten angegeben. Wie viel da noch durch Overhead des Protokolls weg fällt, ist nicht klar. z.B. TCP/IP hat ja so was von rund 20% Overhead wenn ich es richtig im Kopf hab. 64/128 Bit waren es glaub ich pro TCP/IP Paket an Overhead. Der Overhead der durch das physikalische Übertragungsprotokoll, also CRC etc von Ethernet an sich ist da aber glaub ich schon abgezogen. Je nach dem kann man sich das aber auch sparen und halt in die Daten packen. Keine Ahnung wie das jetzt überall wie konsequent gehandhabt wird mit der Angabe. Jeder gibt ja gern möglichst große Zahlen an :schief:

Und Ruyvn Sync =/= Latenz der Datenübermittlung.

Und das Packen/Entpacken der einzelnen Ebenen der Übertragung hat schon was damit zu tun. Du kannst die CRC etc. ja erst kontrollieren, wenn das Paket komplett da ist, wenn du da mit billigerer Technik wie Si (also niedrigeren Taktraten), mit größeren Paketen arbeitest, um die Bandbreite nach oben zu drücken, oder sonstige angesprochene Einsparmöglichkeiten nutzt, dann steigt auch die Latenz an.

Im Prinzip ist es aber eigentlich egal, wie sehr wir uns den Kopf zerbrechen. Thunderbolt ist keine Innovation so wie es jetzt da ist, und braucht eigentlich wirklich keiner. Der Einsatz von Glasfaser ist ja allem Anschein nach bei weitem nicht so easy/Konstengünstig, wie immer suggeriert. Am Ende bleibt uns einfach nur übrig ab zu warten, und zu schauen, was Sie wann wie bringen, und mit welchen Vor/Nachteilen. Alles andere ist eigentlich für die Katz, wenn man sich unsere Diskussion anschaut. Es gibt einfach zu viele "Wenn und Aber", da es einfach verdammt viele Möglichkeiten zur Implementierung gibt, mit den entsprechenden Schräubchen dazu, an denen man dann drehen kann.

Vor 2013 denke ich werden wir meiner Meinung nach eh nichts sehen von LightPeak in der ursprünglichen Form.
 
Zurück