News IBM beschleunigt Datenaustausch mit Lichtleitern

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu IBM beschleunigt Datenaustausch mit Lichtleitern gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: IBM beschleunigt Datenaustausch mit Lichtleitern
 
"IBMs bahnbrechende Neuentwicklung..."
*hust* Werbung *hust*^^

Entwickelt Intel sowas nicht auch gerade(Lightpeak)? Sogar für den Heimanwendermarkt glaube ich.
 
Lightpeak dient dazu externe Peripherie mit dem PC zu verbinden, also Monitor, Festplatten und alles was hohe Bandbreiten benötigt.

IBM will aber Lichtleiter in den Chips, sprich ICs.
Mich würde mal interressieren ob die Stromaufnahme damit zurückgeht und der Kühlungsaufwand (ergo nochmal weniger Stromverbrauch) sinkt...
Daher ist es auch für Betrieber von Serverfarmen oder Supercomputern unter dem wirtschaftlichen Aspekt sehr sehr interresant.
 
"IBMs bahnbrechende Neuentwicklung..."
*hust* Werbung *hust*^^

Entwickelt Intel sowas nicht auch gerade(Lightpeak)? Sogar für den Heimanwendermarkt glaube ich.
Das ist was anderes, hier geht es um Lichtleiter in Chips, nicht in Kabeln.
Denn in den Chips sind die größten Flaschenhälse immernoch die Verbindungen zwischen den Transistoren, bzw. Transistor-Blöcken.
Deswegen gibt es ja auch Forschungen, diese Leiterbahnen aus CNTs herzustellen.
 
geil, bald gibts die möglichkeit das sich jeder einen androiden ala mr. data aus star trek nachzubauen ohne einen riesen kühler aufm kopf :ugly::D
 
Im Artikel ist ja auch einiges durcheinandergeworfen worden... Erst geht es um Chips und dann wie Racks miteinander vernetzt werden. Btw, wenn RICHTIG Perfomance gebraucht wird, benutze ich auch heute schon mehrere Farben (=Wellenlängen). Das wäre nicht die Sensation. Wenn ich aber bedenke, dass on Chip optische Koppler geätzt werden, die dann auf dem Chip verschiedene Funktionseinheiten vernetzten, ist das schon genial.
 
Lightpeak dient dazu externe Peripherie mit dem PC zu verbinden, also Monitor, Festplatten und alles was hohe Bandbreiten benötigt.

IBM will aber Lichtleiter in den Chips, sprich ICs.

Die Technik ist trotzdem die gleiche, wie bei Intel: vollständig in einen Siliziumchip integrierbare opto-elektrische Wandler&Auswertung. Bei Intel war/ist das auch für Chip-Chip-Verbindungen im Gespräch, aber Rechner-Rechner- bzw- Rechner-Peripherie-Verbindungen sind derzeit eben eher limitiert und mit dieser Technik werden Fibre-Adapter eben deutlich günstiger und eine Option für Peripheriegeräte.
 
Och man Leuts...

In der News wurde wie schon gesagt einiges durcheinander geworfen, dazu will ich mich mal als erstes äußern.

Also erstens bei der Technik von IBM gehts nicht darum innerhalb eines Chips Daten zu übertragen, sondern um Interconnects zwischen einzelnen CPUs. Das hat den Grund, das man halt die Pin Limitation hat und dann auch noch auf den Boards Beschränkungen hat, wegen dem Übersprechen zwischen Leiterbahnen. Innerhalb eines Chips macht das absolut keinen Sinn, denn man braucht recht viel Aufwand für die Laser und die Photodtektoren, da biste mit den aktuellen Verfahren VIEL VIEL besser dran.

Zweitens, Exaskale Rechner sind keine Rechner von IBM oder so, sondern einfach Rechner, welche ExaFlops schaffen sollen, genau wie es im Moment schon einige PetaFlos Rechner gibt und massig TeraFlops Rechner. So ziemlich jede Firma die im HPC Bereich aktiv ist, arbeitet an Techniken, die in den Exaskale Rechnern eingesetzt werden sollen.

Drittens auch heute werden in Verbindungsnetzen schon Multimode Verbindungen für große Entfernungen und Datenraten eingesetzt. Da gibts aber eigene Probleme, warum man im Verbindungsnetz innerhalb eines Clusters auf Singelmode Verbindungsnetze setzt.

Viertens, gibts auch Verbindungsnetze auf Kupferbasis, die schneller sind als so manches Glasfasernetz, das ist aber ein anderes Thema wiederum mit seinen eigenen Problemen.

So nun ein paar allgemeine Dinge zu den Antworten von den Usern über mir.

Was IBM da macht ist was die Datenübertragung an sich angeht nichts revolutionär neues. DAS neue an dem was Sie machen ist, das du dadurch, das die ganze Technik dafür AUF dem Chip ist, nicht an die Pinlimitation gebunden bist.

Bisher war es einfach nicht möglich die Anschlusse herzustellen. DORT liegt auch die große Leistung von IBM, denn das ist wirklich nicht trivial ein Struktur im Randbereich des Chips mit einem Glasfaserkabel zu verbinden (die Gabel sind meines wissens nach auch mit eine Entwicklung von IBM, da kann ich mich aber auch täuschen).

@ruyven_macaran:
Die Verbindung innerhalb eines Knotens ist natürlich weit weniger ein Problem, als von einem Rechner (Knoten) auf den nächsten zu kommen, dort ist aber nicht so sehr die Leiterbahnen an sich das PRoblem, sondern das du ein Bussystem nutzen musst um die Netzwerkkarten anzubrechen, wo du einfach sehr große Entfernungen zurücklegen musst etc etc, was halt die Leistung massiv drückt. Es ist aber auch innerhalb eines Knotens sehr interessant, wenn du direkt vom Chip zu Chip ne optische Verbindung hättest, da du dann einfach die ganzen Probleme mit Dämpfung und Übersprechen etc auf der Platine nicht mehr hättest.

Zu sagen, das es aber im Prinzip die gleiche Technik wie LightPeak ist, ist aber verdammt an den Haaren herbei gezogen, oder würdeste sagen, die Technik in nem Formel 1 Auto ist die gleiche wie in nem Polo? Ich glaub nicht. Klar beide haben Motoren als Antriebsaggregat etc. aber die spielen einfach in zwei völlig unterschiedlichen Ligen, und genau so siehts hier auch aus.
 
@ruyven_macaran:
Die Verbindung innerhalb eines Knotens ist natürlich weit weniger ein Problem, als von einem Rechner (Knoten) auf den nächsten zu kommen, dort ist aber nicht so sehr die Leiterbahnen an sich das PRoblem, sondern das du ein Bussystem nutzen musst um die Netzwerkkarten anzubrechen, wo du einfach sehr große Entfernungen zurücklegen musst etc etc, was halt die Leistung massiv drückt. Es ist aber auch innerhalb eines Knotens sehr interessant, wenn du direkt vom Chip zu Chip ne optische Verbindung hättest, da du dann einfach die ganzen Probleme mit Dämpfung und Übersprechen etc auf der Platine nicht mehr hättest.

Im Rahmen dieses Non-HPC-Forums war meine Aussage ein bißchen allgemeiner bezogen:
Natürlich sind die Interconnects bei Großrechnern auf allen Ebenen ein Problem. Aber da hat Intel schon aus anderen Gründen derzeit wenig zu melden und die Verbindungen in Workstations oder kleinen Servern bis 8 CPUs lassen sich noch ganz gut via Kupfer realisieren. Für Rechensystem bis 100-200 CPUs kann so ein System dann als eigener Node fungieren, so dass nur Internodeverbindungen zur Optimierung übrig bleiben -> Lightpeak. Und das kann dann praktischerweise auch gleich noch für diverse weitere Verbindungen, von Monitoren über Slim-Clients bis hin zu großen Netzwerken sinnvoll vermarktet werden.
IBM hat mit letzteren Märkten allgemein wenig zu tun, ist aber dafür im HPC-Bereich deutlich größer und setzt da auch noch konsequent auf extreme Multi-CPU-Setups -> stärker limitiert -> andere Prioritäten.

Zu sagen, das es aber im Prinzip die gleiche Technik wie LightPeak ist, ist aber verdammt an den Haaren herbei gezogen, oder würdeste sagen, die Technik in nem Formel 1 Auto ist die gleiche wie in nem Polo?

Würde ich, denn sie verwenden nunmal die gleichen technischen Prinzipien.
Dein Vergleich hinkt aber ein bißchen, denn sowohl Intel als auch IBM entwickeln für den kommerziellen Markt (die Fomel 1 nicht).
Im übrigen sage ich nicht, dass es die gleiche Technik ist. Lightpeak ist eine vollständige Schnittstelle mitsamt Protokoll, Steckern, Kabeln, Softwaregegenstück,... . Ich sage, dass die Lightpeak-Chips das gleiche Prinzip verwenden bzw. erst dadurch eine Marktchance erhalten.
 
Naja, das LightPeak für die Verbindung von Knoten zu gebrauchen sein wird, muss sich erstmal noch zeigen, denn Bandbreite ist nicht alles... Latenzen spielen da oft ne viel größere Rolle, Protokolle/Bibliotheken ebenso, und von den Switches will ich nicht mal anfangen, denn die sind ja meist der größte Flaschenhals sobald du über 8 Knoten hast. Bis dahin ist ja alles ziemlich einfach, danach wirds ziemlich schnell ziemlich böse, weil du einfach ziemlich böse Latenzen reinbekommst und/oder nicht mehr die volle Bandbreite zur Verfügung stellen kannst, wenn alle Knoten die volle Bandbreite brauchen. Daher ist die Backplane Bandbreite ja auch sehr entscheidend bei größeren Switches, und ich denk du weist genauso gut wie ich, das nen 128er Switch z.B. sehr schnell mit zu den teuersten Elementen im gesamten Verbindungsnetz mutiert.

Naja, und selbst bei 5 Knoten seh ich absolut keinen Sinn für LightPeak, wer will da schon Monitore anschiesen. Für was gibts SSH etc.? Wenn seh ichs nur als Alternative fürs TCP/IP Gbit Netzwerk, weils da wohl doch schneller sein wird, aber sonst? Wobei da muss man auch erstmal sehen, obs überhaupt switches geben wird, und wenn ja, was die kosten.

PS: In der Formel 1 wird auch für den normalen Markt mit entwickelt, ich sag nur Cheramik-Bremsen Traktionskontrolle etc etc. Also da gibts schon verdammt viele Sachen, die man dann einige Jahre später auch in vielen normalen Autos findet. Grad was Sicherheit (Chrashtests) angeht, wird so manches aus der Formel 1 übernommen.

Und LightPeak nutzen net wirklich das gleiche Prinzip. IBMs Prinzip/Leistung ist ja nicht die Nutzung von Glasfaser, sonder die Anbindung DIREKT auf dem Chip, und das hat LightPeak nicht.

LightPeak ist im Prinzip sowas ähnliches wie Myrinet etc. aber nicht wie die Technik von IBM
 
Light Peak hat sehr wohl alles auf einem Chip - nur ist das eben keine CPU, sondern ein reiner Netzwerkcontroller. Konventionelle optische Netzwerksysteme benötigen dagegen mehrere Bauteile, weswegen sie auch zu teuer für das mit Lightpeak (auch) angepeilte Marktsegment sind. (und zu groß für IBMs Einsatzpläne)

Und Latenzen würde ich bei Lightpeak auch keine großen erwarten, schließlich soll es für Peripherie verschiedenster Sorte, Ausgabesysteme, Multimedia&Co genutzt werden, also Elemente, die durchaus latenzempfindlich sind.
 
Zurück