Tachyum: Start-up mit universellen AI-Chips will menschliches Gehirn simulieren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Tachyum: Start-up mit universellen AI-Chips will menschliches Gehirn simulieren

Aus dem Silicion Valley kommen Behauptungen, dass neue Prozessoren mit zehnmal höherer Leistung und geringerem Platzbedarf bald GPU und CPU ersetzen. Tachyum, das Start-up hinter diesen Aussagen, will mithilfe sogenannter Universalprozessoren sogar das menschliche Gehirn simulieren, was 19 Exaflops benötigen würde - soviel Leistung erreichen nicht mal aktuelle Supercomputer.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Tachyum: Start-up mit universellen AI-Chips will menschliches Gehirn simulieren
 
Bestimmt kann der kleine Chip auch noch nebenher den Weltfrieden sichern und den Hunger in der Welt beseitigen. Aber da das so insignifikant ist, haben die bei Tachyum das einfach vergessen. :daumen:
Möglichkeit 1: Samsung, Intel, AMD, Nvidia und co. machen im riesigen Stil Kartellabsprachen, um uns armen Kunden nur 0,1% der eigentlich möglichen Rechenleistung für Unsummen abzuknöpfen.
Möglichkeit 2: bei Samsung, Intel, AMD, Nvidia und co. sitzen ausschließlich Idioten, sodass ein kleines Startup-Unternehmen im Handumdrehen mehr erreicht, als ein Multimilliardenkonzern mit in erster Näherung unbegrenztem Forschungsetat.
Möglichkeit 3: das Startup besteht nur aus Hochstaplern, welche von potentiellen Geldgebern ohne Ahnung möglichst viel Geld abknöpfen wollen, indem sie Buzzword nach Buzzword abfarmen, das Geld in eine Steueroase verfrachten und das Unternehmen "unglücklicherweise" an die Wand fahren.
An dieser Stelle darf jeder für sich selbst entscheiden, was er für am wahrscheinlichsten hält.
gRU?; cAPS
 
Erinnert mich an die Sensationsmeldungen aus dem Akku Bereich :D
10 mal höhere Kapazität pro kg und keine Zellalterung..Laden in wenigen Sekunden!..In einem Jahr sind wir in der Serienproduktion! usw usf..
 
Solange ich keine Benchmarks sehe welche die Behauptungen dieses Start-ups bestätigen, glaube ich denen kein Wort.
Die können viel erzählen und behaupten, solange sie es nicht beweisen können, ist das nichts wert.
Aber warten wir's Mal ab. Vielleicht ist ja was dran.
 
Möglichkeit 2: bei Samsung, Intel, AMD, Nvidia und co. sitzen ausschließlich Idioten, sodass ein kleines Startup-Unternehmen im Handumdrehen mehr erreicht, als ein Multimilliardenkonzern mit in erster Näherung unbegrenztem Forschungsetat.
Zumindest Intel und IBM arbeiten ja auch schon länger an A.I. Chips.;)


Wenn das stimmt was die Firma behauptet, sind wir dann vielleicht gar nicht so weit davon entfernt, dass SciFi Realität wird. Hinsichtlich künstlicher Intelligenz und vielleicht sogar der Entwicklung von (künstlichen) Bewußtsein. Und wenn diese dann noch mit dem Internet vernetzt ist... naja, ich will mal nicht den Teufel an die Wand malen.:devil:
 
Zumindest Intel und IBM arbeiten ja auch schon länger an A.I. Chips.;)


Wenn das stimmt was die Firma behauptet, sind wir dann vielleicht gar nicht so weit davon entfernt, dass SciFi Realität wird. Hinsichtlich künstlicher Intelligenz und vielleicht sogar der Entwicklung von (künstlichen) Bewußtsein. Und wenn diese dann noch mit dem Internet vernetzt ist... naja, ich will mal nicht den Teufel an die Wand malen.:devil:

Das Problem sind nicht die Chips, sondern die Software.

Die Chips sollen ja "NUR" 10x schneller sein. Aber dadurch entwickelt sich halt noch lange keine KI....
Der Vorteil dieser "AI" Chips ist im Grunde ja nur, dass sie für die Aufgaben, die sie zu erledigen haben ziemlich effizient sind.
 
Bestimmt kann der kleine Chip auch noch nebenher den Weltfrieden sichern und den Hunger in der Welt beseitigen. Aber da das so insignifikant ist, haben die bei Tachyum das einfach vergessen. :daumen:
Möglichkeit 1: Samsung, Intel, AMD, Nvidia und co. machen im riesigen Stil Kartellabsprachen, um uns armen Kunden nur 0,1% der eigentlich möglichen Rechenleistung für Unsummen abzuknöpfen.
Möglichkeit 2: bei Samsung, Intel, AMD, Nvidia und co. sitzen ausschließlich Idioten, sodass ein kleines Startup-Unternehmen im Handumdrehen mehr erreicht, als ein Multimilliardenkonzern mit in erster Näherung unbegrenztem Forschungsetat.
Möglichkeit 3: das Startup besteht nur aus Hochstaplern, welche von potentiellen Geldgebern ohne Ahnung möglichst viel Geld abknöpfen wollen, indem sie Buzzword nach Buzzword abfarmen, das Geld in eine Steueroase verfrachten und das Unternehmen "unglücklicherweise" an die Wand fahren.
An dieser Stelle darf jeder für sich selbst entscheiden, was er für am wahrscheinlichsten hält.
gRU?; cAPS


Möglichkeit 4: Spezialisten sehen nach jahrelanger Arbeit in einem Bereich den Wald vor lauter Bäumen nicht mehr. Bei den genannten Großkonzernen wird halt das weiterentwickelt was die seit 10-20 Jahren machen. Andersdenkende werden meist belächelt.

Einige Ideen sind in "Garagen" entstanden und heute sind es Weltkonzerne, wie zB. Google, Facebook. Warum ist keiner der damals großen IT-Konzerne darauf gekommen?

Also ich warte einfach ab anstatt darüber zu spekulieren. Jeder hat ne Chance verdient.
 
Das Problem sind nicht die Chips, sondern die Software.

Die Chips sollen ja "NUR" 10x schneller sein. Aber dadurch entwickelt sich halt noch lange keine KI....
Der Vorteil dieser "AI" Chips ist im Grunde ja nur, dass sie für die Aufgaben, die sie zu erledigen haben ziemlich effizient sind.

In hardware-implementierten neuronalen Netzen kann man die herkömmlich Trennung von Hard- und Software nicht mehr anwenden.

Im Übrigen steht ja auch im Artikel, dass es sich um Prognosen der Ingenieure handelt. Wahrscheinlich wurden da irgendwelche Sonderfälle (Mustererkennung) betrachtet. Ich kann mir nicht vorstellen, dass ein AI Chip beispielsweise bei der Addition zweier Zahlen 10 Mal schneller sein soll.
 
Das Problem sind nicht die Chips, sondern die Software.

Die Chips sollen ja "NUR" 10x schneller sein. Aber dadurch entwickelt sich halt noch lange keine KI....
Der Vorteil dieser "AI" Chips ist im Grunde ja nur, dass sie für die Aufgaben, die sie zu erledigen haben ziemlich effizient sind.
Ja aber die Rechenleistung vom menschlichen Gehirn soll ja irgendwann erreicht werden. Mit einen Rechenzentrum...

Das Start-up behauptet, der selbst entwickelte Universalprozessor sei das perfekte Werkzeug für das Human Brain Project, welches, mit einen Bedarf an Rechenleistung in Höhe von 10 hoch 19 Flops (zehn Exaflops), das menschliche Gehirn simulieren möchte. Bis 2020 soll das Prodigy-Datenzentrum mit Tachyum-Universalprozessoren entstehen, welches dann das menschliche Gehirn als neurales Netzwerk simulieren soll.
 
> "zehnmal leistungsfähiger sein sollen, als die klassischen Recheneinheiten von AMD und Intel. Die neue Hardware von Tachyum soll nicht nur klassische CPUs für Heimanwender, sondern auch GPUs und Prozessoren für das HPC-Marktsegment ersetzen können."
Eventuell Risc-V. Vielleicht 128+ Kerne in einer CPU.

> "Das Start-up behauptet, dass die neue Hardware nur ein Prozent der Fläche und zehn Prozent des Stroms eines Servers braucht, um vergleichbare Leistung zu liefern."
Risc-V kann man stark abspecken. Dann stellt sich die Frage: Wie viel von einem aktuellen x64-Kern und von dem Cache benötigt man für die Bearbeitung einer HTTP-Anfrage.

> " Es handelt sich laut Folien aus Präsentationen der Firma um einen AI-Chip, also sollte eine künstliche Intelligenz zum Einsatz kommen."
Mhh. Für Investorengelder. Entweder es ist eine Spezial-CPU oder es ist eine general purpose-CPU mit Compiler (auf der auch AI gut geht).
 
Ja aber die Rechenleistung vom menschlichen Gehirn soll ja irgendwann erreicht werden. Mit einen Rechenzentrum...

Hoffentlich nicht, also nicht grundsätzlich. Der Mensch kann blitzschnell Muster erkennen und Probleme lösen, die herkömlich Rechner nur in expontieller Laufzeit bewerkstelligen können. Wenn es aber um reine Arithmetik geht, ist der Mensch arsch langsam. Ich sehe solche AI Chips als eher als Co-Prozessoren. Und wenn das echte Hardwareneuronen sind, dann gibt es sowas wie Software nicht. Das heißt natürlich nicht, dass die Chips nicht erstmal trainiert werden müssen, wofür man natürlich Software benötigt.

Das Spannende ist, finde ich, wenn das wirklich universelle Chips werden sollen, wie dieses Startup das hinkriegen will, dass das neuronale System spezialisierte Regionen hat. Das menschliche Gehirn ist in zwei Hemisphären unterteilt. In jeder Hemisphäre gibt es spezialisierte Regionen, die für unterschiedliche Aufgaben zuständig sind. Der Clou ist aber, dass diese Regionen zusammenarbeiten können und somit besondere kreative Leistungen ermöglichen. Auf der anderen Seite darf kein Chaos ausbrechen. Für mich ist das überhaupt eigentliche Wunder, dass einigermaßen Ordnung herrscht im Gehirn*, trotz der gigantischen Anzahl an Verbindungen.

* Bei manchen auch zeitweise nicht... :schief:
 
Zuletzt bearbeitet von einem Moderator:
Das Spannende ist, finde ich, wenn das wirklich universelle Chips werden sollen, wie dieses Startup das hinkriegen will, dass das neuronale System spezialisierte Regionen hat.

Gar nicht. Man wird 100+ oder vielleicht 1000+ Kerne drauf packen, die general purpose programmierbar sind. Das "Problem" ist, dass man dann aber nicht 2+MByte Cache pro Kern haben kann. Dh, voll auslasten kann man 1000 Kerne nur, wenn die meisten Kerne das selbe machen und nicht jeder Kern ständig Cache-Misses allein aufgrund des Codes auslöst.
Unter anderem geeignet sind, soweit ich es verstehe, "Neuronale-Netze"-Algorithmen.
Nun kann man die ganze Sache "anders herum" argumentieren und sagen: Wir wollen ohnehin KI machen und für Server (da wo wenig Code auf allen Kernen das Selbe macht) lohnt es sich ein Stück weit auch. Den Nachteil als Vorteil verkaufen.

Insgesamt kann das aber trotzdem sehr vorteilhaft für die Entwicklung sein. Wenn 1000 Kerne frei programmierbar sind (freier als bei GPU), dann ist das schon schön. Und wenn das OS Zugriff auf 1000 Kerne hätte, dann kann jeder Thread seinen eigenen Kern bekommen, wie ich schon einmal an anderer Stelle theoretisierte... Taskwechsel gibt es dann nicht mehr, eher "Kerne-Fragmentiertung". Dh, "zwischen drin" sind 20 Kerne frei, weil ein Programm beendet wurde und das nächste braucht aber 40.

Esperanto macht auch so etwas: Esperanto exits stealth mode, aims at AI with a 4,096-core 7nm RISC-V monster – WikiChip Fuse
 
So ein Risc-V Chip ist für mich kein "echter" AI Chip, weil das neuronale Netz ja nur softwareseitig vorliegt.
 
Eine "universell einsetzbare" CPU kann ohnehin kein "echter" AI Chip sein. Das schließt sich ohnehin gegenseitig aus. Entweder speziell oder universell.

Doch, aber einer gewissen Layer-Tiefe kann man mit einem neuronalen Netz eine vollständige Boolesche Algebra abbilden.
 
Zuletzt bearbeitet von einem Moderator:
Du meinst: Die bauen ein Gehirn, dann einen zusätzlichen Layer. Und oben drauf läuft ein Betriebssystem performanter als auf herkömmlichen CPUs?
Mensch, das ist Marketing-Sprech.
Entsprechend Deines Ansatzes: Bereits unter einem (in HW realisierten) neuronalen Netz hast Du die boolsche Algebra bereits in Form von Gattern/Transistoren (RTL). Da brauchst Du nicht noch zwei zusätzliche Ebenen drüber setzen und dann meinen, mit den zusätzlichen Ebenen bist Du schneller als ohne.
 
Die Boolesche Algebra hat man noch nicht durch die künstlichen Neuronen alleine. Erst aber einer gewissen Komplexität des Netzes lässt sich diese Funktionalität erreichen.

Aber vermutlich hast du Recht. Das wird wohl ein Hybridansatz. Je nachdem, welche Aufgabe vorliegt, wird ein x86 Kompilat ausgeführt oder eben ein Signalvektor durch ein softwareseitiges neuronale Netz gejagt.
 
Zuletzt bearbeitet von einem Moderator:
Die Boolesche Algebra hat man noch nicht durch die künstlichen Neuronen alleine. Erst aber einer gewissen Komplexität des Netzes lässt sich diese Funktionalität erreichen.

Die boolesche Algebra hat man bei ICs bereits ganz ohne künstliche Neuronen. Dann kann ich mit der booleschen Algebra künstliche Neuronen bauen und mit den künstlichen Neuronen eine booleschen Algebra und dann ein Betriebssystem. Oder ich lasse die künstlichen Neuronen weg, so wie das aktuelle CPUs logischerweise machen.

Aber vermutlich hast du Recht. Das wird wohl ein Hybridansatz. Je nachdem, welche Aufgabe vorliegt...
Das nennt sich die programmierbare Logik (FPGA).

wird ein x86 Kompilat ausgeführt
Denke nicht, dass das x86-kombatibel wird...
 
Zurück