News Brain-Computer-Interface: 'Gedankensteuerung' auf der Cebit getestet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Brain-Computer-Interface: 'Gedankensteuerung' auf der Cebit getestet gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Brain-Computer-Interface: 'Gedankensteuerung' auf der Cebit getestet
 
die technologischte badekappe die es momentan zu bestaunen gibt :lol:

aber mal im ernst: super leistung, finde ich gut das da die forschung hin geht für all die, die es medizinisch benötigen!
 
Ein schöner Ansatz für Menschen mit eingeengtem Bewegungsspielraum. :daumen:

Aber wenn ich die Kontroll-LED´s anschauen muss, um die Richtung zu bestimmen, wie kann man dann gleichzeitig den Roboter im Auge behalten?

Doch nur über das Periphere sehen?! :huh:
 
Aber wenn ich die Kontroll-LED´s anschauen muss, um die Richtung zu bestimmen, wie kann man dann gleichzeitig den Roboter im Auge behalten?
Das ist tatsächlich schwierig, ich konnte den Roboter nur aus den Augenwinkeln sehen. Aus gleichem Grunde eignet sich das System auch nur wenig für die Steuerung von Spielen - ich müsste ja das Spiel und die LEDs gleichzeitig im Auge behalten.
Die Texteingabe aber funktioniert ohne separate LEDs, dabei sieht man sich einfach die Zeichen direkt an.
 
Demnächst brauchen wir nichtmehr zum Neurologen gehen, einfach am Rechner anstöpseln und das EEG ist fertig.

:schief:

Für Menschen mit Behinderung sicher eine gute Sache das man sich für die Möglichkeiten der Steuerung über unseren eigenen "Computer" mittlerweile
doch recht rege interessiert.

:daumen:
 
Im Gespräch erfuhr ich, dass die Steuerung sehr viel besser funktioniert, wenn man Elektroden ins Gehirn implantiert ... Am Menschen hat man das aber noch nicht ausprobiert.
 
Sieht lustig aus.

@PCGH_Henner
Das wird dann wie bei Matrix sein xD
Hinten Steckdose und rein mit Kabel :P
 
So etwas ähnliches gab's auch mit Augen.;)
Auf dem Bildschirm gucken und per Augenbewegung steuern.:daumen:
 
So etwas ähnliches gab's auch mit Augen.;)
Auf dem Bildschirm gucken und per Augenbewegung steuern.:daumen:
Stimmt :) Aber dieses System mit den blinkenden LEDs ist ja nur ein Beispiel - entscheidend ist, dass die Sensoren Hirnwellen messen und in verwertbare Signale umwandeln können. Diese Wellen lassen sich ja auch anders stimulieren als durch Lichtblitze.
 
Das ist tatsächlich schwierig, ich konnte den Roboter nur aus den Augenwinkeln sehen. Aus gleichem Grunde eignet sich das System auch nur wenig für die Steuerung von Spielen - ich müsste ja das Spiel und die LEDs gleichzeitig im Auge behalten.
Die Texteingabe aber funktioniert ohne separate LEDs, dabei sieht man sich einfach die Zeichen direkt an.

Ist das mit den LEDs eigentlich für die finale Lösung geplant oder dient das eher der Technologiedemonstration/der Eingewöhnung?
(Systeme, die direkt Gedanken erkennen, gibt es ja schon seit einiger Zeit und wochenlange Trainingsphase mag das ganze schlecht präsentierbar zu machen - aber wenn man ohne das Gerät zur Untätigkeit verdammt ist, sieht die Sache anders aus)
 
Stimmt :) Aber dieses System mit den blinkenden LEDs ist ja nur ein Beispiel - entscheidend ist, dass die Sensoren Hirnwellen messen und in verwertbare Signale umwandeln können. Diese Wellen lassen sich ja auch anders stimulieren als durch Lichtblitze.
Und dann ist man wieder bei dem Teil von OCZ: es dauert lange, bis man es erlernt hat. Von daher finde ich die neuen EEGs, auch wenn sie dem klischen eher ähneln, nicht so doll. Ferner reicht einfach für die Anwendung ein EOG (quasi EEG an den Augen) - und da kann man sogar den Roboter noch im Auge behalten...
 
Ist das mit den LEDs eigentlich für die finale Lösung geplant oder dient das eher der Technologiedemonstration/der Eingewöhnung?
Es ist eher eine Demonstration (bis auf den Biosignalverstärker, den gibt es bei g.tec schon). Sicher wird irgendwann mal ein Produkt daraus, aber wie es genau aussehen wird, weiß noch keiner.
 
Zurück