AW: Skylake-Prozessoren ermöglichen Sprachaktivierung von PCs mit Windows 10
(...)
Du weist aber schon, dass man an Onboard-Soundkarten an jeden Anschluss jedes Gerät anschliessen kann und so intern das Signal umgeschaltet werden kann? Es mag zwar sein, dass ein Lautsprecher nicht so gut als Micro taugt, aber es funktioniert trotzdem, ob nun das Signal "verpolt" ist oder nicht. Es wäre zudem ein leichtes, ein Lautsprechersignal mehrfach intern über ein Verstärker zu schicken und so verwertbare Signale zu bekommen.
Zum Glück kann das nicht jede Soundkarte. Interessanterweise können es bei OnBoard z.B. eher die günstigeren Chips von Realtek, die Teureren abernicht. Zumindest nicht mit der Standard-Software, was da genau verdrahtet ist weiss man ja eher selten.
Natürlich funktioniert es mit einer beliebigen membran Töne aufzufangen. Aber es gibt da drei Probleme.
Zum ersten ein ganz einfaches: Membranen in Mikrofonen sind weich, damit sie leicht in Schwingungen versetzt werden können. Membranen von Lautsprechern aber hart, damit sie hohen Belastungen ausgesetzt werden können. Um die mit der Stimme in Bewegung zu versetzten braucht man schon ein ziemliches Organ. Hinzukommt noch die Beschaffenheit der Membranen. Wenn diese nicht für den Frequenzbereich der Sprache gut geeignet sind wird es noch schwerer. Und normalerweise sind fast alle Lautsprecher auf typischen HiFi-Sound ausgelegt, d.h. sie besitzen ein ausgeprägtes Mittenloch. Und genau dort befinden sich die wichtigen Frequenzen der Sprache. (Und es kommt noch hinzu das wir selten direkt mit dem Lautsprecher reden, die sind meistens ein stückchen entfernt.)
Als Zweites kommt der Punkt Verstärkung. Man kann ein Signal nicht unendlich lauter machen. Ein mehrfaches Verstärken zerstört das Signal immer mehr. Aus diesem Grund wird z.B. bei Musik-Produktionen auch oft recht laut aufgenommen. Leiser machen ist kein Problem, Verstärken über Software oder Mininmal-Hardware wie in einer Soundkarte ist aber ohne Verluste nicht möglich. Zudem bieten OnBoard-Soundkarten ja nicht unbedingt die besten AD-Wandler und Bittiefen. Es ist wie bei der Bildbearbeitung. Man kann die Auflösung hochrechnen, aber man kann keine Informationen erschaffen die nicht da sind. Man kann blos mögliche Näherungen errechnen, und das ist aufwendig.
Was Punkt drei ist: Wenn man ein Signal aus der Membran herausbekommen und auf dem Rechner hat wird es extrem schwer, diese brauchbar zu machen. Das herausfiltern der Stimme funktioniert bis heute in allen Audio-Bearbeitungen mehr schlecht als recht, umgekehrt ist es das gleiche. Man verstärkt auch die Sachen, die man nicht hören will. Und auch mit hochwertigen Filtern schädigt man am Ende auch das, was man hören will, während man den Rest versucht zu eliminieren.
Insgesamt halte ich es für nahezu unmöglich, wenn das Signal nicht per Internet in eine Einrichtung geschickt wird, die über deutlich mehr Audio-Hardware und Rechenleistung verfügt, als ein normaler PC bietet. Und dazu müssten schon Lautsprecher (Oder Kopfhörer, das wäre am einfachsten), Soundkarte, Netzwerkkarte, Arbeitsspeicher und Prozessor bestromt werden. Natürlich wäre auch das möglich, aber ich glaube grade nach der Ankündigung wird es schon ein paar Leute geben, die mit ihren neuen Skylake-CPUs mal ganz genau schauen, wie die Verbräuche so sind wenn der Rechner ausgeschaltet ist.