Lautlose Sprachkommunikation
Das Cognitive Systems Lab an der Universit?t Bremen arbeitet an Silent Speech Interfaces, die es Menschen erlauben, v?llig lautlos zu sprechen und dennoch vom Gespr?chspartner verstanden zu werden. Im M?rz 2010 haben wir unseren Prototypen zum ersten Mal auf der CeBIT, der weltgr??ten IT-Messe, vorgestellt. Eine Vorabdemonstration gaben wir bereits auf der CeBIT VISION-Presseschau am 24. November 2009.
Technologie
Die Technologie basiert auf der Elektromyographie - der Erfassung und Aufzeichnung elektrischer Potentiale, die durch Muskelaktivit?t entstehen. Sprache wird durch die Kontraktion von Muskeln produziert, die unseren Artikulationsapparat bewegen. Die elektrischen Potentiale, die durch diese Muskelaktivit?t entstehen, werden durch Elektroden an der Hautoberfl?che aufgezeichnet. Eine Analyse dieser Signale durch geeignete Mustererkennungsverfahren erlaubt es, von den aufgezeichneten elektrischen Potentialen auf die Bewegungen des Artikulationsapparates und damit auf die Sprache selbst rückzuschlie?en. Die erkannte Sprache kann dann als Text ausgegeben werden, oder sie l?sst sich direkt akustisch resynthetisieren. Da die Elektromyographie auch dann Muskelaktivit?t erfasst, wenn eine Sprecherin nicht h?rbar spricht, sondern nur lautlos artikuliert, kann mit diesem Prinzip lautlos gesprochene Sprache erkannt und verarbeitet werden.
Zum Thema Silent Speech mit Gehirnstromdaten sehen sie sich am besten unsere Seite über Gehirnaktivit?tsmodellierung an.
Anwendungen
Unser Prototyp wird seit 2004 entwickelt. Die folgenden Anwendungen sind bisher m?glich:
- Lautloses Telefonieren: Lautloses Sprechen in leisen Umgebungen erlaubt Kommunikation, ohne Andere zu st?ren.
- ?bermittlung vertraulicher Informationen: Nahtloser Wechsel zwischen laut und lautlos gesprochener Sprache erm?glicht die abh?rsichere ?bermittlung vertraulicher Informationen.
- St?rungsfreie Kommunikation in lauten Umgebungen: Elektromyographie erlaubt es, in lauten Umgebungen st?rungsfrei zu kommunizieren, da Signale direkt am K?rper aufgezeichnet werden.
- Sprechen in einer fremden Sprache: Erkennung lautloser Sprache wird mit der ?bersetzung in eine fremde Sprache gekoppelt. Ein Sprecher produziert einen Satz in seiner Muttersprache, und der Empf?nger erh?lt die Information in seine Sprache übersetzt. Es erscheint, als würde der Sprecher in einer fremden Sprache sprechen.
- Hilfe für sprachbehinderte Menschen: Unsere Technik kann auch Menschen das Leben erleichtern, die durch Krankheiten oder Unf?lle ihre Stimme verloren haben.
Downloads
Kontakt
- Prof. Dr.-Ing. Tanja Schultz
Cognitive Systems Lab, Universit?t Bremen
Enrique-Schmidt-Str. 5 28359 Bremen
Tel. +49 (0) 421 218 64270
tanja.schultzprotect me ?!uni-bremenprotect me ?!.de - Lorenz Diener M. Sc.
Cognitive Systems Lab, Universit?t Bremen
Enrique-Schmidt-Str. 5
28359 Bremen
Tel. +49 421/218-64277
lorenz.dienerprotect me ?!uni-bremenprotect me ?!.de
Relevante Publikationen
Im folgenden finden Sie eine nach Publikationsdatum sortierte Liste unserer Publikationen zur Lautlosen Sprachkommunikation. Zum Einlesen in die Thematik eignen sich besonders Session-Independent EMG-based Speech Recognition (Michael Wand, Tanja Schultz, International Conference on Bio-inspired Systems and Signal Processing, 2011) und Modeling Coarticulation in EMG-based Continuous Speech Recognition (Tanja Schultz, Michael Wand, Speech Communication Journal, volume 52, 2010).