SilentMask

サイレントスピーチインタラクションは,声を出さずに口の動きだけで音声コマンドを入力する手法であり,発声困難者への支援として用いられている。 従来から口の周辺を利用するサイレントスピーチインタフェースとしてリップリーディング(読唇術)や筋電センサー,超音波エコー装置などを用いた手法が提案されてきたが,片手が塞がってしまうことや目立ちやすいといった課題があった.本研究では,マスクに取り付けた加速度と角速度のセンサを利用し,口周辺の運動を計測することで無声での発話を認識するマスク型のサイレントスピーチインタフェースを提案する.2つの加速度センサを用いて 12 次元の口周辺の運動情報を取得し,深層学習を用いて解析したところ,21 種類の音声コマンドと発話していない状態の計 22状態を79.1%の精度で識別でき,表情と動作の計 6種類に関して分類し 84.7%の精度で認識できた.



平城裕隆
平城裕隆
博士課程3年

ヒューマンコンピューターインタラクション(HCI)を中心に、ウェアラブルデバイスや音声対話を行うインタフェースの研究をしています。