聴覚ユニバーサルデザイン
2012 国際ユニヴァーサルデザイン会議
富士通総合デザインセンターとのコラボレーションプロジェクトとして2012年からスタート。 聴覚障がい者がプロジェクトメンバーとして参加し、聴者と聴覚障がい者の両者にとって使いやすいコミュニケーションツールや環境を構築するための研究開発。 途中経過を4つの展示物にまとめ、第4回国際ユニヴァーサルデザイン会議2012in福岡に発表した。

1:触音器 <音に触れる>
音を振動に変換して肌で感じられるデバイス。話始めのタイミングや場の雰囲気が体感できる。 プロトタイプの初期モデルから最新版のワイヤレスタイプまでを並べて紹介した。

2:Sound Visualization <音の特徴を見る>
カメラ映像にアレイマイクで取得した音の情報を重ねて表示する。 会話の雰囲気や音環境を視覚的に伝える試み。音の方向、大きさ、高さをリアルタイムに吹出しで表した。

3:方向鳥 <音の方向を知る>
音が鳴った方向をシンボリックな鳥の動きで伝える。発話の始まりや音の発生に気づかせる。 アレイマイクにアクチュエーターとマイコンを接続し、コンパクトで可搬性のあるシステムとして構成した。

4:ワードスポッティング <言葉をピックアップ>
聴覚障がい者が気づきたい名前の呼びかけや、危険喚起の言葉を画面上に表示する。 富士通研究所のワードスポッティング技術(発話から予め登録した単語だけを抽出する音声認識技術)を利用。

担当業務:企画・設計・製作
クライアント:富士通株式会社
ワードスポッティング技術協力:富士通研究所

GK Report

Related Projects