見た目はちょっとアレだけど――香川大学の発話ロボットがすごい:次世代ロボット製造技術展
香川大学で、人間の発声器官を再現した、歌ってしゃべれる「発話ロボット」の開発が進んでいる。次世代ロボット製造技術展で、ちょっと不気味な(?)その姿を見てきた。
人間のような音声生成器官を持ち、人間のように自律的に発声する――香川大学工学部の澤田秀之研究室で開発されている発話ロボットが「第2回ROBOTECH - 次世代ロボット製造技術展(東京ビッグサイト)」で注目を集めていた。
ヒューマノイド・ロボットは見た目も動きも人間らしくなってきているが、声はスピーカーから出ているだけ。澤田教授はここに疑問を持った。人間のようなロボットを目指すなら、人間と同じように喉を振動させてしゃべることが必要ではないかと考えた。そして完成したのが、人間と同様の音声生成器官を持つ発話ロボットだ。
発話ロボットは、中が空洞になったシリコンゴム製の細長い筒でできている。先端は人間の口の形をしており、舌も付いている。その上には、鼻音を再現するために、鼻を模したパーツが載っている。
ゴムの筒の後ろには人工声帯があり、ここで音の高さを調節する。人工声帯に空気を送ると「ブー」というブブゼラのような音が出る。筒の下には棒が8本あり、この棒をプログラムで動かして空洞や口の形、舌の位置を調節することで、人工声帯から出た「ブー」という音を「あ」「い」「う」といった声に変える。機械で再現しているものの、発声の仕組みは人間とまったく同じ。人間が鼻づまりになって鼻声になるように、ロボットの声もゴムの劣化やパーツの交換で簡単に変化してしまうという。
発話ロボットの前にはマイクを置いて、ロボットが自分の声を解析できるようにする。人間が自分の発した声を自分の耳で確認し、無意識に発声の仕方をコントロールしているのと同じように、ロボットも自身の声を「確認」し、調節している。これにより、パーツ交換などで声が変化したときにも、安定した発声が行えるようになる。
現在は研究段階のため、実用化のめどは立っていないものの、聴覚障がい者に発声の仕方を目で見てもらい、正しい発声の仕方を理解する手助けができるようになるのではと考えている。もちろん、この研究を進めることで人間の声がどのように作られているかの解明にもつながる。
澤田教授は、発話ロボットの研究を10年以上前から行っている。システムの型はできあがってきているものの、完成度は3~4割と話す。実際、発話ロボットがしゃべっている動画を見ても、字幕付きでなければ何を話しているかを理解するのは難しそうだ。人間の声は奥が深く、微妙な表現が可能になるにはまだまだ時間がかかるという。澤田教授は物理が専門だが、声楽の知識など必要なことは勉強しながら研究に生かしている。「オペラぐらい歌えたらいいな。いつかは人間と合唱させたい」と話していた。
関連記事
「遠隔地とキス」を発展させると「どこでもドア」になる? 触覚デバイスがもたらすコミュニケーションの未来像とは
電気通信大学のある学生が「遠隔地の相手とキスができるデバイス」を作った。電話やビデオチャットでは伝わらない「触覚」を、もし遠距離の相手に伝えられるとしたら――。同デバイスを開発した、電気通信大学 梶本研究室に「触覚デバイス」の未来を聞いた。ゲームと「触覚」は相性がいい? 触覚デバイスがもたらすコミュニケーションの未来像とは
なぜ「触覚デバイス」は普及していないのだろうか。後編となる今回は、学生たちを指導する梶本裕之先生に、触覚デバイスの課題や、触覚研究の可能性についてうかがった。Googleに負けないものを作りたい――女子大生が挑む日本独自の「かわいい検索」
女の子の“かわいい”を検索できる「かわいい検索」は、アルゴリズムの設計からプログラミング、デザインまで、学生が中心になって作り上げたWebアプリ。Googleが無視している「Webページの見た目の雰囲気」という要素にこだわり、日本人独自の検索エンジンを目指す。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.