ITmedia ガジェット 過去記事一覧
検索
ニュース

見た目はちょっとアレだけど――香川大学の発話ロボットがすごい次世代ロボット製造技術展

香川大学で、人間の発声器官を再現した、歌ってしゃべれる「発話ロボット」の開発が進んでいる。次世代ロボット製造技術展で、ちょっと不気味な(?)その姿を見てきた。

advertisement

 人間のような音声生成器官を持ち、人間のように自律的に発声する――香川大学工学部の澤田秀之研究室で開発されている発話ロボットが「第2回ROBOTECH - 次世代ロボット製造技術展(東京ビッグサイト)」で注目を集めていた。

 ヒューマノイド・ロボットは見た目も動きも人間らしくなってきているが、声はスピーカーから出ているだけ。澤田教授はここに疑問を持った。人間のようなロボットを目指すなら、人間と同じように喉を振動させてしゃべることが必要ではないかと考えた。そして完成したのが、人間と同様の音声生成器官を持つ発話ロボットだ。

 発話ロボットは、中が空洞になったシリコンゴム製の細長い筒でできている。先端は人間の口の形をしており、舌も付いている。その上には、鼻音を再現するために、鼻を模したパーツが載っている。

 ゴムの筒の後ろには人工声帯があり、ここで音の高さを調節する。人工声帯に空気を送ると「ブー」というブブゼラのような音が出る。筒の下には棒が8本あり、この棒をプログラムで動かして空洞や口の形、舌の位置を調節することで、人工声帯から出た「ブー」という音を「あ」「い」「う」といった声に変える。機械で再現しているものの、発声の仕組みは人間とまったく同じ。人間が鼻づまりになって鼻声になるように、ロボットの声もゴムの劣化やパーツの交換で簡単に変化してしまうという。

 発話ロボットの前にはマイクを置いて、ロボットが自分の声を解析できるようにする。人間が自分の発した声を自分の耳で確認し、無意識に発声の仕方をコントロールしているのと同じように、ロボットも自身の声を「確認」し、調節している。これにより、パーツ交換などで声が変化したときにも、安定した発声が行えるようになる。

 現在は研究段階のため、実用化のめどは立っていないものの、聴覚障がい者に発声の仕方を目で見てもらい、正しい発声の仕方を理解する手助けができるようになるのではと考えている。もちろん、この研究を進めることで人間の声がどのように作られているかの解明にもつながる。

 澤田教授は、発話ロボットの研究を10年以上前から行っている。システムの型はできあがってきているものの、完成度は3〜4割と話す。実際、発話ロボットがしゃべっている動画を見ても、字幕付きでなければ何を話しているかを理解するのは難しそうだ。人間の声は奥が深く、微妙な表現が可能になるにはまだまだ時間がかかるという。澤田教授は物理が専門だが、声楽の知識など必要なことは勉強しながら研究に生かしている。「オペラぐらい歌えたらいいな。いつかは人間と合唱させたい」と話していた。


香川大学工学部知能機械システム工学科 澤田秀之教授

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る