https://headlines.yahoo.co.jp/hl?a=20180106-00000515-san-sctch

 「われに続け」と手を振り上げる陸上自衛隊員の後ろから、ロボット部隊が従っていく−SF小説のような光景が、近未来の自衛隊では当たり前なのかもしれない。鍵を握る技術の一つが、音声やジェスチャーなどでロボットを操作する「ナチュラル・ユーザー・インターフェース」だ。過酷な環境での実用化には困難が伴うが、数年内に技術的メドをつけるべく、防衛省で研究が続けられている。

 「今はまだ、大きく手を前に振る『ついてこい』など数種類のジェスチャーや、『先に行け』『右を向け』といったいくつかの音声を認識できる程度だが、今後はより複雑な動きにも対応していきたい」

 人間とロボットの連携技術を研究している防衛装備庁先進技術推進センター(東京都)の防衛技官は、開発中の小型ロボット車両の前で言葉に力を込めた。

 小型ロボット車両は大きさが子供向けのバギー程度で、戦車のように無限軌道で進む。車体の前面に「3次元ライダー」と呼ばれるセンサーを搭載しているのがポイントだ。

 3次元ライダーはいわばロボットの“目”で、赤外線レーザーを用いて目の前にあるさまざまな対象物との距離を測り、その中から人間の動きだけを切り取って識別する。

 近年開発競争が激しい自動運転車の中核技術の一つでもあり、屋内外や昼夜を問わず、また悪天候でも人間の位置やジェスチャーをとらえることが可能だ。

 一方、音声で命令する場合は隊員がマイクを装着し、無線を用いる。「進め」「戻れ」といった命令の言葉は事前にロボットに登録しておかねばならない。

 これらは「音声認識」や「ジェスチャー認識」と呼ばれ、コントローラーを操作する手間が省けるのが利点だ。ロボットは複数でも対応できるという。

 コントローラーを持つと操作に専念する必要があり、自らの警戒がおろそかになる。そこで別の隊員がロボットを操作する隊員の安全を確保することになり、結果的に2人でロボットを操作する形になってしまう。これでは非効率だ。

 今のところ、この認識技術を用いたロボットの任務としては、物資輸送や偵察などが想定されている。資機材などを搭載した複数のロボットが隊員の後に続いたり、敵が潜んでいるかもしれない危険な場所に先行して情報収集を行ったりするイメージだ。

 将来的には、物資輸送や偵察よりも複雑な任務をロボットが遂行する場面も想定される。ただ、与えられる任務の種類は、自律性をはじめとしたロボット自身の性能に左右される。

 もちろん課題もある。例えばジェスチャー認識の場合、命令する隊員が常に3次元ライダーの正面にいるとはかぎらない。敵から身を隠したり、ほふく前進を行うことも想定しなければならない。

 また、音声認識も、敵に見つからないように小声で命令する場合に対応する必要がある。命令と周囲の雑音とを区別する際は、日常生活と異なり、砲弾の発射音や銃声なども考慮に入れる必要がある。

 隊員の命に関わる環境で用いるには高い信頼性が欠かせず、装備化に向けたハードルは決して低くない。それでも先の防衛技官は「音声やジェスチャー認識に関わる中核的な技術の実用化は、数年内にメドがつく。その上で現場に提案したい」と意気込む。

 海外に目を転じると、同様の手法でロボットを操作する試みは米軍でも進められているとされる。スマートフォンの音声認識ソフト「Siri(シリ)」の開発に米国防高等研究計画局(DARPA)が関わったことは、よく知られている話だ。

 音声やジェスチャーの認識技術は民間での研究開発が進んでおり、その成果を軍事面に転用する「スピンオン」が今後各国で進むことは容易に想像できる。この流れから日本が取り残されないためにも、先進技術推進センターが進める研究の動向からは目が離せない。(科学部 小野晋史)