
怖い?それとも安心?視覚のないこのロボットは、暗い危険地帯を手探りで進むことができる
アラン・ボイル著

ボストン・ダイナミクスの恐ろしいほど賢いロボットは、高度なコンピュータービジョンを活用しているが、MITはCheetah 3ロボットで異なる戦略を採用している。
MITの80ポンド(約36kg)、ラブラドールレトリバーサイズのロボット「Cheetah 3」の視覚を持たないバージョンは、カメラや環境センサーを使わずに、真っ暗な部屋を横切り、障害物だらけの階段を上ることができます。その代わりに、エンジニアたちが「ブラインド・ロコモーション」と呼ぶ技術、つまりロボット脚からのフィードバックとアルゴリズムに基づくバランス感覚を頼りに、暗闇の中を進んでいきます。
「ロボットは視覚に頼りすぎなくても、予想外の動作に対処できるはずです」と、MIT機械工学准教授でデザイナーのサンベ・キム氏は本日のニュースリリースで述べた。
「視覚はノイズが多く、多少不正確で、時には利用できないこともあります。視覚に頼りすぎると、ロボットは位置を正確に把握する必要があり、最終的には速度が遅くなってしまいます」とキム氏は述べた。「そこで私たちは、ロボットが触覚情報にもっと依存できるようにしたいと考えています。そうすれば、高速移動しながらも予期せぬ障害物に対処できるようになります。」
この戦略は、災害地域やその他の危険な環境を回避するのに適しています。
「チーター3は、階段、縁石、地上の障害物など、様々な地形条件が想定される発電所の点検など、多用途の作業に対応するように設計されています」とキム氏は語る。「人間の代わりにロボットに単純な作業を任せたい場面は無数にあると思います。危険で汚れやすく、困難な作業も、遠隔操作ロボットならはるかに安全にこなせるのです。」
キム氏のチームは視覚のないチーター向けに2種類の新しいアルゴリズムを開発した。
接触検出アルゴリズムは、ロボットが足を地面に着地させた際に感知する抵抗に基づいて、各脚を空中でスイング状態から地面に着地させる最適なタイミングを判断するのに役立ちます。このアルゴリズムは、ジャイロスコープ、加速度計、そして脚と地面の相対位置からの読み取り値を活用します。
「人間が目を閉じて一歩踏み出すとき、地面がどこにあるかというメンタルモデルを思い描き、それに向けて準備することができます。しかし、私たちは地面の感触にも頼っています」とキム氏は説明する。「私たちも、複数の情報を組み合わせて遷移時間を判断することで、ある意味同じようなことをしているのです。」
研究者らは、チーター3がトレッドミルで小走りしたり階段を上ったりする際に、木のブロックやテープのロールなどのゴミに対処させることでアルゴリズムをテストした。
一方、モデル予測制御アルゴリズムは、特定の脚が地面に接触するときにどのような力がかかるかに応じて、ロボットの胴体と脚が 0.5 秒後にどのように配置されるべきかを予測します。
「例えば誰かがロボットを横に蹴ったとします」とキム氏は言う。「足がすでに地面についている状態で、アルゴリズムは『足にかかる力をどのように指定すべきか? 左側に望ましくない速度があるので、その速度を抑えるために反対方向に力を加えたい。この反対方向に100ニュートンの力を加えたら、0.5秒後に何が起こるだろうか?』と判断するのです。」
予測アルゴリズムは1秒間に20回更新されます。その性能をテストするため、研究者たちはトレッドミルや階段を移動中のロボットを蹴ったり、押したり、引っ張ったりし、それに応じてアルゴリズムを調整しました。(Cheetah 3が恨みを抱かないことを祈ります。)
最終的には、キム氏と彼の同僚はコンピュータービジョンを組み込むことになるが、Cheetah 3 では、まず視覚障害者による移動に取り組みたいと考えていた。
暗闇の中でも、人間よりもはるかに速く、確実に歩いたり、走ったり、登ったりできるロボット?地震の後にまさに見たい光景だ。そして、ロボット反乱の後に見たくない光景でもある。
この視覚不要技術とCheetahモデルのその他の改良点は、10月に開催される国際知能ロボット・システム会議(ICAIRS)で発表される予定です。この研究は、Naver、Toyota Research Institute、Foxconn、そして空軍科学研究局の支援を受けて行われました。