ロボットの学習方法の革命!AIのように強化学習できれば、人間ができることは全てできるようになる!

Brave New World Dept.

A Revolution in How Robots Learn
ロボットの学習方法の革命

A future generation of robots will not be programmed to complete specific tasks. Instead, they will use A.I. to teach themselves.
ロボットは、特定のタスクを完了するようにプログラムされるのではなく、AI を駆使して自ら学習するようになる。

By James Somers November 25, 2024

1.

 2023年の秋、息子は生まれて最初の数日間、睡眠中や食事中以外のほとんどの時間を、認知科学者が「モーターバブリング( motor babbling:ロボットの身体ダイナミクス を効率的に学習するためロボットをランダムな制御・指令で動かした際の動作情報を利用する手法)」と呼ぶ活動に費やしていた。腕や脚を小刻みに動かし、視線を終始さまよわせ、あちこちを見回していた。ある夜、眠りに落ちようとしていた息子は、初めて笑顔を見せた。何を考えているのだろうと見とれていると、急に無表情になった。その後、次々に動揺した表情や驚いた表情、そして再び嬉しそうな表情を見せた。まるで機械の調整を行っているようだった。どうやらそれがモーターバブリングの目的のようである。ランダムな動きをすることは、脳を自分の身体に慣れさせるのに役立つ。

 人間の知能は、他の何よりも先に物理的なものである。私たちの脳の大部分は、身体の活動を調整するために存在している。神経科学者( Neuroscientists )は、抽象的な空間を移動するときでさえ、たとえば会社の組織図を考える時でさえ、現実空間を移動するのと同じ神経機構( neural machinery )を使っていることを発見している。運動を制御する脳の領域である一次運動野( primary motor cortex )は脳の中で不釣り合いなほど大きい。それは身体の各部位がより複雑な方法で動くのを制御している。中でもかなりの領域が顔や口の動きを制御するために使われている。手の制御にもかなりの領域が関与している。

 人間の手は、他のどの部位よりもずっと多い 27 通りの異なる動きが可能である。手首は回転し、指関節は互いに独立して動き、指は広がったり縮んだりする。手の皮膚にあるセンサーは体内で最も密度が高く、脊髄に沿って走る神経ネットワークの一部である。「脊柱を単なるワイヤーだと思っている人がいる」と、MIT でバイオメカトロニクスの博士号を取得したロボット工学研究者のアーサー・ペトロン( Arthur Petron )は言う。「その認識は誤りで、脊柱は脳組織でもある」。特に手は非常に敏感で、「正しく視覚センサーでもある」と彼は言う。「暗闇で何かに触れれば、ほぼ確実にそれを認識することができる」。

 息子が手を自由に使えるようになった週のことは今でもよく覚えている。中にガラガラの入った球形のおもちゃがあったのだが、息子は何週間もそれを無視していた。ある日、まったくの偶然だが、なんとかそれを足で掴むようにした。次の日には、手で抱えるようにした。それから 1 週間以内に意図して掴めるようになり、2 週間後には手の中で回すようになっていた。この進歩で驚くべき点は極めて急速であったことである。これほど複雑な道具をたった 2 週間で使いこなせるようになるものだろうか?息子自身も感心しているようだった。手のひらを見て指を曲げ、これは何だろう、他に何ができるのだろうと不思議に思っているようだった。

 1980 年代、カナダのロボット工学者ハンス・モラヴェック( Hans Moravec )は、あるパラドックスを説明した。人間にとって最も簡単な作業、たとえば手を使って物をつかむような作業は、コンピュータにとっては最も難しい作業であることが多いという。これは、散文やコンピューターコードを書くような多くの洗練されたタスクをできるようになっている現在のコンピュータでも同じである。私はプログラマーの仕事もしているが、かつて私が半日かけて行っていたコーディング作業も AI を使えば一瞬で終わる。しかし、その AI は私のパソコンのキーボードを叩くことはできない。心だけが存在している。身体は存在していない。だから、最も「 AI 耐性( A.I.-proof ) 」のある職業は、配管工、大工、保育士、料理人など、実は昔からあるものなのかもしれない。アップルの共同創業者であるスティーブ・ウォズニアック( Steve Wozniak )は、簡単なテストを考案した。「ロボットはあなたの家に入ってコーヒーを淹れられるか?」というものである。ロボットは未だにこのテストをクリアできていない。

 数年前までロボット工学( robotics )は AI よりもはるかに遅い速度で発展しているように思われていた。YouTube では、産業用ロボット製造大手のボストンダイナミクス( Boston Dynamics )が開発したヒューマノイド( humanoid:人型ロボット)が、ダンスをしたり、障害物を飛び越えたりするのを見ることができる。ロボットがパルクール( parkour:特別な道具を用いずに、障害物を乗り越えたり素早く移動したりするスポーツ)をしている。しかし、これらの動きはスクリプト化されたものであり、同じロボットがコーヒーを淹れることはできない。コーヒーを持ってくるためには、ロボットはキッチンアイランドの周りを移動し、食器棚を認識し、その扉を力加減を調整しながら開ける必要がある。長い間、コーヒーフィルターの口を開くだけでも、底知れぬ難しさがあると考えられてきた。ロボット工学研究者の間には絶望感が漂っていた。

 その後、AI の進歩の一部がロボット工学にも波及し始めた。カリフォルニア大学バークレー校( U.C. Berkeley )で AI 研究をスタートさせたロボット工学研究者トニー・ザオ( Tony Zhao )は、OpenAI が 2020 年に発表した大規模言語モデル GPT-3 の記事を読み、歴史の目撃者になったような気がしたことを覚えている。以前にも言語モデルを見たことがあったが、生きていると感じたのは GPT-3 が初めてだったという。MIT のペトロンは、OpenAI で別のプロジェクトに取り組んだ。ルービックキューブ( Rubik’s Cube )を人間のように回せる繊細なロボットハンドの開発である。2022 年 8 月に Google の研究チームが、大規模言語モデルを搭載したロボットが物理的な作業に関して驚くほどの常識を持っていることを示した。ロボットにスナックと飲み物を求めたところ、キッチンにあるバナナと水筒を見つけて持ってきたのである。

 多くのロボット工学研究者は、自分たちの研究分野で ChatGPT ような成果が生まれる日が近づいていると確信している。ザオは最新の試作品の 1 つに実演させたのだが、すぐに GPT-3 のことが頭に浮かんだと言っていた。「これまでのものとは全く違うように感じられた」と彼は言った。ロボット工学の最先端を行く研究室では、かつては粗雑で機械的でいかにもロボットらしく見えた装置が、知性を感じさせるような動きを見せ始めている。AI の活用が進んでいるので、意のままに動く手が完成がする日は遠くないのかもしれない。「過去 2 年間で進歩の曲線は非常に急峻になった」と、Google DeepMind でロボット工学研究チームを率いるカロライナ・パラダ( Carolina Parada )は語った。パラダの研究チームは、最近の最も印象的なロボット工学のブレークスルーの多くを支えてきた。特に器用さにおいて他を凌駕する技術を有している。「今年は、汎用的なロボット( general-purpose robot )を作ることが可能であると判明した年である」と彼女は語った。これらの成果の印象的な点は、明示的なプログラミングがほとんど必要ないことである。ロボットは行動を学習する。