AIの学習方法の秘密! AIは世界を便利にしてくれるのか?それとも害悪をもたらすのか?  

 本日翻訳して紹介するのは、the New Yorker Web版にのみ3月28日に掲載された Sue Halpern のコメントです。タイトルは、”What We Still Don’t Know About How A.I. Is Trained”(AI の学習方法についてまだわかっていないこと)となっています。

 Sue Halpernは、スタッフライターです。政治やテクノロジーなど幅広い分野の記事を書いています。著書も7冊出しています。邦訳されているのは1冊(私が何を忘れたか、思い出せない―消されゆく記憶)のみのようです。読みましたが、訳文が素晴らしく面白かったです。さて、今回のコラムのスニペットは、”GPT-4 is a powerful, seismic technology that has the capacity both to enhance our lives and diminish them.”(GPT-4 は非常に影響力の強いテクノロジーであり、私たちの生活を改善させたり、逆に改悪させる能力を持っています)となっています。

 このコメントの主旨は、AIは優れた可能性を秘めているが、害悪を及ぼす可能性も秘めているということのようです。それほど長くない文章ですが、このコメントをまとめますと以下のとおりです。

  1. AIは、何も無いところから返答等を生成しているように見える。しかし、実際にはそうではなくて、事前に学習(pre-trained)していて人間が生み出した情報素材を覚え込ませて、人間が作ったアルゴリズムで返答等を生成しているだけ。
  2. AIは自分が生成した返答等の意味を理解していない。また、経験で学ぶということもしない。
  3. ChatGpt-4等のAIのアーキテクチャ、仕様、学習方法等は、未公開である。その理由は2つ。多くの企業が競合しているからオープンにできないということ。仕様を公開してしまうと、逆手に取られて悪用される恐れがあること。
  4. 上記3のようなAIの不透明性は、AIに不具合があった場合に、それが認識されにくいといういう弊害をもたらしている。
  5. AIの学習では大量に電力を消費するので環境負荷が大きい(思うに、これは、AIがもたらす便益が大きければ、大した問題では無いと思うが)。
  6. AIの能力は素晴らしい。司法試験に合格するし、コードも書けるし、レシピも考えられる。しかし、良い面ばかりではない。差別や偏見を助長するコンテンツを生成することもある。悪用されることもある。
  7. 残念ながら、包括的な規制をする独立した機関が必要かもしれない。コンテンツ・モデレーションをしたり、規制や罰則を定めたりして、プライバシーの保護を万全にして、誰もがAIのもたらす便益を享受できるようにすべき。
  8. 今問われているのは、AIの脳の出来ではない。それを取り巻く生身の人間の脳の出来が問われている。

 以上がまとめです。

では、以下に和訳全文を掲載します。詳細は和訳全文をご覧下さい。