Annals of Artificial Intelligence
The Case That A.I. Is Thinking
AIは思考しているのか?
hatGPT does not have an inner life. Yet it seems to know what it’s talking about.
ChatGPTには内部生命体はない。しかし、自分が何を話しているのかは分かっているようである。
By James Somers November 3, 2025
1.
人工知能( AI )企業アンスロピック( Anthropic )の CEO のダリオ・アモデイ( Dario Amodei )は予測する。生物学( biology )、数学( math )、工学( engineering )、文学( writing )などの分野で「ノーベル賞受賞者よりも賢い AI 」が 2027 年までに登場してくるという。彼が思い描いているのは、何百万台もの AI モデルがひっきりなしに稼働し、それぞれが独自の研究を行う「データセンター内の天才たちの国( country of geniuses in a datacenter )」である。オープン AI ( OpenAI )のサム・アルトマン( Sam Altman )は今年 6 月に、AI 業界は「デジタル・スーパーインテリジェンス( digital superintelligence )」構築の新たな段階にいると主張し、「 2030 年代はおそらくこれまでとは全く異なる時代になる」と断言した。とはいえ、現在ほとんどの人が日常的に使っている AI ツールは、かつて Microsoft Office の「アシスタント」として活躍していたクリッピー( Clippy )を彷彿とさせるレベルでしかない。クリッピーは実際には厄介者でしかなかった。Zoom の AI ツールは、「会議の冒頭の掴みでどんな話をすべきか?」と尋ねたり、「感謝の気持ちを伝える短いメッセージを書いてほしい」と尋ねると、それなりの提案はしてくれる 。Siri はリマインダーの設定は得意であるが、それ以外ではほとんど役に立たない。私の知り合いは、Gmail 内に「感謝してエピソードを語る( Thank and tell anecdote )」というボタンを見つけ、それをクリックした。すると、Google AI は、彼が実際には行かなかったトルコ旅行についての面白い話をでっち上げてくれた。
AI の急速かつ不均衡な普及は、霧の中に入り込んだように感じられる。何も見るべきものがない、すべて誇大広告( hype )だと結論付けたくなる誘惑に駆られる。確かに、誇大広告がそこかしこに見られる。アモデイのタイムラインには SF の世界しか出てこない。AI モデルの進歩のスピードを考えると、そんな世界はまだ夢でしかない。しかしながら、大規模言語モデル( large language models )が単に単語を並べ替えているだけだと考えるのは、悲観的な見方であると言わざるを得ない。私もかつてはその見解に共感していた。AI は真の知性や知能とはほとんど関係が無いと考えていた。AI の欠点を称賛することさえあった。人間にしかできないことは多いと考えていた。その後、プログラマーとして仕事に AI を使い始めた。使わなければ時流に乗り遅れると恐れたからである。ちなみに、私の雇用主である貿易会社は、アンスロピックを含む複数の AI 企業に出資し、提携もしている。多くの者が、コードを書くことは AI が最も得意とすることだと言う。コードは散文( prose )よりも構造化されている。特定のプログラムが動作するか否かは自動的に検証できる場合が多い。私はすぐに AI 依存派に転向した。まず最初に、何かを調べる際に AI モデルに頼るようになった。それから、それほど大きくなく自己完結的な課題を AI モデルに与えた。遂には、実際にコードを書くという仕事を AI モデルに任せるようになった。それは、私がキャリアを通じて訓練してできるようになったことである。AI モデルが数千行ものコードの複雑な詳細を数秒で理解するのを目の当たりにした。AI は微妙なバグを見つけ出し、複雑な新機能を巧みに組み込むこともできる。その後、私は最終的に、AI ツールをより有効に活用し、独自のツールを開発することを目指すチームに異動した。このチームは急速に人員を増やしている。
SF 作家のウィリアム・ギブスン( William Gibson )が言ったと伝えられているのだが、未来は既にここにあるが、ただ均等に分配されていないだけだという。これは、AI に関して 2 つの文化が存在している理由を上手く説明していると感じる。1 つは AI を軽視する文化で、もう 1 つは AI を称賛する文化である。現時点では、休暇の予約や税金の申告ができる AI エージェント( A.I. agent:人間が細かい指示を与えなくても、与えられた目標を達成するために自律的に計画を立て、複数のツールを自動で使い分けながらタスクを遂行するソフトウェアシステム)は失敗作ばかりであるが、私の同僚の中には、コードの多くを AI を使って記述し、時には複数のコーディングエージェントを同時に実行している人もいる。AI モデルは時に素人っぽいミスをしたり、意味のないループに陥ったりすることもある。しかし、私はそれを効果的に使う方法を学んだので、以前は 1 カ月かかっていた作業を一晩で完了できるようになった。つい先日には、iOS アプリの作成方法の知識は全く無かったのだが、2 つの iOS アプリを作成することができた。
かつての私の上司は、採用面接では欠点に焦点を当てるのではなく、長所を探るべきだと言っていた。大規模言語モデルには多くの弱点がある。よく知られているのは、一見もっともらしく聞こえる虚偽を幻覚的に提示することである。間違っているにもかかわらず従順になること、簡単な課題で迷路に陥ってしまうこともある。しかし、ちょっと前までは、AI モデルの強みは、素早さ、流暢さ、相手の話していることを理解する能力であるとされていた。それらが、AI の有用性の最たるものとされていた。AI の強みを直に体験すると、疑問に思うことがある。AI が理解していると考えるのは錯覚であるという者が多いわけだが、ならば、どういうレベルになったらそれが錯覚ではないと言えるようになるのか?
今年の夏、非常に暑い日であったが、私の友人のマックス( Max )は家族と近所の遊び場に行った。何らかの理由で子供用のスプリンクラーがオフになっていた。彼の妻は子供たちにマックスが何とかするから待つように言った。6 歳と 7 歳の子供の顔は既に暑さで赤くなっている。彼はスイッチがオフになっているだけだと考えて機械室に入った。しかし、彼がそこで目にしたのは、迷路のような多くの古いパイプとバルブであった。お手上げだと思ったが、ふと思いついてスマートフォンを取り出し写真を撮って、直面する問題を説明する文書を写真を添えて ChatGPT-4o に入力した。その AI はしばし思考した。いや、思考しなかったのかもしれない。しかし、とにかく、マックスの目の前にあるのは、給水設備によく見られる逆流防止システムであることを教えてくれた。また、下の方に黄色いバルブがあるはずで、 おそらくそれが水の流れを制御していることも教えてくれた。マックスはそれをひねった。スプリンクラーから水が吹き出した。遊び場中に歓声が響き渡った。
その時の ChatGPT は無意識に言葉をつなぎ合わせていたのか、それとも問題を理解していたのか。その答えを考えることは、理解そのものについて重要なことを教えてくれるかもしれない。「神経科学者は、日夜、理解とは何かというシンプルな難問と向き合っている」と、カリフォルニア大学バークレー校( the University of California, Berkeley )の神経科学研究者のドリス・ツァオ( Doris Tsao )は語る。「機械学習の進歩は、過去 100 年間に神経科学が発見したものよりも、知性の本質について多くのことを教えてくれた」。ツァオは、マカクザル( macaque monkeys )が顔をどのように認識するかを解明したことで有名である。彼女の研究チームは、マカクザルが特定の顔を見た時にどのニューロンが活性化するかを研究し、ニューロンの活性化パターンを解明した。驚くべきことに、マカクザルのニューロンの活動を把握することで、そのマカクザルが見ている顔を正確に表現( rendering )することができるという。この研究では、AI モデルが顔をどのように表現するかについて研究したことが生かされた。最近、彼女が人々によく尋ねる質問は、「 ChatGPT から得た最も深い洞察は何であるか?」である。「それによって思考というものを根本的に解明する事ができると思う」と彼女は主張する。