彼らは「考えて」いない。なぜChatGPTに知性が感じられないのか

Man,Using,Laptop,Or,Smartphone,With,Chat,Gpt,Chat,With
 

日進月歩の進化を遂げているAI。中でもChatGPTの登場は私たちを大いに驚かせました。そんなチャットサービスについて、「優れているが知性はない」と言い切るのは、文筆家の倉下忠憲さん。倉下さんは自身のメルマガ『Weekly R-style Magazine ~読む・書く・考えるの探求~』で今回、そう判断せざるを得ない理由を解説するとともに、「考える」という行為の重要性を指摘しています。

優れているが知性はない。「AIと思考」について考える

ChatGPTはすぐれた性能を持っていますが、そこに「知性」を感じることはありません。すごく使い勝手のよいUIがある、という感覚があるだけです。端的に言えば、彼らは「考えて」いないのです。

倉下は『すべてはノートからはじまる あなたの人生をひらく記録術』で「思う」と「考える」を区分しました。「思う」は直感的な情報処理で、「考える」はそこから一歩引いた情報処理です。

この区分のポイントは、「直感的」は必ずしも「感情的」とイコールなわけではない、という点です。あくまで脳内の処理において意識を介在しないで発動されるという意味において「直感的」なものであり、その内実は問わないのです。

プロスポーツ選手を見ればわかるように、習熟した状態では相当に複雑な行為も「身体化」が可能です。あれらの行動を逐一意識して行っていたら、スピードがまったくついてこないでしょう。

同じことは認知的反応にも起こります。たとえば、「1+1=」という式を見たら「2」という答えがぱっと思い浮かぶでしょう。1という数字の1つ次は2だから答えは2である、という演算は行われていないと思います。それと同じように、コンピュータが好きな人なら、「16×16=」という式を見たら「256」という答えがぱっと思い浮かぶでしょう。これもかけ算を展開しているのではなく、直感的に答えが浮かんでいるのだと思います。

当初は意識的に計算が行われていたとしても、ある程度経験を積むことで、その中身をショートカットし、一気に「答え」にアクセスすること。それはつまり、何かしらの式・問題を目にしたときに、連想的に答えを思い浮かべることとイコールです。

そうした連想的解答は、決まり切った数式だけでなく、あらゆる反応に出てきます。人間関係に言及するときでも、時事問題に言及するときでも、提示された情報から連想される何かしらの「適切」な答えを口にしているのです。

ChatGPTがやっていることも基本的には同じでしょう。膨大な量の学習があり、その連想がきわめて適切に行えるから人間と同じように会話できる。その意味で、その連想関数はたしかに人間の知性と等しいと言えるかもしれません。これは、ChatGPTが高度な知性を獲得したというのではなく、人間の“知性”が予想されるよりも低レベルで展開できたというだけの話です。

しかし、だからといってChatGPTが「考えている」とは言えません。それはつまり、人間は一般的に「考えている」とは言えない、と言っていることに等しいわけですが、まさにそのような主張を今私はしています。

私たちの生活の大半は「思う」だけで構成されているのです。内面化・身体化された反応と習慣で日常は問題なく過ごせるのです。この世界が固定的・静的であり、新しいアイデアを求めないような環境ならば、きっとChatGPTでも過不足なく日常を過ごせるでしょう。

しかし、現実の環境は違います。さまざまな変化が予期せぬ形でやってきます。そこでは身体化された反応と習慣だけではうまくいきません。そんなとき、私たちの「考える」が起動します。直感的な反応を抑制して、そこから全体的な状況を俯瞰し、選択肢を確認し、必要であれば新たな選択肢が作れないかを検討します。

この記事の著者・倉下忠憲さんのメルマガ

初月無料で読む

print
いま読まれてます

  • 彼らは「考えて」いない。なぜChatGPTに知性が感じられないのか
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け