彼らは「考えて」いない。なぜChatGPTに知性が感じられないのか

 

このとき、人間の視点は目の前にある事象(現実的に目に反射光が入ってくる物事)から離れて、メタな視点へと移行します。自分が何を思い浮かべているのかを探り、自分が何を知っているのかを知ろうとし、自分がどうしたいのかを見出そうとします。

その際には、さまざまな道具が意識的に用いられます。論理や推論の概念的道具です。それらを用いながら、未知なる状態に対応しようと試みます。

だからこそ、そうした概念道具の利用が「知性」なのだと把握されるのですが、しかしそうした道具の利用も繰り返されるとやがて内面化し、意識的な努力は不要となります。つまり習慣になり、無意識な連想で処理されるようになります。ここには「考える」という行為はありません。単に(高度に)反応しているだけです。

「考える」とは、蓄積された連想的反応では対処できないことを自覚し、意識的にそれとは別の答えを求めようとする姿勢です。その中には、自分の確信の度合いを引き下げたり、保留をつけたり、自分の意見に疑問を持ったりといった「作用」が含まれるでしょう。言い換えれば、自分の理解に自覚的になっている状態がそこにはあるわけです。

ChatGPTにそれはあるでしょうか。

もし彼らが、こちらからの質問にすらすらと解答するのではなく、答えを出力しながら「いや、ちょっと待ってくださいね。この答えは違うかもしれません」などと書き込んできたら、私も彼らに知性を感じることでしょう。そこでは「考える」という作業が行われているのだと推論するはずです。しかし、現実の彼らは驚くほどすらすらと解答してくれます。まるでテレビの文化人が自分の専門外のことでも躊躇なく解答しているかのようです。

ポイントは「自覚」であり、それが「考える」という行為と密接に関わっています。自分の“出力”を並走的に自覚し、フィードバックを与えられるかどうか。それがあれば「考える」があると言え、新しい状況に自らで対応していけると想定できます。

上記の想定では、知性的な返答がそこにあるのかどうかに「考える」は関係していません。私たち人間でもほとんど「考え」なしにそれっぽい応対が可能だと考えれば、別段不思議な話ではないでしょう。

その意味で「考える」とは、そこで行われている内容の(あるいはその質の)話ではなく、ある状態の話なのです。

人間の脳はその状態を持つことができます。そして、そのことが「人間の生」に深く関わっています。

決まり切った情報処理においては、上記のような「考える」はまったく不要です。でもそれだけでは済まない場面がきっと出てくるでしょう。そうしたときに「考える」という力はきわめて重要なものになります。AIを巡る話では、この点はぜひとも覚えておきたいところです。

(メルマガ『Weekly R-style Magazine ~読む・書く・考えるの探求~』2022年4月3日号の一部抜粋です。ご興味をお持ちの方はぜひこの機会に初月無料のお試し購読をご登録下さい。

この記事の著者・倉下忠憲さんのメルマガ

初月無料で読む

image by: Shutterstock.com

倉下忠憲この著者の記事一覧

1980年生まれ。関西在住。ブロガー&文筆業。コンビニアドバイザー。2010年8月『Evernote「超」仕事術』執筆。2011年2月『Evernote「超」知的生産術』執筆。2011年5月『Facebook×Twitterで実践するセルフブランディング』執筆。2011年9月『クラウド時代のハイブリッド手帳術』執筆。2012年3月『シゴタノ!手帳術』執筆。2012年6月『Evernoteとアナログノートによる ハイブリッド発想術』執筆。2013年3月『ソーシャル時代のハイブリッド読書術』執筆。2013年12月『KDPではじめる セルフパブリッシング』執筆。2014年4月『BizArts』執筆。2014年5月『アリスの物語』執筆。2016年2月『ズボラな僕がEvernoteで情報の片付け達人になった理由』執筆。

有料メルマガ好評配信中

  初月無料お試し登録はこちらから  

この記事が気に入ったら登録!しよう 『 Weekly R-style Magazine ~読む・書く・考えるの探求~ 』

【著者】 倉下忠憲 【月額】 ¥733/月(税込) 初月無料! 【発行周期】 毎週 月曜日 発行予定

print
いま読まれてます

  • 彼らは「考えて」いない。なぜChatGPTに知性が感じられないのか
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け