「AIが間違えるハズがない」は危険。平気で嘘をつく生成型人工知能の限界

 

勝手に「幻覚」を生み出す怖さ

前出FT記事に登場する、AIに懐疑的なゲイリー・マーカス=NY大学名誉教授が問うのは、生成型AIのモデルそのものの信頼性である。

▼生成型AIの最大の欠点の1つはシステムが「幻覚」を起こし、〔それらしい〕事実を勝手に作り上げることだ。

▼一部のAIモデルは確率論に基づいて答えを出す機械で、論理的な思考から答えを導くのではなく、データのパターンから答えを予測する。

▼例えばフランス語で「avocat」は〔果物の〕アボカドと弁護士の両方の意味を持つ。グーグル翻訳の初期バージョンでは、「昼食にアボガドを食べる」とすべきところ「昼食に弁護士を食べる」と訳していた……。

もし人間が翻訳していれば絶対に起こり得ない誤訳を、生成型AIは確率論の名において平気で冒すことが出来るのだ。もちろんこの間抜けとしか言いようのない誤訳を指摘されればグーグルは即刻辞書を手直しし、2度と同じ間違いを起こさないようにすることは出来るだろうが、マーカスによれば、

▼こうしたことはバグ(不具合)ではなく生成型AIモデルの特徴であり、現在の仕組みでは修正できない。もっとデータを加えれば使えるようになるという幻想がある。だが、データを増やしても問題はなくせない……。

その通りで、生成型AIが確率論的な正しさしか提供できないという本質を持つ限り、その確率を上げてユーザーの信頼を獲得するには、データの量を増大させるしかないのだが、悲しいかな、そのデータ量をどこまで増大させても100%に達することはない。だから、冒頭に述べたように、そこから得られるものは、どこまで行っても「それらしいだけの擬似コンテンツ」なのである。

ユダヤ・キリスト教的発想の限界

西垣が面白いのは、技術論を文明論と繋げて語ることのできる展開力である。上述の朝日インタビューで、さらに彼はこう語る。

▼コンピューターやAIを生んだ発想は、ユダヤ・キリスト教の特徴を強く持っていると考えています。超越的な唯一の神が万物を創造したという教えからは、人間以外の存在に知性が宿る可能性があるという認識が導かれます。ですから人間を超える知的能力を持つ機械が出現したとしても不思議はない、ということになる。

▼神の創った宇宙には本来、論理的な秩序がある。そのありさまを正しく認知することが真理の獲得だというのが、西洋の伝統的な考え方です。「はじめにロゴスありき」と聖書にありますが、ロゴスとは論理的言語、真理です。コンピューターは、開発された当初から、真理を得るための機械として位置づけられていたのです。

▼一神教的世界観のもとでは、時間は宇宙の創造から終末まで一直線に流れるものとされ、そこでは「進歩」という概念が重要です。コンピューターやAIの開発に大きな貢献をしてきた科学者たちも、進歩のために力を尽くそうとしてきたのだと思います。

▼一方で仏教など東洋的な世界観では、時間は直線ではなく循環的です。東洋的世界観では、要素同士が互いに関連し、共鳴し合うと考えるので、分析だけでなく身体的直感を重んじる。これこそAIにとってはとても難しい点であり、AIをうまく活用する際の鍵になる概念だと言えるでしょう……。

この記事の著者・高野孟さんのメルマガ

初月無料で読む

print
いま読まれてます

  • 「AIが間違えるハズがない」は危険。平気で嘘をつく生成型人工知能の限界
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け