————- 以下、昨年5月12日に配信したメルマガ第4号から ————-
ジェフリー・ヒントンといっても皆さんにはあまりなじみがないかもしれません。AI研究における先駆者として、この分野では世界で最も尊敬される研究者の一人です。この人がいなければ、今話題のChatGPTのような生成AIの出現はもう少し先の話になっていたかもしれません。
その彼が、ニューヨークタイムズのインタビューに応じて、10年余り務めたグーグルを辞めたことを明らかにし、業界関係者をザワつかせています。その理由を、「AIがもたらす深刻な脅威について自由に発言するため」としており、「自分のライフワークを後悔する気持ちさえある」とも述べていますので、穏やかではありません。ちなみに、彼がグーグルに関わるようになったのは2013年以降であるため、2010年にグーグルを離れた私は、残念ながら彼とは直接の面識はありません。
ヒントン博士が、AIを積極推進する立場から、逆にそのリスクを憂慮する立場に転じたことは、今後のAI開発やその普及に少なからぬ影響を与える一つの変曲点になる可能性があります。 本メルマガ第2号 の「最近気になったニュースから」でChatGPTを取り上げましたが、その中で私は以下のように述べました。
「どんな技術革新にも、必ず正負両面があります。AIにも人類の幸福に大いに寄与する正の側面もあれば、戦争や犯罪に悪用されたり、既存の雇用を消滅させていったりという負の側面もあります。サイバー犯罪の専門家によれば、既に闇サイトなどでは、ChatGPTの悪用ノウハウがさまざま出回っているとも聞きます。能天気に諸手を挙げて歓迎できるわけではありません。」
あらゆる技術革新において、まず「楽観」が先行し、「悲観」がその後を追いかけるものですが、ヒントン博士もまさにその流れをたどったと言えます。「自分も中心的に関わって、何か制御不能なとんでもないモンスターを生み出し、世に放ってしまったのでないか、そしてそれがいつしか人類に深刻な危険をもたらす存在になり得るのではないか」という恐れが高じたのでしょう。やはり本メルマガ第2号で、ChatG PTは「息をするようにウソをつく」ことにも触れましたが、生成AIが誤情報のソースとなっていることは、すでに方々で問題視されています。さらにヒントン博士は、「悪人がAIを悪用することを防ぐ方法を見つけるのは困難だ」とも述べています。
今年3月に、OpenAIがGPT-4(ChatGPTの基盤となっている大規模自然言語モデルの最新版。ChatGPTで利用するには、Free planではなく月額20米ドルのChatGPT Plusにアップグレードする必要がある)をリリースした後、イーロン・マスクやスティーブ・ウォズニアックなどを含む1,000人以上のテックリーダーや研究者が、「AIは社会と人類に深刻なリスクをもたらす」として、AIを研究するあらゆる組織に対し、危険性が適切に評価されるまで、GPT-4よりも強力な技術の開発を6カ月間休止するよう公開書簡で求めました。
また、その数日後、40年余の歴史を持つ学術団体であるAAAI(Association for the Advancement of Artificial Intelligence)の現役リーダーやOBたち19人が、AIのリスクについて警告する書簡を公開しました。このグループには、OpenAIに100億ドル以上の巨額支援をしているマイクロソフトの最高科学責任者(Chief Scientific Officer)であるエリック・ホーヴィッツも含まれています。
ヒントン博士はこれらの書簡に署名はしておらず、まずはグーグルを辞めてけじめをつけたいと思ったようです。ヒントン博士の退職を受け、グーグルの最高科学責任者ジェフ・ディーンは、「私たちはAIに対して責任あるアプローチにコミットし続けます。新たに高まるリスクを理解しながらも、大胆なイノベーションを継続します」との声明を出しています。
ヒントン博士は、英国生まれで現在75歳。1972年、エジンバラ大学の大学院生だった彼は、近年のAIに飛躍的な進化をもたらした「ディープラーニング(深層学習)」の基となる、人間の脳神経回路の仕組みを数理モデルにしたニューラルネットワークを研究テーマに選びました。当時、まだニューラルネットに注目する研究者はほとんどいませんでしたが、ヒントンは、以前の号でも述べたAI研究冬の時代にもひたむきに研究を続けて、ニューラルネットは彼のライフワークとなりました。
1980年代には、米カーネギーメロン大学コンピューターサイエンス学部の教授でしたが、米国防総省の資金援助を受けることに抵抗があったため、カナダのトロント大学に移りました。当時、米国のAI研究は、そのほとんどが国防総省によって資金援助されていましたが、ヒントンは、最初からAIの軍事転用には強く反発していたわけです。
トロント大学に移ったヒントンの下には、後にグーグルを経てOpenAIの設立に関わったイリヤ・サツキーバーを始めとする多くの優秀な学生が集まり、ヒントンと彼の門下生たちは、後に「カナディアンAIマフィア」とも呼ばれるようになりました。ヒントンがAIのゴッドファーザーとされる由縁です。
2012年、ヒントンとサツキーバーおよび、もう一人の門下生アレックス・クリシェフスキーの3人は、数千枚の写真を分析、学習して、花、犬、車などの一般的なオブジェクトを識別できるAlexNetというニューラルネットを構築しました。AlexNetは画像認識の世界大会で、認識率85%(人間の平均値が95%程度といわれる)という当時としては驚異的な成績で優勝し、3人はDNN Researchというベンチャー企業を設立しました。翌年、そのベンチャーをグーグルが4,400万米ドルで買収し、3人はグーグルのメンバーとなったのです。ちなみに、クリシェフスキーはウクライナの出身です。
AlexNetを実現させた彼らの研究成果は脚光を浴び、ChatGPTやグーグルのBardなど、生成AIの創出へと発展していきました。なお、ヒントンは、「ディープラーニング革命の父たち」として、カナディアンAIマフィアつながりのモントリオール大学教授ヨシュア・ベンジオ、ニューヨーク大学教授でメタ(旧フェイスブック)のチーフAIサイエンティストでもあるヤン・ルカンと共に、「コンピューティングのノーベル賞」ともされるチューリング賞を2019年に受賞しています。
グーグルは、ヒントンたちのベンチャーを買収した後、「アルファ碁」で有名になった英国のディープマインド社も買収し、AI研究に本腰を入れ始めました。AIに注力する企業が増えるにつれて、ヒントンはAIのリスクが急速に拡大していく危険性を、以前よりも遥かに強く意識するようになりました。ヒントンが指摘するには、グーグルはAI技術を適切に管理することに神経を使っており、危害を引き起こす可能性 のあるものはリリースしないように注意してきたそうです。しかし、ChatGPTが登場して「グーグルキラー」とも呼ばれ、マイクロソフトがOpenAIに巨額の追加出資を行うと共に、検索エンジンのBingにもその技術を組み入れるようになってから、グーグルは明らかに焦り始めました。グーグルがChatGPTに対抗しようと慌てて限定公開したBardは、公式ブログに公開したプロモーションビデオで誤情報を並べたてていることがわかって炎上し、グーグル(アルファベット)の一時的な株価暴落にもつながりました。
生成AIには、マイクロソフトやグーグルだけでなく、アマゾンやメタなども参入を表明していますし、米国勢だけでなく中国勢も積極的です(中国政府は規制の構え)。ひとたび世界のテックジャイアントたちの競争が激化し始めると、誰もそれを制御することはできなくなるだろう、とヒントンは心配しています。そして彼が最も懸念しているのは、インターネットが偽の写真、動画、テキストで溢れかえることで、一般の人々にとって「何が真実で何がウソだかわからなくなる」ということです。また、早くから懸念されてきた、AI失業についても心配しています。AI失業についてここで詳しくは解説しませんが、英オックスフォード大学のカール・フレイとマイケル・オズボーンが、2013年に発表した『雇用の未来:仕事はコンピュータ化の影響をどれくらい受けるのか(The Future of Employment: How suscep tible are jobs to computerisation?)』という論文の中で、AIによる多くの雇用喪失を予測し、実際に世の中はそのように推移してきています。
ヒントンは、将来のAIが、自律的に分析する膨大な量のデータから予期せぬ振る舞いを学習して、人類に脅威を与える可能性についても心配しています。個人や企業がAIにプログラムコードを自動生成させるだけでなく、そのコードを実際にどんどん実行させるようになると、たとえば、真に自律的な兵器、つまり人を介さずにAIが自律的に人を攻撃する殺人ロボットが現実のものになる可能性もあるとしています。まるでSFのような話ですが、たとえばハリウッド映画の『ターミネーター』は、スカイネットと呼ばれる自己増殖したAIが暴走して人間を攻撃するという、まるでヒントンたちの懸念を先取りしたかのような物語でした。
このような脅威はあくまでも仮想的なものであり、万が一そのような恐れが現実になるにしても、遠い未来の話と多くの人々は考えていました。ヒントン自身も、30年から50年、もしくはそれ以上先のことだと思っていたそうですが、現在はその考えを改めたそうです。
AIを制御する方法について、世界の主要な科学者たちが協力することが最良の希望だとするヒントンは、「AIを制御できるかどうかを理解するまで、我々はAIの研究をこれ以上スケールアップすべきではない」と言っています。繰り返しになりますが、どんな技術革新にも、必ず正負両面があります。正の側面を思いきり引き出して活用する一方で、負の側面をしっかり制御していくことができるかどうか──。ヒントンだけでなく、われわれ人類の英知とモラルが試されていくことになると言えるでしょう。
以上、昨年5月12日に配信した第4号からの引用終わり —–
この記事の著者・辻野晃一郎さんのメルマガ









