コンピューターの進化はハードウェアの飛躍的な性能向上も要因の一つだろう。これにより、大量のデータを安い金額で取得して収集できる。尚且つ機械学習を高速かつ、精度高く処理することが可能となった。
イスラエルでインターネットのセキュリティ会社を経営するアレックス・ポリャコフ氏によると、ChatGPTの基礎システムへのハッキングに数時間しかかからなかったというから驚きだ。
AI部分を乗っ取られたら…終了だろう。今はAIのおかげで人件費削減、無人化しているけれども、もしも全部乗っ取られたらと考えたらコレって、機能停止となるのではないか。
氏によると悪意あるデータや指示命令をひそかに送り込むことなどは難しくないという。本当にそんなことが可能なのだろうか。しかし実際にAIが起こした不具合はその可能性を示している。今年2月末にGoogleのAIサービス「Gemini」が不適切な画像を生成したことで炎上した。
それがアインシュタインを有色人種に生成されてしまった画像である。それ以外にもナチスドイツ軍の画像を生成するとアジア人を描写するなどといった不具合が続出したという。これに対してイーロン・マスク氏もGoogleの「Gemini」には、極度に人種差別的かつ性差別的などとXエックスで批判した。
Googleのスンダ─・ピチャイCEOが謝罪する事態にまで発展した。Googleはあくまで不具合としているが本当に不具合なのだろうか?
AIはネット上のデータを収集し学ぶことで精通する。しかしアインシュタインの画像などはかなりの数がネットに存在しており、このような間違いをすること自体が不自然。差別が根強く残っているのかもしれない。
アメリカテキサスにあるAIプラットフォームのセキュリティシステム会社、ヒドルンレイヤー社は、「Gemini」のセキュリティリスクがあると指摘している。
そして、なんと今年3月にGoogleはAI技術を盗み出し、中国企業に渡したとして元社員の容疑者を起訴した。まるで産業スパイ並みだ。AIを売買されてしまっている人の手が加われば平等かつ公平でなくなり、差別的な表現が行われることもあり得る。
ちなみにこの容疑者は2019年にGoogle者に入社して職務の一環として機密情報にアクセスすることが認められていたという。2022年5月21日から2023年5月2日にかけて社内の機密情報を個人のGoogleアカウントにコピーして密かに中国企業に渡し始めたという。
日常生活にこれだけ浸透してきたAI。当然それは戦場にも浸透している。まるで映画ターミネーターを観ているようだ。しかし、これはリアルの世界──(『施術家・吉田正幸の「ストレス・スルー術」』2024年4月5日号より一部抜粋)
この記事の著者・吉田正幸さんのメルマガ
image by: Shutterstock.com









