ニセ池上彰が「鋭い質問ですね」音声合成AIまで駆使した詐欺師の“技術革新”に対処法はあるのか

 

意味不明な「AIの自動音声によるニュース」の導入

一方で、最近の報道によれば対話型の生成AIサービス『ChatGPT』を展開している、オープンAI社は、音声サンプルから合成音声を作成できるAIモデル「ボイス・エンジン」を発表。このサービスへの限定的なアクセスを提供開始しました。

この「ボイス・エンジン」は、わずか15秒の音声サンプルを入力するだけで、合成音声を作成してくれます。つまり、ここまでお話してきた「著名人詐欺」のグループが悪用するのであれば、例えばですが、被害者が寄せてきた「投資の関する質問」に対して、池上氏や前澤氏「らしい人の音声」で被害者名(仮にAさんとします)を入れて

「Aさん、ご質問ありがとうございます。Aさんの持たれた疑問は実に鋭いですね。その点については…」

などと、もっともらしい音声ファイルを作って騙す事が可能になるわけです。更には、この「ボイス・エンジン」というのは音声サンプルと同じ言語だけでなく、さまざまな言語で入力したテキストを音声読み上げすることができるというのです。

つまり、Aさんが尋ねた投資に関する質問について、日本の著名人(池上氏や前澤氏など)が「英語でアメリカの経済アナリストと対談して検討している」的な音声ファイルも作れるわけです。更に、著名人だけでなく、ターゲットになる被害者の周囲にいる人物、例えば家族や友人、恩師などに「なりすました音声」も作れてしまいます。

投資詐欺とは違いますが、古典的な「オレオレ詐欺」の場合に、「会社でミスしてしまい急遽カネが必要」などという従来型のストーリーを、第三者の「オレオレ」ではなく、「孫の本物ソックリの合成音声」を作って流すなどということも可能になります。恐ろしい技術です。

既に世界では問題になっていますが、ニセ動画などもどんどん技術が進むでしょう。とにかくAIを利用することで、詐欺師の技術革新が進むようでは困ります。

具体的な対策は待ったなしです。まず、法律の枠組みが必要です。人口音声による「なりすまし」の取り締まり、特に著名人の音声や容姿が悪用された場合に告発できるようにすべきです。また、大規模に悪用されて被害が拡大した場合にも、著名人はあくまで被害者だという法律上、あるいは社会の共通理解を確定させていくことも必要です。

例えばですが、今回、例として紹介させていただいた池上氏や前澤氏は、あくまで被害者だと思います。仮に詐欺被害が更に広がり、社会的な問題になったとして、それで池上氏や前澤氏のイメージがダウンするというのは理不尽です。では、この方々が自分の名誉とイメージを守るために、自費で対策をしなくてはならないというのも、これもおかしいと思います。有名税という言葉がありますが、それにしては高すぎると思います。

ですから、ニセ動画やニセ音声を取り締まるパトロールを、何らかの公的サービスとして立ち上げる必要があると思います。さらに言えば、安易な姿勢で「AIサービスの実用例を拡散しない」ということも必要です。例えば、一部の放送局がニュース番組などの一部に「AIの自動音声によるニュース」を導入していますが、意味が分かりません。

まずもって人間の雇用を破壊する危険があり、同時に合成音声の技術革新を広範に知らせることで、犯罪予備軍が誤った関心を持つ可能性もあります。意味もなく、社会的な安全性や正当性の確立していない技術を、不特定多数に向けて垂れ流すのは止めたほうが良いと思います。

この記事の著者・冷泉彰彦さんのメルマガ

初月無料で読む

print
いま読まれてます

  • ニセ池上彰が「鋭い質問ですね」音声合成AIまで駆使した詐欺師の“技術革新”に対処法はあるのか
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け