ChatGPT大成功の裏にある深い闇。時給2ドル以下のケニア人にさせていた事

ChatGPT chat bot screen seen on smartphone and laptop display with Chat GPT login screen on the background. A new AI chatbot by OpenAI. Stafford, United Kingdom, December 13, 2022.
 

ChatGPTの凄さと限界

ChatGPTの凄さは、その並外れた言語処理能力だ。政治、経済、文化、歴史をはじめ、あらゆる分野に対し、おおむね適切で筋の通った回答を返してくれる。

また、ユーザーのリクエストに対し、小論文や小説、脚本を書いたり、作詞・作曲、短歌や俳句、コンピューターのプログラミングやデバッグ(誤りを訂正)したり、数学や物理の問題を解くことが可能(*3)。

一方、その限界もみせる。

「ChatGPTは、一見きちんとしたプログラムを書くようだが、実際には「雰囲気でプログラミングのようなものを見せている」だけで、文字通り全く創造性がない。」(*4)

「ChatGPTは、一見するともっともらしい答えを返せるように、うまく調整されている。」(*5)

ただChatGPTがもたらしたインパクトは大きい。Googleでは、ChatGPTの登場により、社内に「警戒警報」が出されたという(*6)。

検索エンジンに連動した広告ビジネスは、Googleの大きな収入源となっている。こうした状況を打破すべく、Microsoftは、ChatGPTの技術を同社の検索エンジンであるBingに搭載した。

ChatGPTを支えるマンパワーの闇

AIといえども、多くの人力による“マンパワー”で成り立つ。アメリカの「タイム」誌はChtaGPTの“闇“を暴き、大きな話題に。

ChatGPTの生みの親であるOpenAIが、そのパートナ企業を通じ、時給2ドル以下でケニア人労働者を雇っていたことが分かった。

OpenAIが外注先として依頼していたのは、米サンフランシスコのサマ社。この会社は、ケニアやウガンダ、インドなどの人材を雇い、Googleやメタ、Microsoftなどの顧客向けに有害なネット情報を選別し、取り除く

「データのラベリング作業」

というものを実施していたという。

とくにケニア人の労働者たちは、データのラベリング作業の過程において、処刑や性的虐待など極めて暴力的なコンテンツを閲覧し続けることを強いられた。そのなかには、かなりの精神的な傷を負った者もいたという。

なぜ、このような作業が必要だったのだろうか。ChatGPTの前身となる自然言語処理モデルの「GPT-3」は大きな問題を抱えていた。

インターネット上の数十億ものページから収集されたデータをもとにシステムが構築されていたため、GPT-3はしばし差別的で暴力的な文章を生成してしまう。

そのため、OpenAIはChatGPTを立ち上げるにあたり、あらかじめデータから有害だと思われる表現をすべて取りのぞくことを必要としていた。その作業に当たった人たちは、

「あれは拷問でした」

と語る。

この記事の著者・伊東森さんのメルマガ

初月無料で読む

print
いま読まれてます

  • ChatGPT大成功の裏にある深い闇。時給2ドル以下のケニア人にさせていた事
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け