例えば、アメリカでは従業員を雇用する際に、応募者の個人情報をAIに解析させて、雇用するかしないかを決定する企業が増えているという。このAIによる決定システムは、一見好ましく見える。従来はコネとか雇用者の好みとか容姿とか口の利き方とかといった、かなり恣意的な方法で決めていたのが、客観的なやり方に改まったので、より合理的になったように思えるからだ。
しかし、AIが利用できる個人情報は有限の過去のデータから、あるアルゴリズムに従って導いた推論にすぎず、その有効性は事後的に確かめられないという根本的な問題点を孕んでいる。
AIに競馬の勝ち馬の予測をさせれば、血統や過去の戦績、脚質、騎手、他の出走馬との比較、などの様々な因子に適当な重みづけをして、あるアルゴリズムに基づいて勝ち馬を予想するだろう。そして重要なことはこの予想が当たったか外れたかは、レースが終われば直ちにわかることだ。外れてばかりいるアルゴリズムは棄却されて、より精度の高いものにとって代わられるに違いない。
翻って、雇用決定システムでは、決定が正しかったかどうかを知るすべはない。運良く採用された人と、運悪く不採用になった人がAIというブラックボックスで決定されるだけだ。異なる会社で同じアルゴリズムが使われると、不採用になった人は、どの会社を受けても不採用になり、就職の機会を奪われてしまう。
AIは様々な個人情報に重みづけをするので、例えば、高級住宅地の出身の人と、貧乏人が多く住む町の出身の人とで、アルゴリズムに組み入れる際の重みづけが異なれば、他のすべての因子が等しくても、前者が採用になり、後者が不採用になるといったことが起こるだろう。
AIは厳密な因果関係ではなくて、相関関係による統計操作をするので、高級住宅地の出身であることと、より高い社会的信用力や知性が強く相関するというデータがあれば、これを決定プロセスに組み込むことを躊躇しない。あるいは、ある国における人種的マイノリティがマジョリティよりも社会的信用力が低いというデータがあれば、AIはより正確な決定のためという大義名分に従って、このデータを考慮するだろう。かくしてAIの無批判な利用は社会的格差を固定することに貢献するようになる。
ほんのわずかな差異で就職できなかった人や、うっかりミスで銀行口座からカードで買った品物の代金の引き落としができなかった人は、この個人データがAIに蓄積されるため、以前に比べてより就職が困難になったり、アパートを借りられなくなったり、ローンを組めなくなったりして、この情報がAI上のスコアをさらに低くして、一度、負のスパイラルに落ちると、社会的な上昇は困難を極めるようになってくるだろう。
image by: M-SUR, shutterstock.com