「エコーチェンバー」のリスク
今お話ししたパターンや、「ちょっと保守的な動画を見る」くらいだといいんですけど……。実験で何がみえてきたかを説明します。
例えばユーザーが「ちょっと人種差別的な動画」を見てしまった。するとYouTube側は、「この人、人種差別的な動画が好きなんだな」と思います。
それって見ている人の傾向が似ているモノを提示しているだけで、動画の内容を見て判断しているわけではありません。だから、もうちょっと過激な人種差別的な動画を見てしまうと、「あ、この人はこういう傾向の動画が好きなんだ」と、さらに過激な動画を見せる。
そうやっていると、ユーザーは気付かないうちに「世の中こういうふうになっているんだな」と思うようになって、YouTubeを開くと人種差別的な動画に包まれるようになってきます。その結果、より「世間はそういうものなんだ」と思うようになるわけです。
FacebookやTwitterも同じです。Facebookのポストは基本的には友人のモノが多いですよね。
特にアメリカでは地方で思考の色合いが似てくるので、同じようなことを考えている友人のポストを見るようになります。
たとえ友人と距離があって色合いが多様だったとしても、Facebook側はユーザーが「いいね」をしてくれるところから「長くいてくれるモノ」を多く出しがちです。例えばユーザーが「猫好き」「犬好き」の人だったら、「友人のそういうポストを出そう」となってしまう。というように、だんだん思考が激しい方向に寄っていってしまいます。
実は10年くらい前まで、アメリカの大統領選挙は「共和派」か「民主派」かで、その時その時にシェアリングしているアジェンダがありました。
そのアジェンダに関して「今の時代、どの知事に投票すべきか?」という議論が進んで、どちらかが選ばれることが多かったんです。けど、ここ10年ほとんどの州で「こっちの州は民主(党)です」「こっちの州は共和(党)です」というのがほぼ決まっていて。
そのため、フロリダやミシガンやペンシルバニアなど「いくつかの、どっちに倒れるかわからない州」のみの結果で大統領選が決まってしまう状況が起きています。
これは、「空の上には何があるのかわからない世界」ではありません。決まったものしか見えていない、僕たちはある種、限られたバブル(泡)の中で暮らしています。これを「フィルターバブル」と言います。
だれも自分から人種差別派になろう、と思ってなっていない。プラットフォーム側がよかれと思って選択したモノを見ているうちに、自然と染まっていってしまうものなんです。私たちは、そこに気を付けないといけません。
この記事の著者・尾原和啓さんのメルマガ