仕事に生かすグローバルビジネス最新動向と経営理論

  • ¥0

    無料

『新しい酒を古い革袋に入れるな』 新しい酒とは、新しい経済のことです。 古い革袋とは、古い理論のことです。 新しい経済=ナウエコノミーは、古い経営理論が 通用しない経済です。 本メルマガは、最新のグローバル企業の動向を紹介し、 新しい経営理論で分析し、読者の皆様に 「新しい時代の、新しい気づき」を提供するものです。 明日のビジネスのヒントに、新しい視点での発想がほしい 方におすすめします。

著者サイト
 

メールマガジンを登録(無料)

もしくは

※ 各サービスのリンクをクリックすると認証画面に移動します。
※ 各サービスで登録しているメールアドレス宛に届きます。

メールマガジンを解除

もしくは

※ 各サービスのリンクをクリックすると認証画面に移動します。

  • このエントリーをはてなブックマークに追加
 
 
 
メルマガ名
仕事に生かすグローバルビジネス最新動向と経営理論
発行周期
隔週
最終発行日
2017年12月03日
 
発行部数
108部
メルマガID
0000234593
形式
PC・携帯向け/テキスト形式
カテゴリ
ビジネス・キャリア > 経営 > 経営学・経営理論

まぐまぐ!メールマガジンの用語集です。
下記の用語以外の不明な点はこちらをご覧ください。

 
発行周期
週1回、月1回などの発行頻度です。
部数
メルマガの配信数を記しています。
カテゴリ
まぐまぐ!に登録されているカテゴリです。
形式
メルマガには以下の配信形式があります。下部「メルマガ形式」をご参照下さい。
 
最終発行日
最後にメルマガが配信された日付です。
メルマガID
メルマガを特定するIDです。
RSSフィード
RSSを登録すると、更新情報を受け取ることができます。

― メルマガ形式 ―

  • PC向け
    パソコンでの閲覧に最適化したメルマガ
  • 携帯向け
    スマートフォンやフィーチャーフォンでの
  • PC・携帯向け
    PC・携帯どちらでも快適にご購読いただけます。
  • テキスト形式
    文書だけで構成された、一般的なメールです。
  • HTML形式
    ホームページのように文字や画像が装飾されたメールです。
  • テキスト・HTML形式
    号によって形式が変更する場合があります。

閉じる

メールマガジン最新号

最新刊:アントニオ猪木 最強の戦略
https://miruhon.net/61633

教科書:ナウエコノミー―新・グローバル経済とは何か 野呂 一郎
価格:¥3,465(定価:¥3,465)
http://www.amazon.co.jp/dp/4762015873/ref=nosim/?tag=noroworldco07-22

話題の本Technically Wrongが喝破したアルゴリズムの危険な正体

■再犯者特定ソフトの危ない欠点

Technically Wrongという本がアメリカで話題になっています。

一言で内容を言えば、アメリカのテクノロジー企業とその製品(アプリ)は、
黒人、女性、貧困層、性的マイノリティに対して傲慢で、
配慮が足りなさすぎる、それがゆえにアプリは不完全な製品である、
ということです。

作者のSara Wachter -Boettcher氏は、まずCompas(Correctional Offender
Management Profiling for Alternative Sanctions)という有名なソフトを
やり玉にあげます。

このソフト、Compasとは要するに矯正が必要な犯罪者を教えてあげます、
というような意味で、このソフトを利用すると自分の居住区に住む
再犯可能性のある人物を特定できる、というのです。

市販のソフトでこんなのが売られているというのも驚きですが、
当然人権をはじめ法的なことはクリアされていると思われます。

問題とされるのは、このソフトを使うと、白人と比べて黒人のほうが
実際の二倍も再犯リスクが高くなることという、
偏見に満ちた結果が出ることです。

なぜでしょうか。

ここにこの本の先進的な、未来を見据えた素晴らしい洞察があると
思うのです。

ますます時代はITとAI(人工知能)の様相を帯びるでしょう。

しかし、そこに重大なワナがある、この本はそれを指摘しているのです。

■アルゴリズムは偏見の塊だ

どうしてこのようなソフト、アルゴリズムといってもいいですが、を使うと、
こうした問題が起こってしまうのか。

それは、アルゴリズムといっても、その本体はデータだからです。

データが間違っていれば、当然その演算式で計算した結果も
間違うのは当たり前です。

黒人の再犯率が白人の2倍、というある種のでたらめが出てくる仕組みはこうです。

Compasは初犯の被告のプロファイリング(データからその人物を描写すること)
こそが命です。

プロファイリングは、家族や友人に逮捕者がいるか、隣人はその人のことをどう思っているか
などの聞き込みデータによって作りこまれます。

ここで偏見が入るわけです。

例えばアメリカでは、黒人の投獄される率は白人の6倍です。

誤認逮捕や、人種差別的な理由での不当逮捕も、よく皆さんがニュースで見聞きするように、
また現実にも多いわけです。

白人による黒人、マイノリティへの差別が健在であることは、
これまた現実です。

だから、プロファイリングに偏見が当然入るわけです。

■フェイスブックの不完全性

ノースカロライナ大学のある先生が、アルゴリズムに関して非常に
示唆に富む発言をしています。(下記URL参照)
https://www.npr.org/sections/alltechconsid/07/ered/2015/06412481743/what-makes-algorithms-go-awry

この先生は、まずフェイスブックを取り上げて、アルゴリズムは
インプットの能力に限界がある、というのです。

フェイスブックは、ユーザーに対して、「いいね」、かコメントを
書き込むかの二択の選択肢しか与えられない、というわけです。

これはシステムの限界なのか、アルゴリズムの限界なのかは
私にはわかりませんが。

■アルゴリズムを動かしているのは人間の偏見

もう一つ先生が例示したのは、最近企業で使われるようになってきた
「採用ソフト」です。

このソフトにもアルゴリズムが使われており、あるタイプの人物を
はじくことが出来るといいます。

例えば入社後半年でうつ病を発症する候補者を予想することが出来、
内定を出さないようにできるというのです。

このアルゴリズムが使うデータは、フェイスブックです。

フェイスブックに何を書いているか、誰とどんなやりとりをしているかで、
うつ病発生率がわかるというのです。

しかし、先生はこれをアルゴリズムの不完全性であると、断罪しています。

私が考えるに、要するにアルゴリズムとは
一種のパターン認識です。

だから、コンピューターに命じて、何かと何かを結びつけることを人間の判断でまず行い、
それをアルゴリズムという形でコンピューターに覚えこませます。

フェイスブックに何を書いたかで、うつ病発祥の時期を言い当てるというのは、
次のようなトリックではないでしょうか。

ある特定の言葉が多ければ、その言葉が象徴する行動を生み出す傾向が強くある、
という仮説的な関係性をまず採用側が作り出す。

次にそれをアルゴリズムに反映させる。

そうすれば自動的にうつ病患者は排除される、こういう仕組みです。

■人工知能は人間の不完全性が反映される

この私の稚拙な解釈は間違っているかもしれませんが、
「偏見がアルゴリズムに入り込む」というのは、どんなに時代が変わっても、
それがコンピューターであろうが、ロボットであろうが、
同じメカニズムだと思います。

アルゴリズムというものは、人間がそれに演算をさせる前に、
価値判断をしているのです。

つまり不完全なものなのです。なぜならば人間が不完全だからです。

偏見そして、判断の未熟さや不完全さが入るのです。

前者は感情的なもの、後者は人間の想像力や判断力、推理力、
論理力の限界が反映されているのです。

■これからの教育は人間性を磨くことだ

Technically Wrongという本は主に前者の偏見がテクノロジーを不完全で、
危ういものにするという主張です。

またテクノロジー業界が黒人、女性、マイノリティ、LGBTに対しての
偏見が強いがゆえに、アプリという最終製品にもその不完全さが
反映されるのだ、という主張でもあります。

しかし、この本に関しては、
「何言ってるの。差別や偏見はテクノロジー業界だけじゃないじゃん」
という批判もあります。

しかし私はこの本から、来るべき本格的なAI時代においても、
人間の洞察や判断こそが絶対なのだ、という確信を得ることが出来ました。

ロボットやコンピューターに仕事を命じる前に、人間は人間の感覚や判断で
「価値感を創って」いるのです。

そこに偏見や、正しい判断がなければ、本当の意味で人間を利する
テクノロジーは生まれないということです。

                            以上
読者の皆様へ
いつもご愛読ありがとうございます。師走に入り親族が病に倒れ、
次回執筆のめどが立たなくなってしまいました。
しばらくのお休みをいただきます。ご了解下さい。

メルマガ全文を読む
 

▲ページトップへ

▲ページトップへ