トピックス2020.06

ダイバーシティ推進月間AIはジェンダー格差を再生産するのか
リアルとネット空間の偏りの是正が大事

2020/06/12
採用や人事評価といった分野でのAIの利活用が進んでいる。AIの判断はジェンダー格差にどのように影響するのだろうか。AIと倫理などについて研究する識者に聞いた。
江間 有沙 東京大学
未来ビジョン研究センター
特任講師

AIの「FAT研究」

人工知能(AI)は近年、自動運転や医療、採用、人事など、幅広い分野で利活用されるようになっています。検討すべき課題は、利活用される分野によって異なります。例えばAIには、なぜそうした判断を下したのかを人間が理解しにくいという「ブラックボックス問題」があります。採用や人事、裁判における量刑の判断など、プロセス自体が重要な行為にAIが使われる場合、判断理由が説明されることや、人間が判断に納得できるかが重要となります。

一方で、この問題以外にも、既存の情報通信技術で問題とされていたことは数多くあります。例えば、自動的に会話できる「チャットボット」では、会話内容のデータのプライバシーや、エージェントへの依存性が問題として存在しますし、自動運転に関してもセキュリティーや、事故時の責任の所在などが問題となります。またこれら技術の仕組みを、一般ユーザーを含め、すべての人が知っておく必要があるわけではありません。このようにAIといっても、分野によって検討すべき課題は多様です。

近年では、AI全般にかかわる議論も出てきました。それは「FAT研究」と呼ばれる研究群です。機械学習の公平性(Fairness)、説明責任/答責性(Accountability)、透明性(Transparency)の頭文字を取ったもので、それらを技術に実装する方法や制度の研究です。説明可能性(Explainability)を加えて「FATE」と呼ばれることもあります。

AIとジェンダーという視点では、まず公平性(Fairness)が問われるでしょう。AIの判断が公平かどうかという問題です。

何がフェアなのかというのはとても難しい問題です。「偏り(バイアス)があるからフェアではない」とは単純に言い切れません。偏り(バイアス)とは統計的な観点であり、フェアというのは価値や目的に根差した議論だからです。

Aさんにとって偏りがないと思っていたものが、Bさんには差別的に映る、ということは起こり得ます。それは互いに見ているフレームや目的が異なるからです。その際にAさんがそのことに気付ける環境にいるか、Bさんが意見を言える環境があるかどうかが大切です。

採用・人事システムとAI

アメリカのアマゾン社は2018年、女性差別の要素を取り除けないという理由で、AIを活用した採用・人事システムの開発を断念しました。アマゾン社は、自社に提出された履歴書のデータをAIに学習させ、応募者の格付けを行おうとしたのですが、女性がマイナスに評価される欠陥を修正できませんでした。

学習に用いたのがアマゾン社ですでに雇用されている人の履歴書データであり、アマゾン社がそもそも男性優位の会社だったことがその原因です。現実世界のデータをAIに学習させ、それをそのまま反映させるシステムをつくれば、結果はその価値観を受け継いだものになります。

男性であることを直接的な採用要素にする企業は少ないでしょう。しかし、「情報系に強い人材」「大学院卒」などの要素をプラスに評価すると、それらのコミュニティーがそもそも男性優位であるため、AIの判断に反映されてしまいます。こうした問題に対処し、新たな価値観を創出していくためには、システム設計の段階から多様な人たちを関与させることや、AIの判断を参照程度にとどめ最終判断は人間が行うなどの対応が求められます。

しかし、人間による採用や人事評価の判断根拠は、AI以上に「ブラックボックス」になる側面もあります。人によって評価基準が異なる場合もあり、AIの方が効率的で一貫した基準を迅速に判断できる場合もあります。採用や人事にAIを使うのが悪いというのではなく、どのように使うのかの方法と目的設定が問題だということです。

データをどのように選ぶか

AIは、今の世の中を再生産することはとても得意です。そのため、AIを使う際には、現実世界を再生産するだけでいいのか、ジャンダーギャップを是正したいのであればその思想をシステムにどのように盛り込むかを考えることが大切です。日本は現状でもジェンダー格差が大きい社会です。AIを使って現状を再生産していいのかと考えることも必要でしょう。

インターネットからデータを収集する際も注意が必要です。例えば、ウェブ百科事典の「ウィキペディア」は、AIの学習データとして用いられることもありますが、「ウィキペディア」には女性のエディターが少なく、掲載されている女性の人数も少ないといわれています。「ウィキペディア」を公平なものとしてAIに学習させると、ジェンダー的に偏った学習をする可能性があります。

さらに、ネット空間の方が現実世界よりも偏りが激しい可能性があります。イギリスには職業別雇用データと検索サイトの画像データを組み合わせて、現実と検索データの差を可視化しているサイトがあります。例えば、ジャーナリストは現実には47%が女性であり、差が埋まってきているにもかかわらず、画像検索上では33%と表示されるそうです。リアルの世界でジェンダーギャップが改善している一方、インターネット上では古い情報が更新されておらず、さらにその古い情報を学習データとしてAIが学習を進めていくと、現実とAIのジェンダーギャップが激しくなっていく可能性があります。

だからこそ、システムを設計する際には、誰が、どこで、どのような思想に基づいてアルゴリズムを作り、どこからどのようなデータを取ってきているか、どのような目的でシステムを設計するのかが重要になります。

声を上げられる仕組みを

近年、AI開発の指針を策定する企業が増えています。今後は、指針の実効性を担保できるかが課題です。説明責任/答責性(Accountability)の課題として、問題が起きた際に誰が責任を取るのかなどを明確化しておく必要があります。

大手IT企業の中には、システム開発に関する倫理委員会を持つ企業もあります。また、今後は法務部の役割が重要になると考えています。プライバシーや著作権など法的な問題だけではなく、公平性や差別などの法的にはグレーでも倫理的に問題があるケースへの対応などについて知識を持っておく必要があります。

AIのような新しい技術の場合、先に規制をつくるのは難しく、規制をつくるためには誰かが声を上げる必要があります。労働者や消費者の立場としては、おかしいと思うことがあれば発言する意識を持つことが大切だと思います。労働組合には個人の声をまとめる重要なアクターとしての役割を期待しています。

AIは現実を映し出す鏡です。それだけではなく、バイアスが増幅されたゆがんだ鏡にもなり得ます。その意味では、AIでバイアスが増幅された自分たちの社会を見ることで、現実を変えていく契機にすることもできます。

AIの倫理やガバナンスに関する議論は、ジェンダーバランスは適切かどうかなど、声なき人たち、声を上げたい人たちを救い上げる仕組みや制度が整えられているかというのを、常に自問しながら考えていくことが求められています。

トピックス
特集
巻頭言
常見陽平のはたらく道
ビストロパパレシピ
渋谷龍一のドラゴンノート
バックナンバー