特集2022.07

AIと人事・働き方
働く側はどう向き合うか
ヨーロッパで検討進むAI規制案
労働法はAIとどうかかわるか

2022/07/12
労働法はAIをどう規制できるのだろうか。ヨーロッパでは、その検討が進んでいる。何をどう規制しようとしているのか。日本の現状はどうか。ヨーロッパの労働法に詳しいJILPTの濱口所長に寄稿してもらった。
濱口 桂一郎 独立行政法人 労働政策研究・
研修機構労働政策研究所長

ボスがアルゴリズムだったら?

人工知能(AI)と労働を巡る議論は、これまでどちらかというとAIによってどれだけの仕事が奪われるかという、マクロ的ないし経済学的関心が主でした(フレイ&オズボーンの2013年論文やその日本版など)。しかし近年、AIが労働のあり方をいかに変えるかという、ミクロ的ないし社会学的関心が高まっています。採用から業務管理、業績評価、解雇に至るまでの人事労務管理の全般にわたって、AIがもたらしつつある変化が、これまでの労働法が前提にしていたものを突き崩しつつあるのではないかという問題意識です。オックスフォード大学法学部のアダムズ・プラスル教授の最近の論文「もしボスがアルゴリズムだったら?」(『比較労働法政策雑誌』41巻1号)というタイトルは問題を端的に示しています。

これまで採用を巡る問題の中心は不完全情報による「レモン」(職務能力の乏しい者をつかんでしまう)問題でした。しかし今や、ネット上に存在する応募者に関する情報を探索し、プロファイリングすることで、問題社員を事前にチェックすることも可能になりつつあります。それでどこが悪い?と考えるかもしれませんが、応募者のさまざまな属性や特徴から一定の傾向を抽出し、それに基づいて採用の判断をすることは、労働法が抑制しようと努めてきた統計的差別を公然と復活させることになりかねません。問題はそれが経営者の偏見などではなく、ビッグデータに基づく「科学的に正しい」予測だという点です。

入社後の日々の業務管理も、これまでは不可能であったような微細なモニタリングとデータ収集により、継続的な監視の下に置くことが可能です。飽きっぽい生身のボスではなく、アルゴリズムがリアル空間でもネット空間でもあなたを見張っているからです。これをアダムズ・プラスルは、百眼の怪物アルゴスになぞらえて「今日のパノプテス」と呼んでいます。会社は監視監獄パノプティコンになるのでしょうか。

EUの規制案とは?

こうして日々収集されたデータは日々分析され、労働者の業績評価に用いられます。繰り返しますが、恣意的で偏見に満ちた生身のボスではなく、ビッグデータに基づく科学的な判定です。しかしその判断過程は外から見えません。AIの中でどういうデータに基づいてどういう判断が下されたのか、生身のボスにもわからないのです。「なぜ私の評価はこんなに低いんですか?」「AIの判断だから私にもわからないけど確かだよ」。

これは解雇の判断でも同じです。「なぜ私はクビなんですか」「AIの判断だから私にもわからないけど確かだよ」。誰も説明できないのに、クビになる根拠があることだけは確かです。そう、AIは意思決定を限りなく集権化する一方で、その責任を限りなく拡散するのです。

こうした事態がすでに局部的に現実化しているのがウーバーやウーバーイーツなどのプラットフォーム労働の世界です。仕事の依頼に何秒以内に対応したか、仕事の依頼をいくつ断ったかで細かく評価され、客先の採点で低い評価が続けば、アプリにアクセスできなくなってしまう、というのは、他分野での労働の未来絵図を先取りしているのかもしれません。そこに着目して規制を試みているのがEUです。

2021年12月に欧州委員会が提案したプラットフォーム労働指令案は、(私も含めて)労働者性の法的推定規定の方に関心が集中していますが、実はもう一つの柱はアルゴリズム管理の規制です。そこでは、自動的なモニタリングと意思決定システムの透明性、人間によるモニタリングの原則、重大な意思決定の人間による再検討、労働者代表への情報提供と協議といった規定が設けられています。審議はこれからですが、これらはプラットフォーム労働に限った問題ではなく、労働の場におけるAI利用の全分野に関わる問題です。

欧州委員会のAI規則案

欧州委員会は2021年4月に人工知能規則案を提案しています。こちらは労働に限らず、全分野にわたるAI規制を試みたもので、AIをそのリスクによって4段階に分けています。最も上位にあるのが基本的人権を侵害する可能性の高い「許容できないリスク」で、潜在意識に働きかけるサブリミナル技術、政府が個人の信用力を格付けする「ソーシャルスコアリング」、そして法執行を目的とする公共空間での生体認証などが含まれます。これらは中国では政府が先頭に立って全面的に展開されているものですが、EUはその価値観からこれらを拒否する姿勢を明確にしています。規則案の公表以来、世界中のマスコミが注目しているのもこれら最上位のリスクを有するAIに対する禁止規定です。

しかしながら、その次の「ハイリスク」に区分されているAI技術の中には、雇用労働問題に深く関わるものが含まれています。ハイリスクのAIは利用が可能ですが、本規則案に列挙されているさまざまな規制がかかってくるのです。

4 雇用、労働者管理および自営へのアクセス

(a) 自然人の採用または選抜、とりわけ求人募集、応募のスクリーニングまたはフィルタリング、面接または試験の過程における応募者の評価、のために用いられるAIシステム

(b) 労働に関係した契約関係の昇進および終了に関する意思決定、課業の配分、かかる関係にある者の成果と行動の監視および評価に用いられるAIシステム

見ての通り、入口から出口まで人事労務管理の全局面にわたってAIを用いて何らかの意思決定をすることが本規則の適用対象に入ってきます。ただし、AI規則案はあくまでもAIに対する規制であって、利用者(企業)に課せられるのはリスクマネジメントシステムの設定、データガバナンスの確立、運用中の常時記録(ログ)、そして人間による監視といったことです。

日本や労働組合への示唆

このように、EUのAI規制への意気込みは大きいとはいえ、プラットフォーム労働という小領域向けの指令案と、全社会を対象とする規則案の間に、労働におけるAI利用に向けた中範囲の規制の動きはまだ存在しません。これに対し、欧州労連(ETUC)は2020年7月「人工知能とデータに関する決議」で、職場の不適切な監視を防ぎ、バイアスのあるアルゴリズムに基づく差別を禁止する法的枠組みを要求し、2021年6月には欧州議会議員への書簡で、採用・評価に限らず、職場で用いるすべてのAIシステムをハイリスクに分類し、リスクアセスメントは第三者が行うべきだと求めています。また、欧州労連のシンクタンクである欧州労研(ETUI)も2021年7月の政策ブリーフで、雇用におけるAIを対象とする指令を要求しています。

日本ではまだプラットフォーム労働への規制も緒に就いてすらいませんし、AIについても2021年7月に経済産業省が「AI原則実践のためのガバナンス・ガイドライン」を策定したにとどまり、そこでは法的拘束力ある横断的規制は否定されている状態です。しかし、職場の現実は世界とくつわを並べてどんどん進んでおり、本稿前半で述べたような世界の到来は決して遠い将来の夢物語ではありません。この問題意識を社会に喚起していく上で、労働組合の役割は極めて大きいものがあるはずです。

特集 2022.07AIと人事・働き方
働く側はどう向き合うか
トピックス
巻頭言
常見陽平のはたらく道
ビストロパパレシピ
渋谷龍一のドラゴンノート
バックナンバー