AIの進化と雇用・労使関係
技術の導入と労使関係のかかわり職場のアルゴリズムにどう立ち向かう?
個人情報保護を生かした運動も
AI導入で生じる課題
AIを労働現場に導入することで生じる課題は、大きく分けて二つあります。
一つは、AIを人事考課に用いて、報酬額を決定するようなケースです。具体的には、AIが、どのようなデータを使っているのかわからない、データの活用方法などを会社が開示しないというような問題が起きています。
事例としては、日本IBMの労働組合が、人事考課へのAIの活用について、会社に団体交渉を申し込み、東京都労働委員会に救済申し立てを行ったケースがあります。労働組合は、AIに学習させた元データや、AIが上司に伝えた情報、それらの情報の活用に関する説明などについて、会社に情報の開示を求めています。会社側はこれらの開示を拒否しています。
もう一つは、仕事の割り振りにAIが用いられる際に生じる課題です。例えば、出来高制の仕事でAIが仕事を割り振るような分野がそれに該当します。仕事の割り振りの透明性だけではなく、労働者の収入の安定性にも影響を及ぼします。
典型的な事例は、ウーバーのようなプラットフォーム労働です。例えば、ウーバーのドライバーは、アプリの指示に従い乗客を運びます。その際、仕事の割り振りや報酬額がどのように決まっているのかわからないという問題が起きています。
とりわけ、運んだ回数や時間ではなく、それ以外の要素で決まる「インセンティブ」が報酬に占める割合が高まっています。ドライバーは、どうすれば「インセンティブ」が高まるかわからず、ゲーム感覚で仕事にのめり込むよう誘導されていきます。報酬決定がギャンブル化しているとの批判もあります(※1)。
AIによる差別も懸念されています。アメリカでは、AIが人種などの属性で仕事の割り当てや報酬などを差別しているのではないかという調査報告もあります(※2)。労働組合員だから差別されるという不当労働行為がAIによって行われる可能性もあります(※3)。
AIがデータを分析するためには、労働者の情報を集めなければいけません。監視カメラを設置したり、ウェアラブル端末を着用させたりすることで、否定的な業績評価を避けるために休憩の取得を避けるような影響が報告されています。
EUの労働組合
こうした現状に対して、EUでは、EU一般データ保護規則(GDPR)を活用した労働運動が展開されています。
GDPRには、AIが判断の基礎としたアルゴリズムの情報を知る権利があるとされています。労働組合は、こうしたGDPRの条文を活用して、データの取り扱いや透明性などを求める運動を展開しています。
例えば、労働組合の取り組みとして開示請求を行い、データ保護当局が高額の罰金を命じた例もあります(※4)。また、ウーバーのドライバーが、会社に対し自身の個人情報の開示を求めた裁判では、裁判所は運転手のプロファイル、行動の評価指標(タグ)、乗客のフィードバックやレーティング、運行中の行動・端末の使用・仕事の受諾率、運行の始点・終点、報酬決定システム、仕事の割り当てのアルゴリズムなどの開示を会社に命じました(※5)。
また、GDPRには、雇用の機会や契約上の地位などに影響を与える決定については、アルゴリズムが生成したデータをそのまま使ってはいけないという条文があります(22条)。データ主体に影響を及ぼす決定については、人間のかかわりが必要だということです。
GDPRと個人情報保護法
日本の個人情報保護法が、GDPRと比べて保護が著しく弱いかというと必ずしもそうではありません。
GDPRには域外適用という条項があり、EUに居住している人や法人と域外の人や企業が取引する場合、GDPRを順守しなければならないというルールがあります。ただ、これを逐一行うと手間がかかりすぎるため、取引をする国の法律がGDPRと同等の保護を与えているのであれば、GDPRを守っているとみなす「同等性評価」という制度があります。日本は一昨年、個人情報保護法を改正し、ヨーロッパ委員会から同等性評価を得ています。
このように日本の個人情報保護法は、GDPRと比べて保護が弱いわけではないのですが、労働現場で活用されていないというのが実態です。
どのような情報が個人情報に当たるのでしょうか。賃金のような労働条件の情報や、労働時間のような勤怠情報は、日本の個人情報保護法でも個人情報に該当します。どんな仕事をしたのかという業務パフォーマンスも個人情報に該当します。このように、会社の業務上の情報と個人情報は両立し得るといえます。
EUのGDPRでも、日本の個人情報保護法でも、利用目的を定め、その範囲内で取得、利用、運用することを前提に、その範囲外での利用があれば、データ開示や廃棄などを要求できるという立て付けは同じです。
企業が労働者から取得した情報についても、あらかじめ定められた利用目的に違反した使い方がされていれば、法違反を問うことが可能です。業務上の必要性がないデータの収集は違法にあたります。違反があった場合には、労働者はデータの開示や廃棄などを請求することができます。
AIでの人事考課などに労働者のデータを用いる場合、労働者の同意が必要になると考えられます。また、労働者がデータの活用法などについて会社に開示を求めることは可能だと思います。
他方、労働組合法の観点から情報開示を求めることもできます。労働組合法では、使用者が、団体交渉で労働条件を決める重要な要素について情報を開示しなければ、誠実交渉義務違反に当たります。AIが人事考課を行い、報酬額などを決定するなどしているのであれば、関連する情報を開示する必要が生じるのではないかと思います。
新たな差別を生まない
AIには便利な側面がある半面、悪用や差別の温床になる懸念があります。
アメリカのウェストバージニア州では、教員の健康保険財政の悪化を食い止めるために、組合員にウェアラブル端末の装着を推奨し、端末を着けた人や、端末を着けて血圧が下がった人などの保険料を下げて、端末を着けない人の保険料は上げるという施策が計画されました。これに対して教員たちは、怒りの声を上げ、ストライキにまで発展しました。
この事例から読み取れるように、データによって格差をつけることは、新しい差別を生むというリスクがあります。性別や人種、健康リスクなど本人の努力ではどうにもならない属性で差をつけられてしまうのです。
AIの活用によって差別がより加速する危険性もあります。労働組合は、そうした問題にも目を光らせる必要があると思います。
※1 Veena Dubal(2023)“On Algoritymic Wage Discrimination”
※2 前注1
※3 ボローニャ地裁2020年12月31日判決は配達員の信頼性や参加の程度を指標としてシフトの優先度を決定するアルゴリズムは差別の可能性があるとしてDelivarooに対して利用停止を命じた。
※4 スペインのデータ保護当局がアマゾンの現地法人に200万ユーロの罰金を命じた事例(PS-00267-2020)。イタリアのデータ保護当局が、Deliverooに250万ユーロの罰金を命じた事例(Garante-9685994)、Foodinhoに260万ユーロの罰金を命じた事例(Garante-9677611)など。
※5 アムステルダム控訴裁判所2023年4月4日判決(GHAMS-200.295.742および同747)。