AIと人事・働き方
働く側はどう向き合うかヨーロッパの労働組合の取り組み事例
透明性の確保や教育訓練で労働協約を締結
労働分野でのAI導入の課題
昨今、採用活動や人事評価でのAI活用が進んでいます。データに基づく統計や分類はAIが得意とする分野ですが、一方で、責任主体の不明瞭さや差別の助長につながるとの課題が指摘されています。
米国・アマゾン社はAIを活用した採用システムを考案しましたが、女性を差別するという機械学習面の欠陥が判明し運用を取りやめる結果となりました。また、日本でも就活支援サービス企業がAIを使用して学生の内定辞退率を算出し、企業に販売していたことが明らかになり、行政指導を受けました。諸外国においては既存の制度や法律を活用して対応している例もありますが、日本ではデータやAIの運用に関するルールは厳格に定められておらず、企業の自制的な対応に委ねられているのが実態です。
イギリス労働組合の取り組み
各国の労働組合はAIの倫理的な使用に関する課題は認識しているものの、具体的な取り組みにまでは至っていないケースが多いようです。コロナ禍でAIやテクノロジーによる従業員監視や評価のあり方が浮き彫りになり、慌てて対応を迫られたケースも散見されます。
そのような中で、イギリスの労働組合は早い段階からAIの倫理的活用推進に取り組んでいます。イギリス労働組合組織(TUC)は2021年3月に「AIマニフェスト」を発表し、テクノロジーはすべての人の利益になるべきものだと強調し、全体で共有すべき価値観として位置付けました。この中で、「新しい技術を導入する前に、組合や労働者と真摯かつ積極的に協議する必要がある」とし、労働者の利益が尊重されるべきと主張しています。
また、「労働者が自分の個人データの価値を正しく認識し、雇用主がどのように従業員データを使用するかについて説明を受ける必要がある」とも述べています。すでに多くの企業がAIにより収集した個人データを従業員の評価判断に使用しています。しかし、万が一、企業が蓄積したデータが公正さや正確さに欠けていた場合、従業員が賃金や昇進等で不利益を被ることになりかねません。TUCは従業員データの収集・管理のあり方と透明性確保の重要性を指摘しており、すべての雇用主と労働組合がAIやデータの使用に関する労働協約を締結することを推奨しています。
TUCの方針を受けて、英・BTを含むさまざまな企業のエンジニアや専門職労働者を組織するプロスペクト労組は、まずは、労働組合自身の能力開発が重要だと述べています。プロスペクト労組は、労働組合がAIやデータの問題について会社と交渉できる力を身に付けられるように、加盟組織を対象にした学習会やトレーニングを開催しています。
また、将来的には各職場労使での「テック協定」の締結を推奨しています。テック協定は企業や職場の実情に合わせた中身とするため統一モデルはありませんが、必ず含める内容として、(1)従業員データ収集・管理方法の明確化、(2)新技術導入時の通知──を挙げています。会社が新しいテクノロジーを導入する際には、できるだけ早い時期に組合に通知してもらうことで、しっかり準備ができると考えています。
UNIヨーロッパの取り組み
UNI欧州ICTS部会は2019年12月に「AI政策」を発表し、労働組合がAIシステムの管理・運用に積極的に関与すべきだと主張しています。「AIシステムがすべての人に利益をもたらし、誰も取り残されてはならない」との基本認識に立ち、個々の労働者のAIに対する意識向上の必要性を訴え、(1)データの収集と管理、(2)スキルとトレーニング、(3)公正な移行──の3点を重要なテーマに掲げています。また、AIに関する事項を労働協約に含めるよう労働組合が積極的に社会や企業に働き掛けていくことが重要だと述べています。
また、加盟組織への働き掛けと並行して、欧州議会議員へのロビー活動、欧州労働組合連合(ETUC)や経済協力開発機構労働組合諮問会議(OECD──TUAC)への政策展開を行っています。2019年5月にOECDが発表した「AI原則」では労働組合をステークホルダーの一員とした上で、職場での責任あるAIの使用を求めています。
さらに、2020年11月、ヨーロッパの大手通信事業者で構成される欧州電気通信事業者協会(ETNO)との間で「AIに関する共同宣言」を締結し、(1)従業員データの収集・管理におけるAI活用ルールの必要性、(2)展開における社会的対話の重要性──を強調しています。本宣言は内容もさることながら、電気通信分野の社会的・経済的利益向上のために労使が共同で宣言を出したという点で画期的なものとなっています。
日本の労組に求められること
AI活用制度の裏付けとなる個人データの収集や運用のルールづくりにあたり、多くの海外労組は既存の法律や枠組みを根拠にしています。前述の英・TUCは、EUの一般データ保護規則(GDPR)の個人データ保護影響評価(DPIA)条項を考慮したルールづくりを推奨しています。この内容に照らせば、データ活用の適正利用に対して法的責任を負うのは使用者で、“労働者側は立証責任を負わない”と定められています。こうした点からも、既存のGDPRを基本に運用を進めることが合理的だとしています。
また、フランス労働総同盟(CFDT)は、昨年発表した「職場でのAIガイド、アルゴリズムに関する権利」の中で、将来的にはグローバルな共通ルールの策定が必要だが、現段階はGDPRを法的根拠として労使協議会で議論すべきであると述べています。
AIによる人事管理の動きが今後も進むと予想される中で、とりわけ日本では対置する法制度や枠組みの整備が立ち遅れています。従って、日本の労働組合は、先駆的取り組みを展開しているヨーロッパを中心とした海外労組の経験を参考にして、この問題に積極的に関与し、AIの倫理的な活用の道筋をつくっていかなければなりません。