2020ICTSフォーラムをオンラインで開催AI・5Gの技術活用は
「人間中心の社会」のために
中央執行委員長
最新動向の共有を
フォーラムの冒頭であいさつした野田委員長は、「ICTを活用したオンラインサービス利用の機運が高まり、社会を変革させる契機になっている。人口減少や少子高齢化、気候危機、自然災害への対処を含めて、あらゆる場面でのDXの促進、持続可能な新しい社会モデルの構築が求められている。『ニューノーマル』の社会を支えるために情報通信基盤の確立が大切になっているが、デジタル技術を個人や社会の「ウェルビーイング」(well─being)に役立てる、『人間中心の社会』を実現することが求められる。AIの利活用に関しても倫理的な課題が重要になっており、今回のフォーラムで最新の動向を共有したい」などと述べた。
政府のIT総合戦略を説明
続いて、三輪昭尚・内閣官房内閣情報通信政策監が「政府のIT総合戦略」を説明した。政府は2020年7月に「IT新戦略」を閣議決定し、社会全体のデジタル化をめざすという目標を掲げている。政府は、新型コロナウイルスの感染拡大を阻止するためにITやデータを総動員した取り組みが必要であるとして、ITの活用を進めている。三輪氏は、接触機会が減少する中でも社会が機能し、経済成長が可能になるようにするために、デジタル化をさらに推進するという政府の考え方を説明した。
また、IT新戦略のポイントとして、データの利活用とデジタル・ガバメントの促進が重要だと指摘。データ利用のルール整備や、デジタル社会基盤としてマイナンバー制度を活用することがポイントになるとした。
その上で、政府の具体的な取り組みについて紹介。デジタル手続法によって、行政手続きのオンライン化の徹底や添付書類の撤廃、システム整備などを進めている現状を報告した。
行政のデジタル化に向けては、一元的なプロジェクト管理への移行について説明するとともに、地方自治体のシステムの一元化に向けて、自治体クラウドを推進する取り組みなどを紹介した。
今後に向けた課題としては、縦割りを解消するための強力な横断的な仕組みや人員の強化などを挙げ、多様な人材を集め、従来の役所とは一線を画した次のデジタル社会をリードする強い組織を立ち上げることが必要として「デジタル庁」創設に向けた考え方を述べた。
AI倫理が重要なテーマに
続いて、株式会社 企(くわだて)の代表取締役のクロサカタツヤ氏が、「私たちはどう生きるか〜人間中心のAI社会の実現に向けた潮流について」と題して講演した。
クロサカ氏は、AIを考える上では、それが誰のためになるのかを考えることを必要とし、人間の能力を超えていくAIに対して、「AIに人間にいかに貢献してもらうかを考えないといけない」と
強調。AI倫理=ELSI(Ethical, Legal and Social Issues)が重要なテーマになっており、法律や社会的関心などさまざまなアプローチで検討し、課題と解決策を組み合わせることが重要だと語った。その上で、AIが起こすエラーについて事例を紹介。AIに精度が求められる一方、ゼロリスクを追い求めることにも課題があるとして、AIを運用する基準やエラーがあった場合の救済方法に関して、人間中心で考えることが大切だと語った。
また、5Gが普及する中で、人々の行動がデータとして把握される動きが強まるとして、データ把握による便益とプライバシーとのバランスが課題になると指摘。さらに、新型コロナウイルスはAIと5Gの連携の普及を強力に加速させるとして、テクノロジーの「暴走」を防ぐためにも、ELSIのような方法でバランスを探ることが重要だと訴えた。その際に重要なのは人間へのまなざしであり、人間が中心に置かれた環境をつくることであるとして、社会の一人ひとりが何を価値にしているのか、幸せに思うこととは何かを突き詰めていく必要があると説明した。
■ ■
最後に、情報労連の春川徹政策局長が情報労連のICTS政策を紹介。情報通信産業の健全な発展に向けて、サプライチェーンを構成する企業やIT企業における人材の確保・育成などの必要性を訴えた。
労働組合は「アルゴリズム使用協定」の交渉を世界の労働運動はAI化にどう向き合っているのか
AI化は世界中で進んでいる。国外の労働組合はその波にどう対処しているのか。国際産別労組からの報告。
世界のサービス産業労働者を代表するUNIは、アルゴリズム管理がどのように職場で使われるべきか、組合が使用者と「アルゴリズム使用協定」を交渉すべきだと喚起している。世界中で使用が増えているAIやアルゴリズムによる管理ツールの倫理的使用を要求するための、組合向けのガイドラインも発表した。
AIやアルゴリズムを利用した管理ツールは、従業員の労働時間・場所の追跡、履歴書のキーワード解析から、店内の顧客の足取り予測、従業員へのシフトや任務の割り振り、採用・昇進・配転に至るまで、日々の職場の意思決定に幅広く使われている。
例えば、アマゾンの倉庫労働者が装着する触感フィードバックデバイスは、品物をより効率的に取れるよう、振動で手足の動きを導くものだが、この種の過剰な効率性の追求は労働者に極度のストレスを与える。常にプレッシャーを感じ、人間の自主性が奪われ、自分が単なる機械のように思えてくるという。
コールセンターでは、AIによって従業員の言葉遣いや声の調子が監視・分析され、「早口過ぎる」「疲れたような声をしている」「共感力が足りない」と、リアルタイムでフィードバックが与えられる。
この種のプログラムによって、女性、なまりのある従業員、少数派の人種・民族の言葉や表現を誤解する傾向が強いと報告される労働者もいる。アルゴリズムに組み込まれた偏見によって、成績が不正に評価されることが多いという。
UNIは上述の事例を踏まえ、アルゴリズムの使用により効率性が改善できる反面、リスクの可能性も指摘する。監視が強化され、データが収集され、仕事から人間性が奪われ、職場の差別が拡大することを懸念する。新型コロナウイルスの感染拡大によって遠隔勤務が急増し、企業は従業員を監視するツールの使用を加速させた。アルゴリズムによる決定であっても、使用者は結果への責任がないわけではない。新しい技術やこれらのツールが公平に使われるよう組合が交渉すれば、労使双方に利をもたらすだろう。
アルゴリズムが適切に設計され実行されれば、人間の偏見を減らすこともできるだろう。米国の実験では、黒人らしい名前の求職者は、アングロサクソンの名前を持つ似たような経歴を持つ求職者に比べ、面接に進む確率が50%低かったと示された。適切に設計されたアルゴリズムなら、採用過程全体の偏見を減らし、差別を受けたかもしれない求職者に、より公平な機会が与えられるはずだ。
UNIは「アルゴリズム使用協定」には、どのようなツールが使われているか、どのようなデータがどのような理由で収集されているかを知る権利、労働者に関して集められたデータにアクセスする権利等を含むべきであると提唱している。最も重要な点は、これらのツールは人間が指揮すべきこと、そして差別のない結果を確保するために監査を行うことだ。