人工知能(AI)を活用した従業員の人事評価はどうあるべきなのか。日本IBMの従業員が加盟する労働組合が会社にAIによる評価の詳細を説明するよう求めた労使紛争は、AIが使用するデータを組合側に公開することなどで和解した。労務管理や人事にAIを導入する動きが進む中、ルール作りが追いつかない現状に一石を投じるか。(山田祐一郎)

AIによる人事評価について「透明性、公平性を担保しなければならない」と話す大岡義久さん=東京都港区で

◆組合側「労使合意のモデルになる」

 「AIを導入するなとは言っていない。導入するならば透明性、公平性を担保しなければならない」。こう話すのは、日本金属製造情報通信労働組合(JMITU)日本アイビーエム支部の大岡義久中央執行委員長だ。日本IBMが賃金査定で導入しているAI「ワトソン」がどのような項目を考慮するのか。同支部と会社の間で4年以上にわたって続いた労使紛争は8月1日、東京都労働委員会で和解が成立した。  公表されている主な和解項目は、日本IBMが組合に対して「AIによる評価項目全てを開示する」「低評価など疑義がある場合は、AIの提案内容を提示して具体的に説明する」ことなど。同支部は声明で「AI利用にあたって労働者の権利と労働条件を守るという労使合意のモデルになる」と和解内容を評価した。

◆当初は「社員への開示を前提としない」

 組合側が都労委に提出した救済命令申立書によると、きっかけは同社が2019年8月、人事評価に「所属長のより良い判断をサポートするツール」として自社製AIを導入したと社内で通知したことだ。

会社側と和解し、8月2日に東京都内で記者会見を開いた日本金属製造情報通信労働組合(JMITU)日本アイビーエム支部の関係者=同支部提供

 同社では所属長が社員の評価や昇進、給与調整の決定権を持っている。同社が開発したワトソンが社員のスキルや専門性など40項目を分析して査定し、妥当な給与額を所属長に提案するというもの。組合側は団体交渉で、AIが所属長に示した情報などを開示するよう求めたが、会社側が「社員に開示することを前提としていない」と応じなかったため、20年4月に都労委に救済を申し立てた。「当時はAIが何を考慮するのか全く明らかにされず、どのような根拠で判断するかも見えない。そしてその結果も知らされないという状態だった」と大岡さんは振り返る。

◆AIが何を学習したのか「わからないのが怖い」

 組合が問題視するのはなぜか。大岡さんは「AIの評価を人が修正するのはかなり難しいのでは」と話す。例えばAIが昇給を提案したのに、所属長の判断で昇給ゼロにした場合、AIはそれを学習し、ゼロになった理由を探す。「それが何と結びつけられるのかわからないのが怖い。休暇取得率の高さと関連があるとAIが判断したら同じような傾向の人はゼロになるかもしれない。もしかしたら組合員であることが影響するかもしれない」  背景にあるのが、米IBMの人員削減の動きだ。同社は昨年と今年、それぞれ約3900人の人員を削減する方針を明らかにした。昨年5月には、アービンド・クリシュナ最高経営責任者(CEO)が、米メディアのインタビューで、AIで代替可能と考えられる職種について新規採用を一時停止する考えを示した。人事といった事務管理部門など顧客に接しない業務にかかわる従業員は、5年でその30%がAIや自動化にとって代わられるとしている。

会社員の男性たち(資料写真)

◆「単なるリストラツールに」?

 大岡さんは「AI導入による業務削減が、働きやすい職場環境ではなく、人員削減につながっている。そうなればAIは単なるリストラツールになってしまう」と強調する。  同支部によると、9月25日に和解内容である評価項目の開示が行われた。大岡さんは「項目が開示されたのは大きな前進。課題を洗い出して団体交渉に臨む」と話す。日本IBMは、今回の和解について「時間はかかったが、当社のAIに対する考え方や取り組みが理解された」としている。

◆「会社がきちんと開示して協議する一つの前例を作れた」

 組合側代理人の穂積匡史弁護士は「同じ問題はかなりの職場で存在するはずだが、このような労使紛争はこれまでなかった。和解はスタートラインであり、今後、和解内容に基づいてAIの使い方が明確になるよう期待する」と述べる。日本IBMはAIの提供事業者であり、利用事業者でもある。「会社がきちんと開示して協議するという一つの前例を作れたのではないか。その意味は大きい」  AIと雇用を巡っては既に懸念が生じている。18年、米メディアはIT大手アマゾン・コムで、AIを活用した採用システムが女性を差別していたことが判明し、運用を取りやめたと報じた。同社は過去の履歴書のパターンから応募者を審査していたが、大半が男性だったため、AIは採用対象として男性が好ましいと自ら学習。「女子」などの文言が入った履歴書が不利になったという。

(資料写真)

◆EU「人事支援などへのAI使用は高リスク」

 日本でも、19年に就職情報サイト「リクナビ」を運営するリクルートキャリア(東京)が、学生のサイト閲覧履歴などをAIで解析して内定を辞退する確率を算出し、本人の同意なくデータを企業に販売していたことが発覚。厚生労働省は「企業に対する学生の立場を弱め、就職活動に不利に働く恐れが高い」と是正を求める行政指導を行った。  「HRテックと呼ばれる人事や労務管理にAIを使う動きが広がる一方で、企業がどのような使い方をしているかはなかなか見えず、当事者である労働者の問題意識が高まっていない」と穂積弁護士は指摘する。  欧州連合(EU)では今年5月、世界初の包括的なAI規制法が成立した。金融機関の審査や教育、人事支援などへのAI使用は「高リスク」と位置付けられ、規制がかけられている。これに対し、日本では規制の道筋はまだ見えない。労働者をどう守るべきなのか。

◆「倫理観を持たないAIは人間による統制が必要」

 神戸大の大内伸哉教授(労働法)は「AIによる人事評価は効率的で、使い方によっては恣意(しい)的な判断やえこひいきなどが排除され公平である利点がある。だが取り込むデータが偏っていれば、過去の差別が再生産される危険性がある」と指摘する。労働問題に限らず、AIの規制については暗中模索の状態だといい「倫理観を持たないAIは人間による統制が必要だ。それは技術者だけで考える問題ではなく、法学者や哲学者らとの協働が求められる」と強調する。  AIと雇用について詳しい中央学院大の小林和馬准教授(情報通信政策)は「AIとともに働くことは労働者の基本的人権を考えることでもある」と訴える。「AIの人事評価モデルが広がれば、AIによる評価が社会経済の中で固定的となり、人々の活動が制限される恐れがある。AIがなぜその評価をしたのか、社会への説明が求められる」

◆「労働者の権利をどう守るのか枠組み整備を」

 日本IBMは組合側に、AIの支援はあるが最終的に判断するのは上司だと強調した。だが小林氏は「上司はAIの提案に異論を唱えることができるのか。その上司も評価されるためAIの評価を安易に受け入れる可能性がある」と危ぶむ。

9月27日、閣議に臨む(左から)岸田首相、高市経済安保相、河野デジタル相(佐藤哲紀撮影)

 政府はAI戦略会議などでAIと雇用のあり方についても検討を進めている。小林氏はこう求める。「議論は始まったばかり。労働者の権利をどう守るのか。AIによる評価を社会で受け入れる枠組みの整備が急がれる」

◆デスクメモ

 静岡県内で企業取材をしていたころ、多くの社長に話を聞いた。業界に少ない女性登用を掲げた老舗企業、外回りの社員向けにお茶やお菓子を取り放題にした会社…。ユニークな社訓を眺め、会社にも人格があるように思えた。AIは働く人や企業の多様さをどう判断するのだろうか。(恭) 

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。