人事データ保護士の独り言①|HRテクノロジーの活用には法律知識が必須な理由(基本編)

昨今、経営戦略と人事戦略の連動が重要視されはじめた。そして人事戦略を進めるうえで、HRテクノロジーの活用が注目されている。ただし、HRテクノロジーの活用においては、最低限の法律知識が必要になることはあまり知られておらず、2018年のAmazonのAI採用の打ち切り事例にもあるように、法的問題につながるケースも発生している。

焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で

Thomson Reuters 


法的な留意事項はあるものの、HR テクノロジーを使い人事データを利活用することは、今後人事戦略を実現するための重要な要件となる。そのためHRテクノロジーを実装し人事データを利活用するにあたり、法令上及び倫理上どのような課題が生じるかを予測し、実際に課題が生じた場合に適切に対応できるよう体制整備や知識の習得が必要となる。

HRテクノロジーとは何か

人事データの利活用を考えるうえでHRテクノロジーは不可欠である。HR テクノロジーとは、人事・総務・労務で用いられるシステムやサービスの総称のことをいう。個人又は組織に関するデータの収集・分析を行い、その結果を採用(配置)、人材開発、労務管理、人事評価等に役立て、組織の可能性を最大化し、個人を活かしていくための技術とされる。

現在、この技術は、採用後の活躍予測や退職者分析、異動後の組織マッチング分析など特定個人の分析だけでなく、企業内の組織分析にも役立てられている。特に昨今では、AI技術の進展により分析や予測の精度も向上し、ますます注目を集めている。

HRテクノロジーのメリット・デメリット

HRテクノロジーのメリット

HRテクノロジーを実装し、人事データを利活用することには大きく2つのメリットがある。データの特徴である客観性とデータの蓄積による網羅性である。

これまでは、上司や経営者の主観に基づき配置や評価などが行われてきたが、データを使うことにより、偏見や思い込みが無くなり、客観的な判断ができるようになる。また、データを蓄積しておくことにより、今までは見えづらかった社員の可能性や、埋もれてしまう社員を網羅的に可視化できる。ダイバーシティー&インクルージョンの実現にも効果的である。結果的に多くの社員が平等にチャンスを与えられ、社員のモチベーションアップも期待できる。

HRテクノロジーのデメリット

HRテクノロジーはメリットがある一方で、デメリットもある。プライバシーの問題とAIを使う際の自動判断の問題である。

HRテクノロジーには、個人情報を含む多くのデータを必要とするため、個人のプライバシーを不当に侵害するリスクがある。また、体制不備やノウハウ不足により予期せず個人情報保護法等の法令に抵触する可能性がある。

さらに、AI を使う場合は、過去のデータ不足や偏りから、特定の集団に対して差別的な判断を行う場合もある。そもそも AI の自動判断は、一定のデータに基づく統計的・確率的な判断にすぎない。そのため評価対象となる個人の意見や具体的事情は考慮せず、機械的に自動判断に基づいて判断するため、個人に不利益を課すような意思決定を行うことは、法的・倫理的観点からの批判を呼ぶ可能性もある。

最低限知っておくべき法律

以上のように、HR テクノロジーは、組織と個人の双方に多大なメリットをもたらる反面、プライバシーを含む個人の人権を侵害したり、差別を引き起こしたりするなどの法的・倫理的リスクを内包したものといえる。こうしたリスクを未然に防ぎ、HRテクノロジーが持つ本来のメリットを最大化できるかが、今後の人事戦略には重要になる。そのためには関連する法律の知識が必要となる。

個人の尊重の原則(憲法13条)

憲法 13 条は、「すべて国民は、個人として尊重される」と規定している。これは過去の封建的身分制度を否定する主旨であり、個人をその所属する属性によって評価せず、個人を個人として尊重することを最重要視したものである。

HR テクノロジーは、データを通じて客観的に、そして網羅的に個人を評価する。個人について、より公正な判断を行い、個人を個人として尊重することに寄与する。一方で、効率性を追求するあまり、無機質に確率的・統計的な判断により個人を短絡的・概括的に分類し、自動的に仕分けすることにもつながる。つまり、そこに個人として発する声は考慮されていない。
そのため、HR テクノロジーを活用するうえでは、短絡的にデータのみで判断するだけでなく、対象となる個人とコミュニケーションを図りながら、その理解を得ながら進める必要がある。

プライバシーの原則(憲法13条)

憲法 13 条にある幸福追求権の解釈に基づき、プライバシー権は憲法上保障されていると考えられている。昨今のプライバシー権の解釈としては「自己情報コントロール権」として捉えていこうとする見解が有力である。つまり、個人は自分の情報の開示や利用について、原則的に自分で決定できるというものである。さらに付け加えると、自分の情報を誰とシェアするかを自ら決定できるという、人間関係の構築に関する人格権として理解することが妥当となる。

ただし、憲法上、認められる「自己情報コントロール権」は自己情報の開示や利用について、常に、また必ず本人の決定を尊重しなければならないわけではない。この権利も、ほかの一般的な権利と同様に他者の健康や職場の安全、社会の安全などのために、ある者の情報が必要な場合には、本人の決定にかかわらずシェアすることもできる。本人の決定と他の重要な利益が相反する場面は、この 2 つの利益を慎重かつ丁寧にバランスを図ることが求められる。

個人情報保護法

企業は、個人情報を取扱う場合、以下のような点を遵守する必要がある。

  • 利用目的の特定(15 条 1 項)
  • 原則、本人の同意を得ずにこの目的を超えて個人情報を取り扱ってはならない(16条1項)
  • 個人データを安全に管理するために必要かつ適切な措置を講じなければならない(20 条)
  • 原則、本人の同意を得ずに個人データを第三者に提供してはならない(23 条 1 項)
  • 保有個人データについて、原則、本人からの開示請求(28 条)、訂正請求(29 条)、利用停止請求(30 条)に応えなければならない。

企業が上記のような義務に違反した場合には、個人情報保護委員会により、是正行為のために必要な措置をとるようにという勧告を受け(42 条)、緊急を要する場合には、必要な措置をとるようにという命令を受けることがあります(42 条 2 項、3 項)。命令に違反した場合には、6 月以下の懲役又は 30 万円以下の罰金(84 条)また、企業は、必要性が認められる場合に、その限度で、個人情報保護委員会による指導を受け(41 条)、場合によっては、立入検査を受けることがある(40 条)。これを拒絶する場合には 30 万円以下の罰金を受ける(85 条)

また、個人情報保護法では「人種、信条、社会的身分、病歴、犯罪の経歴」など、「本人に対する不当な差別、偏見その他の不利益が生じないよう特に配慮を要するもの」を「要配慮個人情報」として括り出し(2 条 3 項)、その取得に原則として本人の事前同意を必要とするなど(17 条 2 項)、特別な保護を与えている。

2020年6月には法改正が行われ、情報の自己決定の要素が強化された。つまりHR テクノロジーを採用する会社は、これまで以上にプライバシー権や個人情報保護に関心を持つ必要が出てきている。

平等原則(憲法14条)

憲法 14 条は、「すべて国民は、法の下に平等であって、人種、信条、性別、社会的身分又は門地により、政治的、経済的又は社会的関係において差別されない」と規定している。HR テクノロジー領域でいえば、業務上の必要性や職場の安全と関連する区別であれば、「合理的な区別」として許容される。

しかし、憲法上、いくら努力しても乗り越えられない属性、つまり「自分の意思や努力で変えることのできない」属性によって人を区別することは、特に注意が必要であるとされている。また、長年の歴史の中で蓄積された構造的差別や偏見によって人が区別されることも、憲法上合理的な区別とは解釈されない。

こうした差別をなくすため、これまで構造的な差別を受けていた女性や障害者などに対して、意識的かつ積極的にチャンスを与えていく必要があると考えられている。

HR テクノロジーを実装する場合は、データの偏りから特定の集団に対して差別的な影響が出ないよう細心の注意を払い、定期的にその影響を検証し、その結果をアルゴリズムに反映させるといった、差別防止のサイクルを構築する必要がある。つまり憲法の平等原則は、HR テクノロジー領域におけるアルゴリズムの公正性・公平性を要請するということになる。

関連ずるAI原則

これまで確認したのはHRテクのロジーの関連法であり、現在日本では直接的に規律する法令は存在しない。そのためHR テクノロジーを実装・運用する場合、関連法令の趣旨や考え方を熟知しておくことが必要となる。また、AI の利用について政府が公表している「原則」を理解しておく必要もある。ここではその「原則」をいくつか紹介する。

内閣府「人間中心の AI 社会原則」(2019 年 3 月)

AI の社会実装を推進するため、各ステークホルダーが留意すべき7つの基本原則を定めたものである。
各原則名のみ紹介する。

①人間中心の原則
②教育・リテラシーの原則
③プライバシー確保の原則
④セキュリティ確保の原則
⑤公正競争確保の原則
⑥公平性、説明責任及び透明性の原則
⑦イノベーションの原則

「人間中心の AI 社会原則」

内閣府


総務省「AI 利活用原則」(2019 年 8 月)

「人間中心のAI 社会原則」を受けて、AI の利用者(AI を利用してサービスを提供する者を含む)が利活用段階で留意するべき事項を「原則」としてまとめている。各原則名のみ紹介する。

①適正利用の原則
②適正学習の原則
③連携の原則
④安全の原則
⑤セキュリティの原則
⑥プライバシーの原則
⑦尊厳・自律の原則
⑧公平性の原則
⑨透明性の原則
⑩アカウンタビリティの原則

「AI 利活用ガイドライン」

総務省


今後ますます導入が増えるであろうHR テクノロジーであるが、その実装・運用に当たっては、関連法令の趣旨や考え方を理解し、関連する AI 原則を踏まえ、法的・倫理的リスクを抑制することが求められる。法的・倫理的な留意事項を整備したうえで、HR テクノロジーを使い人事データを利活用することで、人事戦略を実現する有効なツールとなるのである。

ナラティブ人的資本研究所
代表 堺 孝善
人事データ保護士