HR領域で進むAI活用、リスクとガバナンスに対するリクルートの考え方【セミナーレポート】

HR領域で進むAI活用、リスクとガバナンスに対するリクルートの考え方【セミナーレポート】

HR領域を含むさまざまなビジネスの現場で利活用が広がっている「AI」。従来人間しか対応できなかった複雑な問題へのアプローチが可能となり、ビジネスにおける利便性や生活の質の向上などが期待される一方で、想定しない結果が生まれることによるリスクも懸念されています。特に仕事探し、人事検討など「人」に関わるHR領域においては、丁寧なリスク対策が不可欠です。

そんなAIリスク対策やAIガバナンスをテーマとして、2024年2月6日、デロイト トーマツ グループ主催のウェビナー「AIリスク対策のはじめの一歩~プラットフォームとしての社会的影響を見据えたAIガバナンスの実現に向けて~」が開催されました。リクルート 品質管理室 室長 渡部純子のAIガバナンスに関するプレゼンテーションと、プロダクト本部 HR執行役員 山口順通が登壇したパネルディスカッションを中心にレポートします。

1. リクルートが目指すAIガバナンス

― こちらのパートでは、リクルート 品質管理室 室長 渡部純子氏に、リクルートが目指すAIガバナンスのあり方、それを実現するためのAIガバナンスの全体像を解説いただきます。AIガバナンスに課題を感じつつも、ガイドラインの社内展開から一歩進んだ施策を進めにくい企業様も多いなか、リクルートでは既に開発現場のリーダーまで巻き込んだ具体的な運営体制が組まれ、社内でマルチステークホルダーと連携したガバナンスを実現しています。では渡部さん、よろしくお願いいたします。

リクルート 渡部純子のプレゼンテーション「標準プロセス」の説明資料
リクルート 渡部純子のプレゼンテーション「標準プロセス」の説明資料

リクルート 渡部:EUで「GDPR(General Data Protection Regulation:一般データ保護規則)」が制定された2016年頃から、日本でもデータプライバシーに対する取り組みの必要性が高まり始めました。リクルートでも同時期から数年かけてデータプライバシーに関する検討を進め、管理部門と事業部門が協働し、サービス品質の担保を目的としたガバナンスフレームワーク「標準プロセス」を設計しています。

「標準プロセス」は企画段階、要件定義段階、開発段階、リリース段階などで都度リスクレビューを行い、適法性、プライバシー保護、セキュリティなど複数の観点で問題がないと確認してから、サービスを社会に提供する仕組みです。標準プロセスは社内の意思決定のフローに組み込んである仕組みなので形骸化しにくく、開発部門が「複雑なルールを全て覚えて運用する」という負荷を最小限にすることができています。

特に大切にしている点は「作る人と一緒に」協働することです。現在、リクルートの国内には大小約400のサービス・プロダクトがありますが、その各サービス・プロダクトの責任者と品質管理部門とで品質担保に取り組み、議論する検討体制になっています。2023年にはアジア太平洋地域で革新的な法律事務所や弁護士、企業の法務部門を表彰するイノベーティブ・ローヤーズ賞(英フィナンシャル・タイムズ)の部門賞も受賞しました。

リクルート 渡部純子のプレゼンテーション「フェアネスモニタリング」の説明資料
リクルート 渡部純子のプレゼンテーション「フェアネスモニタリング」の説明資料

リクルート 渡部:また、近年では生成AIを含むAI活用の流れを背景に、「リクルートAI活用指針」を定め、その方針に則ってAIガバナンスを行っています。前述の仕組み「標準プロセス」のなかに、AI特有の視点も組み込んでいます。

加えて、AIにより人権侵害・差別や多様性の排除などを助長するような結果が生成されるリスクに対し、フェアネスモニタリングを実施しています。サービスをリリースした後も、アウトプットが当初想定していなかった結果を生んでいないかモニタリングを継続しています。そしてフェアネスモニタリングなどでの議論の結果を含め、どのようにして今のモデルが出来上がったのか、その歴史や変遷を記した『モデルカード』を作成し、原点との比較を可能にする運用も一部サービスで実施しています。

また今後も、技術の進化・発展や、法整備の動向、人々の生活スタイルや意識の変化を踏まえ、ユーザーの皆さま、行政、学術機関等のさまざまな立場の方々との対話のなかから常時アップデートしていくことが大切だと考えています。

2. AI活用についてのパネルディスカッション

HRの現場における、AIへの期待と活用の最前線

株式会社リクルート プロダクト本部 HR執行役員 山口順通、シスメックス株式会社 人事本部 グローバル人事企画部 本庄大介氏、富士通株式会社 AIトラスト研究センター リサーチディレクター 稲越宏弥氏、慶應義塾大学 山本龍彦教授のパネリストの4名が、それぞれの立場から、「AIへの期待と活用の最前線」をテーマに議論しました。

― まずはおひとりずつ自己紹介を兼ねて、それぞれの業務・研究におけるAI活用についての期待や生み出したい価値などをお聞かせください。

リクルート 山口、富士通 稲越氏、シスメックス 本庄氏、慶応大学 山本教授の写真
(右上から時計回りに)リクルート 山口順通、富士通 稲越宏弥氏、シスメックス 本庄大介氏、慶應義塾大学 山本龍彦教授

リクルート 山口:リクルートの山口と申します。『タウンワーク』をはじめとする求人サイトや、キャリアアドバイザーが転職をサポートする『リクルートエージェント』など、HRサービス全般を担当しています。

私たちがAIに期待するのは、求職者の仕事探しに対し、人にしかできないと思われてきたきめ細かいサポートを行うことです。それによって、求職者が従来よりも簡単に自分にぴったりな仕事が見つけられるという価値を生み出したいと考えています。

弊社の転職実態調査の結果を見ると、求職者が転職に至らない理由の上位に「転職活動をする時間がない」「自分に合う業種が分からない」といった課題が挙がっています。そうした課題の解決のために、私たちは求職者の希望や強みを理解した上で相談やサポートを行っているものの、従来のように人手だけに依存したままでは対応できる数に限界があります。そこにAIを活用することで、多様な価値観や希望に合ったきめ細かいサービスを、より多くの方に、より速く提供していけるのではないかと、大きな可能性を感じています。

転職活動実態調査
「就業者の転職や価値観等に関する実態調査2022 第2弾 転職と勤務先の合致度・満足度について」リクルートより

現サービスのAI活用状況で言うと、求職の条件がある程度決まっている方に対して仕事をレコメンドする部分においては、かなり人に近いことを人の何倍もの量や速さでできるレベルまで到達している感触があります。一方で、その手前にある、自分に合う業種や職種が分からないという方に対するアドバイスや示唆の提供においてはまだ道半ばで、これから改善を図っていきたいところです。

弊社には「Follow Your Heart」というビジョンがあります。一人ひとりが、自分に素直に、自分らしい選択ができる。そんな世界を実現していく、という目的に向けて、AIを活用していきたいと考えています。

シスメックス 本庄:血液検査の機械などを製造している医療機器メーカー、シスメックスの本庄と申します。この10年ぐらい人事担当として、人間の経験値に頼りすぎない、よりスマートな人事施策を取り入れていきたいと考えてきました。弊社では、新入社員の配属先を決めるプロセスにおいて、AIではありませんがマッチングアルゴリズムを使った配属マッチングシステムを導入しています。新入社員にとって自分のキャリアを考える良い機会になっており、このように従業員自身が考えるきっかけを作ったり、従業員の「こうしたい」を後押したりすることを、AIに期待しています。

富士通 稲越:富士通の稲越です。AIやコンピューター科学の研究に長年携わってきました。AI4People科学委員会における共同座長としての活動にも取り組んでいます。AIが人の害になることなく、人の価値に沿った使われ方がなされ、人の幸福に貢献することを、技術を活用して達成していきたいという思いを強く持っています。

最近では、ジェンダーに関する課題に対しAI技術者・研究者として貢献できないかと、お茶の水女子大学のジェンダード・イノベーション研究所での共同研究に意欲的に取り組み始めました。社会科学および心理学の先生方を交えた異分野を横断した議論により、AIが客観的定量的な情報分析・提案する側面と、それが世の中に受け入れられるかという側面の両方からのアプローチを試みています。

慶應義塾大学 山本:私は憲法学が専門で、プライバシーの問題や、テクノロジーと人権の関係なども扱ってきました。AIに関する法規制の世界的な動向にも注視しています。

そのなかで懸念しているのは、AIに関するルールが個人データ保護と同じ状況に陥らないかということです。日本の個人データ保護に関するルールは、過剰に守られる部分がある一方で、本当に守らなくてはならない部分の保護が弱いという、”過剰かつ過小”の状況のように感じられます。

AIについても、「EUがこうなっているから」などと、その背景にある基本理念を理解せずにそのままルールを輸入してしまうと、何のための規制かが曖昧になり、”過剰かつ過小”となる可能性があります。そうならないよう、人権と民主主義に対するリスクは何かをしっかり考えルールを作っていくことが大切です。

AIには大きくふたつのリスクがあると考えています。ひとつは、 AIにより確率的・定量的にセグメンテーションされることによって、個人が「確率という名の牢獄」に囚われ、その確率的・定量的評価によって差別や排除が生じるという排除のリスク。もうひとつは、ディープフェイクやサブリミナル的な利用のように、人の心の脆弱性につけこんで、自律的な意思決定を歪めるリスクです。このふたつのリスクをしっかり捉えていく必要があります。

こうした課題を多忙な企業の現場で克服していくことは非常に難しいと思います。しかし、やはり中長期的な視点で見れば、面倒でも議論しておくことが経済的な利益にもつながるでしょう。

例えば、2019年に『リクナビ』がAIを使って就活生の内定辞退率を算定し、顧客企業に提供していたことが問題になりました。それを機に、リクルートでは第三者諮問委員会を設置してパーソナルデータ指針を策定しています。その委員会には私も参加し、法学の専門家として意見を言わせていただきました。このように、さまざまなステークホルダーの意見を取り込んでいくことも重要かと思います。その結果、リクルートではプライバシーに関する 外部のアワードも受賞されていましたね。

AI活用に潜むリスクに、どう対応していくか

― 皆さんの業務のなかでは、AIを社会実装していく上でどんなリスクを認識し、その対策としてどのような議論がなされていますか。

リクルート 山口:先ほどお伝えしたとおり、私たちはユーザーである求職者の機会の拡大を目的として、AI活用を進めています。そのなかで、AI活用によって特定少数のユーザーの機会を狭めてしまう可能性があることは、かなり大きなリスクとして捉えています。

仮にサービス利用者が1000名いたとします。1000名のうち、AIによるレコメンドを通じて仕事を見つけられた人が10名から100名に増えればOK、というわけではありません。従来のサービスであれば仕事を見つけられていたはずの10名が、逆に機会を失っていないかまで、留意する必要があると考えています。

そうしたリスクに対して、プロダクト開発部門だけでなく、法務や広報、リスクマネジメント担当など幅広いメンバーが議論し、さらには社外の有識者とも意見交換しながら進めています。

例えば、AIが求職者に仕事をレコメンドする際に使用するユーザーの情報については、「パーソナルデータ指針」も定め、有識者の方々と議論してきました。そのなかで法律的に問題がなくても利用しないと決めたものもあります。また、求職者の経験やスキルを、ユーザーの入力負荷を下げながら、かつAIが理解できる形で構造化して蓄積していく職務経歴書機能『レジュメ』などを開発し、より深く求職者を理解するための工夫も重ねてきました。自分に合った仕事・自社にあった求職者との出会いを創出できるよう、マッチング精度の向上に向けて改善を続けています。

リクルートの求職活動支援サービス共通で利用できる職務経歴書機能『レジュメ』
リクルートの求職活動支援サービス共通で利用できる職務経歴書機能『レジュメ』

シスメックス 本庄:私たち人事部がAIを活用していく上で一番大事にしているのは、従業員の「なぜ?」にきちんと答えるという説明責任です。先ほどご紹介した新入社員の配属マッチングのシステムは、東京大学マーケットデザインセンター(UTMD)と議論しながら開発しており、そのなかで仮想の新入社員と組織でマッチングのシミュレーションを行って違和感のある結果が出たら、ちゃんと説明ができるかを深掘りして何度も議論を繰り返してきました。

― 富士通さんでは多様な方々と連携してAIによる問題を考察してきたことを基に、人や社会に与える倫理的な影響を評価する「AI倫理影響評価」のフレームワークを公開されていました。稲越さん、AIのガイドラインやルールを現場に落とし込む時にAI倫理影響評価のフレームワークがどう役立つかについてお教えいただけますか。

富士通 稲越:AIのルールやガイドラインは、様々なユースケースに適用できるように、総称的な内容になっています。一方で、AIを社会実践あるいはプロジェクトに落とし込む際、たとえ同じAIのアルゴリズムやモデルを利用する場合であっても、そこに潜むリスクは案件ごとに変化します。したがって、AIのルールやガイドラインに正しく対応するためには、総称的な内容が、個別のAI活用シーンにおいて具体的に何を示唆しているのかを読み解く必要がありますが、これはなかなか難しいものです。このAI倫理影響評価ツールを使っていただくことで、リスクの読み解きのサポートができたらと考えています。

― AIガバナンスに関わるルールやガイドラインは、絶えず更新や編集が行われる“リビングドキュメント”と言われます。そこにさまざまな企業活動を反映させる上での重要なポイントについて、山本先生のお考えをお聞かせください。

慶應義塾大学 山本:まずは、ルールやガイドラインのベースとなる基本的な価値観や原理原則の共有が重要です。それがないと、「どのガイドラインに基づけばいいんだっけ?」と、いわゆる「ガイドライン・ジャングル」で迷子になる可能性があります。

そういう意味では、AIについての基本的な枠組みとなる法律のようなものが必要だと思います。守るべき基本的な価値やその秩序は民主主義のプロセスを通じて立法化しておく。そのうえで各企業がそれぞれの領域において、技術の進化に対応してアジャイルかつダイナミックにガイドラインを成長させていく。立法とガイドラインとの役割分担を明確にして取り組むことが重要ではないでしょうか。

多様な立場で議論して作る、これからのAIガバナンス

― AIガバナンスに関する議論は「マルチステークホルダーと連携して進めるべき」と言われています。皆さんは今後どんな方々と連携していきたいとお考えでしょうか。

リクルート 山口:AIガバナンスの議論は、「規律を守ること」と「挑戦していくこと」のバランスが大切であり、そうした対応には社会の多様な方々との議論が非常に重要だと考えています。弊社では、昨年も憲法や労働経済学、AIの専門家の方と議論させていただきました。今後も社内外のさまざまなステークホルダーや有識者の皆様との対話の機会を通して不断に学びながら、人と仕事の出会いの創出に貢献できるテクノロジーの活用を目指していきたいと思います。

シスメックス 本庄:私たちが本当に従業員のためになることをしていくためには、“人間”というものをきちんと理解する必要があります。データサイエンスや心理学などの分野も含めさまざまな有識者の意見を聞きながら、従業員ファーストを実現する方策を追求していきたいと思っています。

富士通 稲越:システムや技術を提供する企業として、第一に、お客様と連携しながら社会実装を進めていくことを大切にしています。さまざまなフィールドの有識者や、マーケットのニーズを理解した実務家との対話も行いながら、AIの持つリスクからお客様のビジネスを守るサポートをしていきたいと考えています。

慶應義塾大学 山本:私は憲法学の研究者ですが、日本企業のカルチャーや日本人観などを研究されている方との対話に興味があります。というのも、日本の企業は法のグレーゾーンに対して積極的にチャレンジしないということが統計的にも実証されているなかで、どういうガバナンスのあり方やルールメイキングが重要なのか、日本企業の性格 や文化などを踏まえて日本的なアジャイルの形をつくっていくことが大切だからです。その方面の研究者との対話や、企業側の生の声も聞いていきたいと思っています。

― 今回さまざまなお立場からのご報告やご意見をお話しいただき、まさにマルチステークホルダーによる議論の場になりました。ありがとうございました。

プロフィール/敬称略

※プロフィールは取材当時のものです

稲越宏弥(いなこし・ひろや)
富士通株式会社 富士通研究所 AIトラスト研究センター リサーチディレクター
お茶の水女子大学のジェンダード・イノベーション研究所 客員准教授
AI4People科学委員会 共同座長

1995年富士通株式会社。入社以降、One-to-Oneマーケティングサービスの開発・運用に従事。2000年よりWebマイニング、機械学習、サーチエンジン最適化をテーマに研究。06年よりIAサーバーの仮想化などオープンソース開発に携わる。09年より産学連携にも関わりながら、半構造データ処理、ビッグデータ、空間統計学・空間疫学を研究。16年よりディープラーニングやAI倫理が研究の主テーマに。18年~21年、Fujitsu Research Europe(英国)駐在

本庄大介(ほんじょう・だいすけ)
シスメックス株式会社 人事本部 グローバル人事企画部

2001年シスメックスに入社し、IT関連製品の開発に従事。10年よりシスメックスユニオン(労働組合)の執行委員長として労働組合活動に従事し、12年人事部門へ。人事部門では人材開発・採用・人事異動・評価・人事システムの導入等を担当している

山本龍彦(やまもと・たつひこ)
慶應義塾大学 法務研究科(法科大学院)教授
慶應義塾大学グローバルリサーチインスティテュート(KGRI)副所長

1999年、慶應義塾大学法学部法律学科卒業。同大学院法学研究科修士課程、同大学院法学研究科博士課程を経て2007年、博士(法学)。桐蔭横浜大学法学部准教授を経て現職。17年、ワシントン大学ロースクール客員教授、総務省AIネットワーク社会推進会議構成員、一般社団法人ピープルアナリティクス&HRテクノロジー協会理事などを歴任。内閣府消費者委員会委員、総務省「ICT活用のためのリテラシー向上のための検討会」座長、デジタル庁・経済産業省「国際データガバナンス検討会」座長などを務める。主な著書は、『憲法とAI』(編著、日本経済新聞出版社18年)、『おそろしいビッグデータ』(朝日新聞出版社17年)、『プライバシーの権利を考える』(信山社16年)など

山口順通(やまぐち・まさみち)
株式会社リクルート 執行役員(プロダクト本部 HR)

2005年リクルートに入社。大学院で検索エンジンの研究をする傍らITベンチャーに正社員として勤務。02年に新卒で証券会社に入社しアナリストとして3年間従事した後、05年にリクルートに入社してアルバイト・パート領域(旧リクルートジョブズ)を担当。『タウンワーク』を中心としたHR領域の企画職を経験し、10年にライフスタイル領域へ。『ホットペッパーグルメ』、『ホットペッパービューティー』、『じゃらん』などのプロダクトマネジメントやプロダクトデザインを経て、執行役員に。その後、『Airレジ』、『Airペイ』などの「Air ビジネスツールズ」のプロダクト責任者を経て、18年下期よりHR領域にて現職

渡部純子(わたべ・じゅんこ)
株式会社リクルート 品質管理室 室長

大日本印刷株式会社で研究職、ベンチャー企業を経て、2004年リクルートに入社。旅行領域でWeb業務を担当。10年CRM部門を立ち上げ後、全社CRM統括、ID全社統合を担当。12年リクルートライフスタイル執行役員に。19年リクルート内の『プライバシー3.0プロジェクト』に参画、20年8月現部署設立に伴い室長に

関連リンク

最新記事

この記事をシェアする

シェアする

この記事のURLとタイトルをコピーする

コピーする

(c) Recruit Co., Ltd.