きんちゃんのぷらっとドライブ&写真撮影

「しんぶん赤旗」の記事を中心に、政治・経済・労働問題などを個人的に発信。
日本共産党兵庫県委員会で働いています。

AI自動差別① リクナビ内定辞退率 根拠は黒い箱の中

2019-08-25 07:23:36 | 経済・産業・中小企業対策など
AI自動差別① リクナビ内定辞退率 根拠は黒い箱の中
閲覧履歴や購買履歴など、インターネット上のサービスを使ったときに生じる個人情報を人工知能(AI)で自動的に分析し、人物像を推測して個人にスコア(点数)を付けるビジネスが広がっています。新たな差別のシステムに育つ危険があります。
(新井水和、杉本恒如、増田哲明)

「不安」「怖い」「裏切られた」…。学生の反発を招き、AIが生み出す差別の典型例を示したのがリクナビ事件です。
1日、リクルートキャリア(東京)が自社の就職情報サイト・リクナビを使う学生の閲覧履歴などをAIで分析し、内定を辞退する可能性(内定辞退率)を表す5段階スコアを算出して38社に売っていたことが発覚しました。1社あたり400万~500万円もの利用料をとっていました。就活支援をうたう同社が学生を裏切り、採用試験の合否を左右しかねないスコアを勝手に作成して利益を得ていたことに、不安と憤りが広がりました。
トヨタ、ホンダ、りそなホールディングスなどの大企業がスコアを購入。リクルートキャリア自社と親会社のリクルートホールディングスもスコアを利用していたことなどが次々と判明しています。


【内定辞退率スコアの購入・利用が判明している企業】
トヨタ自動車、ホンダ、三菱電機、NTTコムウェア、NTTファシリティーズ、りそなホールディングス、アフラック生命保険、YKK、レオパレス21、東京エレクトロン、大和総研、京セラ、リクルートホールディングス、リクルートキャリア

80万人が利用
リクナビは3万社を超える企業が求人情報を載せるサイトです。登録している学生は約80万人にのぼります(2019年3月1日現在)。業種や職種、地域などの条件で求人情報を検索したり、説明会を探したり、エントリーシートと履歴書を企業側に提出したりできます。
リクルートキャリアは採用試験の合否判定に使わないと約束した企業にのみ内定辞退率のスコアを提供したと釈明しました。しかし他社が本当に合否判定に使っていないか、同社に確かめる方法はありません。本紙の質問に同社は認めました。
「合否判定に使わないというのは紳士協定のようなもの。100%使われていないとは言い切れない。使っていたことがわかって提供を停止した企業もあった」



内定辞退率サービスの廃止と「おわび」を伝えるリクルートキャリアのホームページ

人生狂わせる
インターネット上でリクナビは“炎上状態”となりました。
「就活妨害」
「学生の人生を狂わせる可能性もある」
世論の猛反発を受け、同社は5日にサービスの廃止を発表。「学生の皆さまの心情に対する当社の認識欠如」を反省すると表明しました。その際、一部の学生(7983人)から適切な同意を得ていなかったと謝罪しました。
しかし実際には、同社はすべての学生から実質的な同意を得ていませんでした。リクナビの利用規約には「採用活動補助のための利用企業などへの情報提供」という抽象的な文言があるだけでした。内定辞退率について具体的な説明を学生にしていなかったのです。情報法制に関する政策提言をしている情報法制研究所理事の高木浩光さんは指摘します。
「きちんと説明したら誰も同意しないことがわかっているから、説明をしなかったのではないかと考えざるをえません。個人情報保護法に違反しているだけでなく、契約当事者は互いに相手の信頼と期待を裏切らないように行動すべきだという『信義誠実の原則』にも反しています」



「あなたの就活をサポート!」とうたうリクナビのサイト

確率示すだけ
リクルートキャリアが内定辞退率を算出して他社に売っていたリクナビ事件は、情報をAIで自動処理して個人を評価し差別する手法(プロファイリング)そのものの危うさを示しています。
同社は次のような手順で内定辞退率を算出していました。まず、内定辞退率の提供を望むX社から、前年度の採用試験を受けた学生たちの情報を入手します。AIがその情報を使い、「リクナビ上での閲覧履歴」と「X社の内定を辞退する行為」との間の相関関係を学習します。次にAIは、今年度試験を受けている学生Aさんの閲覧履歴を分析し、前年度の相関関係に照らして、X社の内定を辞退する可能性を算出します。
つまり、AIが計算するのは過去の経験に基づく確率にすぎないのです。特定のAさんが本当にX社の内定を辞退するかどうかはAさん本人にしかわかりません。データを増やして確率を高めたとしても、AIが全く誤った評価をくだす可能性は消せません。
しかも、自律的に相関関係を学習するAIの膨大な計算過程は人間には把握しきれず、ブラックポックスとなります。閲覧履歴と内定辞退率の間にどんな関係があるかを尋ねると、同社は「正確には当社の中でも把握できない」と答えました。その上、スコア作成に利用したデータの詳細についても「公開できないものが多い」と回答。業界別の閲覧履歴や学生が文系か理系かなど、一部のデータを例示するにとどまりました。
これではスコアの根拠を学生に説明することは不可能です。データの取捨選択の仕方により、スコアに不合理なバイアス(偏り)がかかる恐れも否定できません。

危うさ忘れる
インターネット利用者の膨大な個人情報が企業に集まり、情報を利用してもうけるビジネスモデルが広がっています。このモデルの中核に、膨大な情報をAIで自動的に処理して個人の特性や趣味、思想、能力などを推測するプロファイリングがあります。一人一人に違う広告を表示する「ターゲティング広告」も、プロファイリング技術の応用です。
しかし、根拠の不確かなAIの自動処理を社会生活における人間の評価にまで持ち込めば、不公正な差別が横行しかねません。高木さんは指摘します。
「個人データをコンピューターで自動的に処理すると不公平な決定につながるという議論は1970年代に活発に行われました。ヨーロッパではその議論が脈々と受け継がれ、プロファイリングへの規制を定めた欧州連合(EU)の一般データ保護規則に結実しています。しかし日本では70年代の議論が忘れられ、個人情報といえば単に人に知られたくないプライバシーを保護することと媛小(わいしょう)化されてしまった感があります。これを契機に、プロファイリングの危険性をいま一度よく議論すべきです」(つづく)
(3回連載です)

「しんぶん赤旗」日刊紙 2019年8月22日付掲載


学生の就職をサポートする会社が、その学生の内定辞退率を就職先の会社に売っている。まさに、裏切り行為そのものではないですか。
インターネット上のプロファイリング技術は、活用すれば有用なものもありますが、やって良いこととダメなことははっきりさせないといけません。

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする