中国が「ディープフェイク」で宣伝工作、AI キャスターが米批判する偽動画

【瀋陽 = 川瀬大介】 米国の情報分析会社「グラフィカ」は、中国関連団体が人工知能 (AI) を使った偽動画「ディープフェイク」による宣伝工作を強めているとする報告書を発表した。 実在する人間のようなニュースキャスターが登場する動画が初めて確認されたといい、警鐘を鳴らしている。

報告書は 7 日に発表された。 親中派団体による情報工作を追跡する研究チームが昨年、ツイッターなどの SNS に「ウルフニュース」という架空の報道機関のニュース動画が配信されたことを確認。 男女 2 人のキャスターが米国を批判し、中国の国際的な役割を強調する内容だった。 米政府系ラジオ自由アジア (RFA) によると、当初は俳優を起用したと考えていたが、話し方に不自然な点があり、調査した結果、AI で作成されたと判明したという。

英国の AI 関連企業が提供する技術を利用したとみられ、報告書は「今後も検知や検証が難しく、より説得力のある加工物が生み出されていく」と指摘した。 中国政府は 1 月、国内向けにディープフェイク技術やそれを利用した虚偽情報の発信などを禁止する新規定を施行したが、国外で作成された動画は対象外だ。 (yomiuri = 2-14-23)


AI で離島結ぶ船の欠航を予測 高専生が開発、的中率は天気予報並み

山形県唯一の離島・飛島と酒田港を結ぶ定期船「とびしま」の運航予測システムを仙台高専(仙台市青葉区)の学生がつくった。 人工知能 (AI) を使い、1 週間単位で出航・欠航を予測する。 近々、試行版がウェブサイトに公開される予定だ。 東北大片平さくらホールで昨年 11 月にあった東北・北海道地区高等専門学校専攻科産学連携シンポジウムで発表された。

運航予測システムは、前日のアメダスデータが更新されると、自動的に翌日から 1 週間分の運航予測を天気予報のようにサイトに表示するというものだ。 2012 年 4 月 1 日からの 10 年以上の酒田のアメダスデータ(降水量や日照時間、平均地表気圧、平均気温、最深積雪、平均風速など)を AI に入力。 とびしまの運航実績を突き合わせ、どんな気象条件なら出航・欠航したかを学ばせた。 翌日の天気予報が出れば AI が予測を出す。

システムの根幹は、仙台高専を昨年春に卒業した小岩晃さん (21) が 21 年度中につくった。 翌日の予測の的中率は 85% ほどだったが、2 日後以降は 58% ほどと精度が下がる。 そこで、後輩である専攻科 1 年、中道一紗(かずさ)さん (20) が精度を引き上げ、利便性を高めた。 天気の移り変わりが日ごとにわかるよう、酒田以西の日本海側のアメダスの観測地点もとり入れた。 新潟や金沢、福岡など 100 - 300 キロの間隔で 5 カ所のデータをシステムに加えた結果、6 日後の運航予測は 72% の「当たり」となり、一般的な週間天気予報並みの精度になった。 アメダスデータが変われば、予測も自動更新されるよう改良もした。

現在のとびしまは、運航事業所が午前 8 時をめどに出航・欠航を判断しており、当日にならないとわからない。 島民らは天気図を読み込むなどして独自に出航・欠航を予測して「防衛」しているが、観光客らにとっては、海上の天気が比較的安定している夏場を除けば予測は難しい。 「予定が立てづらい」として、飛島旅行のハードルの一つになっている。 研究を指導した同校の園田潤教授は「これまで当日の朝 8 時ごろにしか分からなかった運航情報が週間天気予報のようにある程度分かるので旅行の予定も立てやすくなるのでは」と話している。 (鵜沼照都、asahi = 1-15-23)



空飛ぶ殺人ロボット、戦場で使用か AI 兵器、世界初?

北アフリカ・リビアの内戦で軍用の無人小型機(ドローン)が、人間から制御されない状態で攻撃をした可能性があることが、国連の安全保障理事会の専門家パネルによる報告書で指摘されていたことが分かった。 人工知能 (AI) を用いて、自動的に相手を攻撃する兵器が戦場で用いられたとしたら、世界初のケースになるとみられる。

専門家パネルの報告書は、今年 3 月にまとめられた。 報告書は、リビア暫定政権が昨年 3 月に軍事組織を攻撃した際、トルコ企業が開発した「自律型致死兵器システム (LAWS)」と呼ばれる無人小型機によって追尾攻撃が行われたと指摘した。 この LAWS について「操縦者とつながっていなくても、標的を攻撃するようプログラミングされていた」としており、AI が攻撃を行った可能性を示唆している。 情報源や、死傷者が出たかについては記されていない。

米国の専門誌「原子力科学者会報」は 5 月、この報告書について「空を飛ぶ殺人ロボットが使われたかもしれない」と報道。 「死者が出ていた場合、AI を用いた自律型兵器が殺害に用いられた、歴史上最初の出来事になる可能性が高い」と位置づけた。

一方、拓殖大の佐藤丙午教授(安全保障論)は「LAWS とは、指揮管制システムから攻撃、その評価までの全体を指す。 その中で顔認証などで標的を定め、追跡、攻撃するという機能を規制しようというのが国際社会の流れだ。 報告書によると、ドローンのような無人兵器が戦場に現れ、脅威を与えたことは事実かもしれないが、具体的な行動は書かれておらず、LAWS ではなかったのでは、という印象だ。」という。

ただ、佐藤氏は「小型ドローンが勝手にターゲットを認識し、追いかけて殺害する、という可能性のある兵器が戦場に出てきたという点は、LAWS への懸念そのものの構図に当てはまる」と指摘。 「兵器開発を止めることは難しくても、拡散や使用をいかに防ぐかが重要で、軍備管理・軍縮の枠組みで取り組むしか道はない」と語る。 LAWS をめぐっては、地雷など非人道的な兵器を規制する特定通常兵器使用禁止制限条約 (CCW) の枠組みで国際的な規制が模索されてきた。 「コロナ禍で 2 年近く止まっている議論を加速するべきだ」とした。

米ニューヨーク・タイムズも原子力科学者会報の記事の筆者の見方を紹介しながらも、「報告書では、ドローンがどれだけ独立して行動し、人間がどれだけ監視・制御していたか分からない」として、評価に慎重な別の専門家の見方も紹介した。 ただ、この専門家も「自律型兵器システムについては議論をすべきか? 当然だ。」としている。 (中井大助 = ニューヨーク、荒ちひろ、asahi = 6-24-21)


落とし物、免許更新 … AI が対応します 福岡県警が導入

福岡県警が 6 月から、住民の問い合わせに 24 時間対応する「AI (人工知能)チャットボット」を導入した。 落とし物や運転免許更新といった相談の待ち時間短縮や、新型コロナウイルス対策として対面以外での対応を充実させることが狙いだ。 AI チャットボットは、ホームページで「運転免許の更新はどこでできるのか」、「留置施設の面会や差し入れについて」といった質問をキーワードや文章で入力すると、AI が趣旨を判断し、あらかじめ用意された問答集から答えを選んで表示する仕組みだ。 現在 500 ほどの想定問答を用意しており、県警は 1 年以内に 1,500 まで増やすことをめざしているという。

落とし物を拾った場合の対応や、運転免許の更新ができる場所、最寄りの警察署などといった「よくある質問」については、あらかじめボタンが用意されており、1 クリックでより詳しくなった選択肢が表示される。 こうした相談は、従来は電話か警察署の窓口で署員が対応していた。 だが、広報課によると、サンプル調査をしたところ、署に寄せられる問い合わせの電話や窓口での対応件数は、1 署あたり 1 日平均で、運転免許に関するものが約 12 件、落とし物に関しては約 46 件。 担当者が対応中で、長い待ち時間が発生することもあったという。

さらにコロナ禍で、署の窓口の開設時間が一時期短縮されたこともあり、県警は昨夏から改善を検討していたという。 アクセスは、県警ホームページ から。右下にある県警マスコット「ふっけい君」をクリックすると、質問を入力する画面が現れる。 性犯罪の発生場所などを把握できる県警の防犯アプリ「みまもっち」からも利用できる。 広報課の千代島秀樹次席は「どんどん使ってもらうことで、より適切な回答ができる AI に改善していくことができる。 気軽に活用してもらいたい」としている。 (島崎周、asahi = 6-5-21)


駅改札に AI、視覚障害者を検知 ホーム転落防止へ実験

京阪電鉄は、白杖(はくじょう)や車いすの利用者を人工知能 (AI) 技術の画像認識でいち早く見つけ、駅員に知らせるための実証実験を始めた。 ホームからの転落事故などを防ぐ試みで、近畿日本鉄道や相模鉄道でも同様の試験が進む。 実験場所は、八坂神社などの観光名所にも近い京都市中心部の祇園四条駅。 IT 企業アプリズム(大阪市)と協力して 2 月 19 日から、改札口にパナソニック製のカメラを 4 台置いた。 3 月末まで画像データを蓄積し、AI に白杖や車いすの利用者の見分け方を学ばせ、高い精度で自動的に検知できるようにする。 4 月からは、検知すると駅員の業務用携帯電話に通知が届く予定だ。

国土交通省のまとめによると、2019 年度、視覚障害者のホームからの転落は 61 件に上る。 京阪の広報担当者は「券売機で障害者用の切符を買うと駅員に連絡がいくが、IC カードで改札を通ると、駅員が気づかないこともある。 サポートに役立てられるか検証したい。」と話す。 近鉄は大和西大寺駅(奈良市)の改札口に昨年 6 月、同様のシステムを試験的に導入した。  広報担当者によると、改札口に駅員がいない場合でも駅務室で白杖や車いすの利用者を把握できるため、「効果がある」という。 相模鉄道も今年 2 月 16 - 28 日、二俣川駅(横浜市)で警備会社と共同で、防犯カメラを使った同様の試験をした。

障害者手帳の代わりにアプリ、割引も

身体障害者手帳などの代わりに示すことで割引が受けられるスマートフォン用アプリ「ミライロ ID」の体験会が 15 日、大阪メトロ堺筋本町駅(大阪市中央区)であった。 アプリは公の場で手帳を見せるのに抵抗がある人らのために、バリアフリーのコンサルティングを手がけるミライロ(大阪市)が開発した。

飛行機や鉄道などの公共交通機関のほか、映画館や美術館などでも利用できる。 割引の条件はそれぞれ異なる。 鉄道会社では、JR 各社など 100 社以上に導入の動きが広がっている。 この日、堺筋本町駅で体験した視覚障害者の自営業中川雅規さん (45) = 大阪市都島区 = は、「手帳は大きくて出し入れが難しい。 スマホで使えるのはありがたい。」と話した。 (鈴木智之、asahi = 3-16-21)


AI 倫理規制、欧州が先陣 日本も対応急務

人工知能 (AI) の普及に向けて倫理的な問題への対応が重要な焦点になってきた。 米国では AI による顔認証などが差別的だとの批判を呼ぶ事例が相次ぐ。 欧州では AI の開発や利用に対し責任や倫理について定める規制の検討が進む。 日本も対応を迫られそうだ。 AI を巡るルールづくりで先行するのは欧州だ。 欧州議会は 2020 年 10 月、法制化を念頭に AI の倫理、責任、知的財産に関する 3 つの提案を採択した。 学習能力を持つ AI を「人間が常に監視できるように設計」したり、リスクに応じて「自動車と同等の保険に加入」したりするよう求める内容だ。 欧州委員会は 21 年の早期に具体案をまとめるとみられる。

各国は指針などの形で AI についての原則や留意事項を示してきたが、より強制力を伴う対応に踏み込みつつある。 欧州は一般データ保護規則 (GDPR) など、デジタル技術に対するルールづくりを主導してきた。 日本の総務省の担当者は「欧州の動向は進出している日本企業や国内の規制議論にも影響するので注視している」と話す。 背景には、AI が生む差別など負の側面を無視できなくなった事情がある。 米国では 20 年 6 月、アマゾン・ドット・コムなどが警察向けの顔認証 AI に関係する事業の停止や撤退を表明した。 白人警察官による黒人男性暴行死事件で警察の差別的な対応に批判が高まり、顔認証 AI への風当たりが強まった。 実際にミシガン州では 20 年、黒人男性が誤認逮捕される問題も起きた。

米国では以前から肌の色などで AI の認識精度に違いが出る問題が指摘されている。 18 年にはマサチューセッツ工科大学の研究者が IBM などの顔認証技術を調べ、男性より女性、白人より黒人で精度が低いと公表した。 女性や黒人を正確に認識できず、誤って犯罪者などと判定される可能性がある。 英国では控訴裁判所が 20 年 8 月、警察による自動顔認証技術の利用を違法と判断し、差別への懸念を指摘した。 国内でも「公平性」や「透明性」の議論は生じている。 日本 IBM が賃金決定の参考にするとして導入した AI について、20 年 4 月に関係労組が「情報開示が不十分」として東京都労働委員会に救済を申し立てた。

AI は間違いを起こすことが想定されている技術だ。 一般的な IT のシステムなどと違い、AI は「学習」をして何らかの「判断」を下す。 その際、予期せぬ振る舞いをすることがある。 差別などの問題を防ぐことは、AI を扱う企業にとって避けられない課題だ。 差別などを生む大きな要因は学習データの偏りだ。 画像認識などのデータは白人など「主流派」から集まりやすく、マイノリティーは少ない。 そのデータをもとに開発した AI モデルは偏りが生じやすいわけだ。 世界で AI 関連の事業を展開する米アクセンチュアはデータ収集、AI モデルの開発、運用の主に 3 段階で倫理的な課題を調べる体制を築いた。 保科学世 AI センター長は「自らしっかりルールをもつ企業がリーダーになれる」と話す。

日本では NEC が 18 年に専門部署を設置した。 東京五輪で大会関係者向けの顔認証システムを納める予定で「結果の偏りが極力起きないようにしている。(同社)」 ソニーは AI を使う全製品について倫理面の安全性を審査する体制を築く。 20 年時点の英調査会社オムディアの予測では AI の世界市場は 25 年に 1,260 億ドル(13 兆円)と、18 年の 10 倍以上に拡大する見通しだ。 社会に浸透し、医療分野など人の健康や命にかかわる用途も想定される。

米国は導入先行、欧州は規制重視で動いているが、日本の姿勢はあいまいだ。 AI と社会の関係に詳しい中央大学の須藤修教授は「規制がかかりすぎると産業が育たない。 AI 倫理の事例を共有して自発的な取り組みを促す必要がある。」と話す。 AI 市場の健全な育成に向け議論を急ぐ必要がある。 (福岡幸太郎、生川暁、nikkei = 1-16-21)



グーグル、AI 「偏り」で対立 経営陣と黒人女性研究者

米グーグルで、人工知能 (AI) の倫理部門の責任者だった著名な黒人女性研究者が「解雇された」と訴え、経営陣への反発が社内外に広がっている。 背景には、AI の問題点を指摘した論文の発表や、社内での多様性確保を巡る対立があるという。 抗議文に社員 1 千人以上が署名した。 ティムニット・ゲブルさんは、マイクロソフト研究所時代の 2018 年、AI の問題点を示した共同研究で知られる。 AI の顔認識が白人男性ではほぼ完璧なのに対し、肌の浅黒い女性の誤認率は 35% にも上るという AI の「偏り」を明らかにした。

ゲブルさんはその後、グーグルで AI 倫理チームの共同責任者に就いていた。 米欧メディアによると、ゲブルさんは最近、オープンソースやグーグルの AI で、差別的な言語を学習する偏りがあることを示す新たな論文を研究学会に提出した。 同僚や外部の研究者と共同の論文だった。 これに対し、AI 部門の幹部から論文の撤回を求められ、ゲブルさんは拒否。 ゲブルさんは同僚に経緯を訴えるメールを送るなどしたところ、「解雇された」と自らのツイッターで 2 日に明かしていた。

幹部の多様性確保も要求

ゲブルさんは、黒人従業員への平等な取り扱いや、社員の多様性の確保を求めており、以前から幹部との摩擦があったという。 ゲブルさんの解雇に対して、同僚ら支持者が「研究への検閲だ」として抗議し、グーグル経営陣に経緯の説明などを求める文書をネット上にアップした。 署名した人の数は 4 日の段階で、グーグル社員約 1,400 人、外部の研究者ら約 1,900 人に上っている。 米グーグルは 4 日夕、朝日新聞の問い合わせに対し、回答しなかった。 (サンフランシスコ = 尾形聡彦、asahi = 12-6-20)


介護ロボットの実証実験始まる 日立

介護現場の人手不足の解消に向けて、茨城県日立市の IT ベンチャー企業「ユニキャスト」が、市内のデイケア施設「あじさいデイサービス・ケアビレッジ日立」で、介護支援ロボットや人工知能 (AI) を活用した実証実験を始めた。

実験は、ロボットが介護の現場でどんな支援ができるのかを探り、システムを構築して商品化を目指すのが目的。 初日の 11 日は、車いすを含む約 20 人のお年寄りらが、ホールで実験内容の説明を受けた後、ロボットから流れる音楽に合わせてラジオ体操をした。 来年 2 月末までの期間中、レクリエーション支援やひとり歩き監視のほか、顔認証の導入などを検証。 ユニキャストの三ツ堀裕太社長 (38) は「今後、介護サービス事業者の要望を組み入れ、目的に応じたロボットのプログラミングに生かしていきたい」と話している。 (小松重則、asahi = 9-13-20)


高輪新駅の AI 「さくらさん」、セクハラ受け流しで物議

14 日に開業した高輪ゲートウェイ駅(東京都港区)で、乗り換え案内などのために置かれた AI キャラクターとの雑談をめぐり、ネット上で「セクハラではないか」との指摘が広がっている。 「恋人」や「スリーサイズ」などの問いに、優しくいなすような返しをするという。 問題はどこにあるのか、JR 東日本や開発元、ジェンダー論の研究者への取材を通じて考えた。

AI キャラクター「AI さくらさん」は、ウェブ制作会社「ティファナ・ドットコム(東京都目黒区)」が開発し、ショッピングセンターや空港、企業のウェブサイトにも導入されている。 高輪ゲートウェイ駅でさくらさんが表示されるデジタルサイネージは、改札口のすぐ外側に置かれている。 JR 東日本の制服と「さくら」と書かれた名札を身につけた女性のアニメーションが、駅構内の地図や乗り換えなどを日英中韓の 4 カ国語で案内してくれる。

問題視されたのは、音声認識の仕組みを使った、さくらさんとの雑談の一部。 特定の質問に対しての回答だ。

- - 彼氏はいるの

「恋人ですか? 今はお仕事に集中したいので、考えてないです。」

- - スリーサイズを教えて

「ごめんなさい、よく聞こえなかったことにしておきますね。」

開業からまもなく、ツイッター上にはさくらさんとのやりとりがいくつも投稿された。

「何歳ですか」という問いには「私の年齢ですか? 今年で 21 歳です。」 「可愛いですね」という呼びかけには「ありがとうございます! 少し照れます …!」といったものあった。 「会いにいきたい!」、「かわいいし近未来的」といった好反応の一方で、「駅員さんにプライベート聞くサービス期待するとか完全にセクハラ」といった批判や、さくらさんの回答を「セクハラをするおじさんが望む反応そのまま」と指摘する投稿も広がった。 「業務に関係ない質問は答えません、と拒否してほしい」といった声もあった。

JR 東日本によると、さくらさんを活用したサイネージは高輪ゲートウェイが初めてではなく、2018 - 19 年には東京駅や品川駅でも一時的に設置していた。 様々なメーカーが開発した AI 案内システムを試行する実証実験の一環で、利用者からの質問をもとに AI が学習し、回答の精度を向上させる狙いがある。 高輪ゲートウェイ駅でも、「試行導入」として他の 3 種類の AI 案内と一緒に置かれた。 記者(国米)は 18 日、JR 東日本の広報担当者に、さくらさんの回答の仕方などが「女性蔑視的」と指摘されていることについて、どう受け止めているか尋ねた。

広報担当者は、こうした指摘を「把握している」と回答。 「意見を踏まえて、サービス向上に努める」と話した。 過去の実証実験や社内からは雑談内容などへの指摘はなく、多種多様な内容の雑談ができることが高く評価されていたという。 ティファナ社によると、業務的な内容だけでなく、雑談やユーモアのある回答ができ、利用者は人と会話をしているかのような使い心地を感じられるのが魅力の一つだという。 高輪ゲートウェイ駅には、さくらさんのサイネージの隣に、JR 東日本のグループ会社が開発した「男性 AI」も設置されている。

同じく JR 東日本の制服を着た男性 AI は、写実的でさくらさんに比べると受け答えが「そっけない」といった声もあるという。 JR 東日本の担当者は、この男性 AI とともに設置したことで「さくらさんの特徴が際立ったのかもしれない」と説明。 「どちらも試行の段階。 お客さまのご意見や利用状況を見つつ、導入などを判断する」としている。 そもそも、恋人の有無やスリーサイズなどと問う質問への回答はどうやって設定されたのか。 担当者によると、開発段階で設けられたのか、実証実験で利用者から質問される過程で構築されたものなのかは分からず、「どこかのタイミングでそうした設定がなされたとしか把握していない。」 ティファナ社の担当者に取材すると「機密情報なの で回答できない」とした。

JR 東日本は取材に「ネット上の意見はサービスに反映させている」とも答えた。 今はどうなっているのか、高輪ゲートウェイ駅で 19 日朝、さくらさんにスリーサイズを質問した。 すると、「答えたくない内容が含まれていたようです。 お仕事に関する質問をお願いいたします。」 重ねて恋人の有無を尋ねると、「お仕事に関する質問へお答えしたいです!」と一喝された。 隣に設置された男性 AI にもスリーサイズを聞くと「私は AI 駅員のユージと申します。 ロッカーやトイレの場所、その他駅周辺施設への案内などをさせていただいております。」と答えた。

識者「セクハラ受け流すAIへの違和感、当然」

一連の経緯をどうみるか、識者に尋ねた。

名古屋市立大准教授(ジェンダー論)の菊地夏野さんは「#MeToo 運動など、セクハラや性差別が注目される一方で、公共交通機関に置かれた AI が JR 東日本の制服を着て、セクハラに当たる質問を優しく受け流し我慢する。 このギャップに違和感を抱く人がいるのは当然。」と話す。 さくらさんの回答が表現するのは「何を言われても笑って優しく包み込む女性像」だとし、「AI という高度な技術に人間らしさを持たせようとした時に、安易な女性らしさが盛り込まれたのではないか」と指摘する。 ネット上の指摘を受け、AI の回答などが修正された点は評価しつつ、「企業は提供するサービスが発するメッセージ性についても責任を持つ必要がある」と話した。

AI をめぐるジェンダー差別については、世界的な問題にもなっている。

昨年 5 月にユネスコ(国連教育科学文化機関)が発表したリポートでは、アップルの AI アシスタント「Siri」が、セクハラ的な問いかけに対し、「赤面できたらしています」などと答えていたことを問題視した。 回答はその後「何と答えればよいかわかりません」に変更されたが、ユネスコは「セクハラや性差別を助長する懸念がある」と指摘。 初期設定でアシスタントの声を女性とするのをやめるよう勧告した。 報告書では、日本の証券会社のコールセンターで、取引を確認する自動音声が男性なのに対し、株価を伝える自動音声が女性の声だとも紹介。 「何かを決定する時は男性、補助的な役割は女性との偏見が強い」とも指摘した。

このような批判を背景に、デンマークの企業や研究者などは合同で、男性でも女性でもないジェンダーレスな音声「Q」を研究開発している。 AI は多くのデータを集めて分析するが、そのデータが社会の偏りを反映してしまうと、結果的に性差別を再生産するという懸念も強い。 ロイター通信によると、米アマゾンは 2018 年、開発していた AI 採用システムが男性を優先してしまったため、活用を断念した。 システム開発では、過去 10 年にわたって同社に提出された履歴書を AI に学習させたが、履歴書の大半は男性からのものだったため、合格者も男性中心となってしまったという。

背景には、AI 業界の男女比の偏りがある。 世界経済フォーラムの調べによると、AI 関連の職種に女性が占める割合は世界で 26%。 人事 (65%) やコンテンツ制作 (57%)、マーケティング (40%) に比べて低い水準となっている。 (国米あなんだ、栗林史子、asahi = 3-10-20)


リクナビ問題で新事実、無断で 1 千サイトと情報共有状態

個人情報とは何か。 就活生の内定辞退率を企業に販売していた「リクナビ問題」は突きつける。 より便利な世界を求めることで、知らぬ間に個人データが共有される。 この見えない支配から逃れられないのだろうか。

シンギュラリティー : 人工知能 (AI) が人間を超えるまで技術が進むタイミング。 社会が加速度的な変化を遂げることを指すこともある。 変化に伴って「見えないルーラー(支配者)」も世界に現れ始めている。

知らぬ間に 57 サイトの閲覧情報が筒抜け

東京都内の私立大 4 年の男子学生 (22) は驚いた。 「就活のために登録した情報が全く関係のないものと結びついていたなんて。」 IT 企業から内定を得た今年 6 月まで、就活情報サイト「リクナビ」に登録していた。 リクナビのサイトを開くときはもちろん、検索などで日常的に使っていたブラウザー(ネット閲覧ソフト)「グーグル・クローム」を専門会社で分析してもらったところ、昨年 10 月からの 1 年間に、57 サイトでの閲覧情報がリクナビ側から見られる状態になっていた。 57 サイトは飲食店や不動産業者など、就活と関係ないと思われるものばかりだった。

リクナビ問題、影の主役「クッキー」 狙われる個人情報

リクナビを運営するリクルートキャリアは 8 月、内定辞退率の第三者提供に学生の同意を得ていなかったなどとして、個人情報保護委員会の勧告と指導を受けたが、その対象にはこのような外部サイトとの結びつきまでは含まれていない。 一体、何が起きていたのか。 利用者がウェブページを閲覧すると、サイト側がページを訪れた人を識別するために「クッキー」という目印を端末側につける。クッキーからは利用者がどんなページを閲覧したかの履歴のほか、ログイン情報などを入手することができる。ウェブ広告会社などはクッキーの情報を組み合わせるなどして利用者の趣味や嗜好(しこう)を探り、一人ひとりに合ったターゲティング広告を送るのに使っている。

昨年 3 月に辞退率を契約企業へ提供するサービスを始めたリクナビは、今年 2 月までクッキー情報を集めて辞退率を算出していた。 クッキーには氏名が含まれず、単体では「個人情報」とはみなされない。 企業にとって個人情報を扱うことは漏洩のリスクなどを伴うからだ。 とはいえ、契約企業が最終的に個人を特定できなければ、辞退率を求める意味はない。 そのための仕掛けとして、就職説明会後などに就活生に記入させる企業のアンケートサイトをつくり、そこにリクナビのサイトと同じ「タグ」を埋め込むことにした。

このタグは、幅広いサイトに点在する同一のクッキー情報をつなげる「橋渡し」の役目を果たす。 今回のケースでは、アンケートに答えた学生に企業側が独自の ID を付け、クッキー情報と照らし合わせて個人を特定していた。 辞退率を購入した企業の一つは、こう打ち明ける。 「アンケートページにさえ誘導できれば、より精緻(せいち)なデータが取れると提案された。」 就活生のデータ集めに力を注ぐリクナビの姿が浮かぶ。

問題はここから。データ管理サービス会社「データサイン(東京)」と協力して朝日新聞が調べたところ、リクナビや企業アンケートのサイトに埋め込まれていたものと同じタグが、問題発覚後の 9 月時点で、1,106 の外部サイトでも見つかった。 中にはネット通販や消費者金融のサイトもあった。 リクナビに登録する約 80 万人の就活生がこれらのサイトを訪れると、氏名や住所、メールアドレス、学校名などリクナビに登録された個人情報と、外部サイトの閲覧履歴が結びつけられる状態だったことになる。 冒頭の学生もこのタグを通じて、57 サイトの情報が「筒抜け」になっていてもおかしくない。

この外部サイトからの情報も、辞退率算出に使われていたのか。 リクルートキャリアは取材に対し、正式に提携していた「外資就活ドットコム」を除き、「外部サイトの情報は一切使っていない(広報)」と答えた。 しかし、データサインの太田祐一社長は、「調べようと思えば、購買履歴や金の借り入れなどサイト内での行動まで分かる」と指摘する。 同社の関連会社でこのタグを発行・運用していた「リクルートコミュニケーションズ」のサイトにはこう明記されている。

「集めた個人データは、広告効果の測定やマーケティングの調査・分析に使う。」

太田社長は「広告やマーケティングに使うタグを就活サービスと一緒くたにして使っていたことが分かる。 人生の中で重要な情報を広告と同じように扱ったことは、ずさんとも言える。」と疑問を呈する。

そもそもクッキーは「個人情報」にならない?

保護委のリクナビへの調査は今も続いている。 最大の焦点は、そもそもクッキーが個人情報に当たるのではないか、という点だ。 クッキーを使った 2 月までのリクナビ側と契約企業との情報のやり取りに、保護委は注目している。 クッキーには氏名が含まれないとはいえ、両者の情報のやり取りの中で氏名が結びつく仕組みがあれば「個人情報」として扱うべきケースがあるかもしれないからだ。 保護委は、学生の実名などが記載されたデータベース情報とクッキー情報が関連づけられたり、個人を特定するために参照した痕跡が残っていたりしないかなど、リクナビ側のサーバーを調べているという。

保護委の弱点は、データ流通に詳しい専門家が少なく、オンライン上の事案を取り扱った経験も乏しいことだ。 今後の調査で、2 月以前のやり方でも第三者提供などの同意を就活生から得る必要がある「個人情報」だったと認定されれば、処分の対象になる恐れはある。 保護委が勧告や指導に踏み切ったのは、リクナビが 19 年 3 月に辞退率を予想するやり方を変えて以降についてだけだ。 辞退率の予測精度をより高めるために、就活生の氏名や大学名をそのまま、採用活動をする契約企業から提供してもらう運用にした。 この変更に伴って、約 8 千人分の同意漏れや約 5 万 4 千人に対する説明不足などが生じた。

保護委と並行して調査しているのが厚生労働省だ。 さらに広い視点で問題視しており、9 月には職業安定法に基づく指導に踏み切った。 「学生にとってリクナビに登録しないと就活が難しくなる。 プラットフォームを提供するという優越的な立場を利用して、就活生からの同意を得ていた可能性がある。 このような事業は行わないでもらいたい。(担当者)」 指導の対象も、辞退率の販売が始まった昨年 3 月以降すべての期間と保護委よりも長い。 リクナビが辞退率を予想した裏には、辞退率をほしがる契約企業の存在があるのも事実だ。

リクナビは契約企業から提供されるデータに加え、就活生が自らのサイトでどの業界のページにどのくらいの時間、接続したかをまとめ、人工知能 (AI) に過去の辞退者の傾向と比較させて算出。 トヨタ自動車や三菱電機など 34 社が、年 400 万 - 500 万円払って辞退率を購入した。 多くは「合否判定には使っていない」と説明するが、保護委や厚労省は契約企業側の調査も続けている。 リクナビ側、契約企業の双方が、ネット上の個人データを使って辞退率を売買するビジネスモデルへのリスクを軽視していたのはなぜか。

気持ち悪くても許容されてきた世界

「すべてのクッキー情報を結びつけるのは、広告やマーケティングでは当たり前。 私たちはそのおかげで便利なサービス提供を受けている。」 データサイエンティストでもある星野崇宏・慶応大教授(行動経済学)の考え方はインターネット広告業界の「常識」でもある。 ネット広告の最大の特徴は、利用者ごとに広告を出し分けるターゲティング広告だ。 それを武器にネット広告は急成長、その規模は昨年 1.8 兆円に迫り、今年にも地上波テレビを抜いて全媒体の頂点に立つ勢いだ。

利用者がサイトでどんなものを見たのかといった閲覧履歴や、何に関心があるかの検索履歴、ネット通販による購買履歴 - - それらを集めるだけではない。 その広告に対して、見た人がどんな反応をしたのかというデータさえも使い尽くす。 ネット広告の世界で圧倒的な力を持つのが米巨大 IT 企業のグーグルだ。 検索や地図など、グーグルの無料サービスを提供することと引き換えに得るデータを約 2,400 項目に細分化し、ターゲティングの精度を上げてきたとされる。 「知らぬ間に自分の情報が抜かれ、消費者からすると気持ち悪い状況だが、ずっと許容されてきた。」 ネット広告に詳しい森亮二弁護士は説明する。

しかし、欧州連合 (EU) が昨年施行した一般データ保護規則 (GDPR) が、氏名などを含まないクッキー情報も個人情報として保護する姿勢を明確化するなど、個人情報を巡る権利意識は高まる一方だ。 そこで多くの企業は「個人情報を扱うリスク」を取らずにターゲティング広告の効果を上げられないか、さらなる知恵を絞る。

辞退率が販売された問題は、その延長線上に現れた氷山の一角なのかもしれない。 グーグルなどに対抗するかのように、ネット上に散在する個人データを統合して提供する「DMP (データ・マネジメント・プラットフォーム)」を専業にする業者さえ現れている。 テクノロジーの進歩に伴う便利さと手を携え、新たなルーラー(支配者)が世界中のネットユーザーの前に姿をみせている。 (牛尾梓、大津智義、asahi = 11-27-19)