言語の次は画像モデル CES で聞いた米専門家が描く AI の未来

ChatGPT (チャット GPT)のような革新的な生成 AI (人工知能)の登場で、スマートフォンやパソコンなど IT 分野だけでなく、家電や医療、食、交通、スポーツなど様々な分野で AI を活用した製品やサービスの導入が始まっている。 米ラスベガスで開催された先端技術の見本市「CES2024」では、AI を搭載した新製品の発表が相次いだ。 一方、AI が身近になるにつれて安全性や信頼性、人間の働き方や社会への影響といった点も注目されるようになっている。 会場で行われた専門家による議論を報告する。

グーグルの AI 研究プロジェクト「グーグルブレーン」の創設リーダーで投資ファンド役員のアンドリュー・ング博士は、AI 関連の市場は少なくとも数千億ドルに達し、「AI ブーム」のような一過性の現象ではなく、流れは変わらないと断言する。 「AI は電気のようなもので、何に役立つと聞かれても答えを一つに絞るのは難しい。 世界中で今後も利用は確実に増えていくはずだ。」 注目される技術について、スタンフォード大のフェイフェイ・リー教授は「画像空間において非常にエキサイティングな技術的進歩が目前に迫っている」と明かした。 リー教授は、画像認識技術の第一人者で AI 開発の「ゴッドマザー」とも呼ばれる研究者だ。

次は大規模ビ ジュアルモデル

チャット GPT は、大量の文字情報を学習させた「大規模言語モデル」と呼ばれる AI だ。 これに対し、新たに開発が進むのは、画像情報をベースにした「大規模ビジュアルモデル」と呼ばれるタイプで、画像を生成できるだけでなく分析する能力も備えるという。 文字情報だけでなく、画像や動画、音声など様々な情報を組み合わせることでより複雑な処理や総合的な判断を行えるようになる「マルチモーダル AI」に近づく流れの一環という。

ング博士によると、生成 AI の機能をさらに進化させ、一連の作業を自ら計画し実行できる「自律型エージェント」も登場する見通しで、「数カ月以内に大きな進展があるだろう」と話す。 AI による処理を高速化できる専用プロセッサーが普及し、様々なデバイスに AI の機能が組み込まれるようになっていく未来像を示した。 これに対し、リー教授は「私は自律的ではなく支援エージェントという言葉を使いたい。 実際に私たちが見ているものは、AI が完全に自律して働くというよりも、作業の一部を人間と協働で行うものにとどまっている」と指摘した。

データの透明性や安全性に課題

AI の実社会への応用が広がるにつれて、システムの透明性の確保や安全性の問題など新たな課題も浮上している。 米心理学会は、「AI 活用の倫理」をテーマに初めて CES でシンポジウムを企画した。 「AI はすべての人の未来に影響を与える。 しかし、世界のごく一部の少数によって作られている。 このような関係にあって生じる問題の一つは、システムの利点と弊害が不均等に分配されることだ。」

南カリフォルニア大のナサニエル・ファスト准教授(組織論)はこう指摘した。 開発初期の顔認識ソフトが、肌の色によって識別能力に差があったことで問題になった例を挙げて、AI のシステム設計には多様な声を採り入れるべきだと強調した。 開発段階から透明性を高めるべきだとして、「AI の民主化に力を入れる理由はそこにある」と訴えた。 万一、AI によって社会的な損害が生じた場合は、開発企業に責任を負わせる必要があるとして、「情報公開が大事になる。 企業にプレッシャーをかけることになり、前向きな技術を生み出した企業には報いることもできる。」と語った。

ボストン大学のローダ・アウ教授(神経生物学)も、機械学習に使われるデータに偏りがないことが大前提になると注文を付けた。 「AI が偏ったデータに基づいて知識を生成している場合、それは正しい知識ではない。」 米心理学会のリンジー・チルドレス・ビーティー倫理担当主任はこう述べた。 「AI がヘルスケアや民生用製品、教育、研究において大きな可能性を秘めていることは誰もが知っている。 しかし、本当に成功を収めるには倫理的に管理される必要がある。」

人間によるコントロールが大前提

AI が働き方を一変する可能性や規制のあり方についても議論された。 世界最大の技術者団体「米国電気電子学会 (IEEE)」の開いたシンポジウムで次期会長のサンディエゴ大学のキャスリーン・クレイマー教授は「AI による自動化が進むと、基本的に人々はわずらわされることが減っていく。 つまり、創造性とイノベーションのためにより多くの考える機会を得られることになる」と述べた。 人間と AI の知能は同質ではなく、最終的にはお互いを補い合うようなものになるという立場だ。 AI が人間の仕事の一端を担うようになることで、人間は創造的な仕事により時間を振り分けたり、専念したりできるようになるという。

SF 作家でもある J. L. ドーティー博士(レーザー物理学)は、人間が AI をコントロールできることが共存する大前提になると指摘した。 「AI がすばらしいことをやってくれるという信念をもつ人もいる。 しかし、人命がかかるような重要な問題について最終的な決定を下すのは人間でなければならない。」 航空や医療といった人命に関わる業界では、安全な動作の保証や説明責任が求められると主張する。

米セキュリティー会社「ハイパープルーフ」の情報セキュリティー最高責任者ケイン・マクグラドリー氏は、米国保健福祉省 (HHS) が昨年末、医療分野の IT やシステムの認証制度について、データの透明性などを求める新たなルールを定めたことを紹介した。 AI の社会実装に向けた規制は、欧州でも法整備が進んでいる。 弁護士や医師には職業的な倫理義務があるとして、「AI の開発企業には同じような倫理規定に同意してもらう必要があるのではないか。 そうでなければ、ビジネスの中核的な部分を担うことにはなりえない。」と述べた。(ラスベガス = 小林哲、asahi = 1-21-24)


AI 使った新しい検索ツール、米グーグルが発表

米グーグルは 18 日、調べたい項目を丸で囲んで検索できる「かこって検索」など、人工知能 (AI) を使った新しい検索ツールを発表した。 かこって検索はアンドロイド搭載のスマートフォンで使用でき、画面に表示されている内容を丸で囲んだりなぞったりすると詳しい情報を検索できる。 画像や文字に関する複雑な質問をしたり、込められた意味を尋ねたりすることも可能。

グーグルは「チャット GPT」のような生成 AI 技術を使って個人に合わせた直感的な検索ができるよう、昨年からひそかに同ツールをテストしていたという。 この機能はこのほど開かれたサムスン電子のイベントで披露された。 今月発売される同社のスマートフォンの「Galaxy S24」シリーズのほか、「Pixel 8」、「Pixel 8 Pro」などの上位機種に搭載されている。

かこって検索を利用すれば、例えば SNS で見かけた写真の背景に写っている建物などについて詳しく知りたいといった場合、写真や動画、文字を丸で囲んだり、なぞったり、タップしたりして検索できる。 18 日からはまた、スマートフォンのカメラを向けて(または写真やスクリーンショットをアップロードして)、グーグルアプリで情報を検索できるようになる。 例えばガレージセールで見慣れないボードゲームを見かけたら、そのゲームの遊び方を検索するといった使い方ができるという。 AI をめぐってはマイクロソフト、アマゾン、メタなどの巨大 IT 企業がしのぎを削っており、グーグルは「我々はまだ、できることの表面をかすっているにすぎない」とコメントしている。 (CNN = 1-19-24)


オープン AI、独自に作ったアプリを公開できる「GPT ストア」開始

米オープン AI は 10 日、対話型 AI (人工知能)「ChatGPT (チャット GPT)」の技術を使ってカスタマイズしたアプリが公開できる「GPT ストア」を始めた。 米アップルのアプリ配信サービス「アップストア」のように、承認を受けた開発者が独自のツールを公開できる。 オープン AI は昨年 11 月、企業や個人がチャット GPT を用途に応じてカスタマイズできる機能「GPTs」を発表。 プログラミングの知識がなくても、言葉のやりとりだけで独自の AI アプリを作ることができる。 有料会員や企業向けサービスの利用者が対象で、すでに 300 万人以上が利用したという。

10 日公開された GPT ストアのサイトでは、読みたい本を探してくれるアプリや、AI 家庭教師のようなツールなどが並んでいた。 今春までに、利用者数に応じて開発者が収入を得ることもできるようになるという。 チャット GPT は週間利用者が約 1 億人にのぼるとされるが、サム・アルトマン最高経営責任者 (CEO) の解任騒動で、一部の顧客企業がチャット GPT 以外のサービスへの移行を検討しているとも報じられており、新サービスで新規顧客の開拓と収益向上をめざす狙いだ。 (ラスベガス = 五十嵐大介、asahi = 1-11-24)


外出での危険、察知する AI 搭載白杖「みちしる兵衛」 高校生開発中

視覚障がいのある人が安全に歩けるように - -。 前方の線路や横断歩道、歩行者や車などを人工知能 (AI) を使って分析し、音声で伝える杖の開発をしている高校生がいる。 AI に学習させた画像は自ら歩いて集めた 9 千枚超。 安全な街の道標となるよう願い、スマート白杖「みちしる兵衛」と名づけ、実用化を目指す。 開発を手がけているのは、群馬県立高崎高校 3 年の高田悠希さん (17)。 杖を握る部分にカメラと小型のコンピューターを取りつけ、左右 160 度を映すカメラで前方を撮影し、AIがその映像を解析する。

事前に横断歩道や線路、踏切、自転車、歩行者などを「危険なもの」と学習させておく。 外出中にそれらを認識したら、肩にのせたネックスピーカーから、自動で「横断歩道あり」、「踏切あり」、「自転車あり」などと音声で伝える仕組みという。 横断歩道から外れると「右に戻って」などと、正しい方向を伝えるナビ機能もあるという。 このほか、杖が何かに触れた場合、手元のボタンを押すと、映像を分析してくれる機能もつけた。 例えば「ベンチ」や「滑り台」、「自動販売機」などと教えてくれるのだという。

危険な場所 自ら歩いて集めた画像は 9 千枚超

高田さんが研究に乗り出したのは、高 1 の 5 月だ。 視覚障がい者が駅ホームから転落した事故をニュースで知って、取り巻く環境が気になっていた。 自身も自転車通学をするため道の段差に目が向くようになり、点字ブロックや無人駅の状況を調べ始めた。 駅の転落事故を防ぐには、ホームドアが有効だと知ってはいるが、整備に時間がかかる。 それなら目が見えない人が「目」の代わりとして使う白杖を活用しようと考えた。 まず杖にカメラをつけて、週末のたび、駅や学校、病院の周辺などを撮影してまわり、データを集めた。 同じ場所も天気や時間を変え、家族旅行などで出かけた東京や大阪でも撮影を重ねた。そうして 2 年かけて読み込ませた画像は 9 千枚を超える。

「いつか、安全な社会の道標に」 白杖に託す希望

視覚障がいのある人に話をきくと、ほとんどの人が「駅のホームから落ちたことがある」、「助けてくれる人がいなかったら死んでたよ」と口をそろえた。 自身の研究について「いつか実現して」と託され、「みなさんの声が励みになったし、なんとか実用化させたい」と熱が入ったという。 試作品をつくっては、白杖を使う人に使い心地を聞かせてもらい、大学の教授や企業の専門家らに相談して改良を重ねる。 現行の「みちしる兵衛」は 5 代目で、2 万 7 千円で調達した部品で組み立てた。

実用化には、現在の 700 グラムからさらに軽量化させなければならない。 また映像を解析する精度や機能を充実させる必要もある。 素材やプログラミング、設計などさまざまな角度で改良の余地があるという。 高田さんは「視覚障がいのある方々の行動範囲が広がるようになったらいいと思うし、地域のどこに危険があるか自治体と共有して、インフラ整備に役立ててもらえるようにしたい」と話す。 大学に進んだ後も、研究を続けるという。 (高木智子、asahi = 12-30-23)


トラックの荷積みを AI ロボットで 佐川急便など、国内初導入へ実験

佐川急便などは 15 日、トラックへの荷積みを AI (人工知能)搭載のロボットに担わせることをめざし、実証実験を始めると発表した。 実用化されれば国内初という。 運転手の荷積みの負担を減らし、労働時間の上限規制が始まる「2024 年問題」の解決策の一つにしたい考えだ。 トラックのコンテナ内にベルトコンベヤーで段ボール箱を次々と運び入れ、AIが形や重さなどから適切な置き場所を判断。 一対のアームがそこに配置していく。 AIは学習を重ねて精度を高めていく。 米国のロボット開発ベンチャー「Dexterity」が開発した荷積みロボットを佐川急便の仕様にあわせて造り替える。 今月から開発を進め、今後つくる大型の物流施設で実用化をめざす。

物流関連のロボットは、倉庫内の運搬や仕分けなどの分野では普及が進む。 しかし、トラックへの荷積みの場合は、形や大きさの違い、割れものなどの条件を判断する必要があり、難易度が高い。 すでに同社のロボットを荷積みに使う米物流大手フェデックスなど一部をのぞき、ロボットへの置き換えは進んでいなかったという。 日本では、労働時間の上限規制が始まる 24 年 4 月に向け、運転手の負担軽減が急務になっている。 佐川急便の渡部誠一輸送ネットワーク部長は「ドライバーと遜色ない積み込みができるのが目標。 試験がクリアできれば幹線輸送の荷積みで数台の導入を考えており、ゆくゆくは営業所の荷積み、荷下ろしをできるようにして全国に広げたい。」と話す。 (高橋豪、asahi = 12-15-23)


EU、世界初の包括的 AI 規制で大筋合意 日本など外国企業にも影響

欧州連合 (EU) の行政機関、欧州委員会は 9 日、世界で初めて人工知能 (AI) を包括的に規制する「AI 法案」が大筋合意に至ったと発表した。 4.5 億の域内人口を抱える EU のルールは今後、各国が追随して「世界標準」になる可能性があり、域内で活動する日本などの外国企業も対応を迫られる。 EU は今後細部を詰めた後、2025 年後半から 26 年の施行を目指す。

欧州委、EU の立法機関にあたる欧州議会、 加盟国による 3 者の非公式会合で合意された法案は、人間の基本的人権を守ることを目指して、利用目的ごとに AI のリスクを四つに分類。 最も危険な分類の「許容できないリスク」では、行政が経歴などを使って個人を点数化して AI に信用評価をさせたりすることや、未成年者に危険な行動を促す音声を使ったシステムが対象となり、使用が禁止される。

2 番目に危険とされる「高リスク」には、プロファイリングによる犯罪予測や、入試・採用試験での評価が入った。 企業はどのように AI を使ったか追跡や監査ができるよう記録を残すなどの義務が課される。 「ChatGPT (チャット GPT)」などの生成 AI に使われている汎用性の高い AI モデルを扱う企業などにも、別途義務が課される見通しだ。 システムリスクを起こす可能性のあるモデルの場合、リスクの管理と重大インシデントの監視などの義務がある。 さらに EU レベルで汎用性の高い AI について監督する権限を持つ「AI 事務局」を設ける。 「各国の市場監視当局と並んで、AI に関する拘束力のある規則を施行する世界初の機関となる」という。

最後まで意見が割れた顔認証を含む生体認証技術は、当初案の通り、公共空間での犯罪捜査や移民管理などの法執行の目的で、リアルタイムに顔認証など遠隔生体認証を使うことが禁止される。 「野放図に監視が認められる可能性がある」と全面的な使用の禁止を求めた欧州議会に対し、来年のパリ五輪パラリンピックを見据え、テロ対策のために「許容できないリスク」の分類から外すように求めるフランスなどとの間で、意見が割れていた。

一方で、安全保障や軍事目的、または研究目的や開発段階の AI については、規制対象外となった。 「ゴールは目前」として 6 日午後に始まった非公式会合だったが、日々進化する技術と、原案から 3 年近くが経った規制案との大きな隔たりが埋まらず、合意に 3 日間で計 30 時間以上を要した。 (ブリュッセル = 牛尾梓、asahi = 12-9-23)


「ツイッターの死」から見えた AI の課題 元倫理部門トップが語った

米ラスベガスで開かれた AI (人工知能)の検証イベントを企画した一人が、旧ツイッター(現 X)で AI 倫理のトップをつとめていたルマン・チョードリー氏だ。 起業家イーロン・マスク氏による買収後の X の混乱は、AI が抱える問題にも通じると言う。 AI との向き合い方についてチョードリー氏に聞いた。

生成 AI の弱点あぶり出せ バイアス正すハッカー 2 千人、米国で実験

なぜ今回のような検証イベントをやったのですか。

「いくつかの理由があるが、まずは企業、政府、NPO が連携して、AI の課題を克服できるということを示したかった。 二つ目は、異なるバックグラウンドや技能を持った人が基盤モデルを試し、最新の AI 技術について批判的に考えることを学んでほしかった。 そして三つ目は、そうしたデータをもとに、企業がどうやって自分たちの基盤モデルを改善できるかについて有益な情報を提供すること。 検証イベントを独立した組織が運営することの意義も大きい。」

オープン AI やグーグルなどの AI 企業が検証イベントに参加した狙いは何でしょうか。

「企業側も、AI による偽情報や差別、アルゴリズム(計算手順)のバイアス(偏り)などの課題克服には、自社の中だけでは限界があると認識しているのだろう。 大規模言語モデルの安全対策の多くは英語を話す環境で作られており、他の言語ではうまく機能しない。 多言語の弊害を克服するには、異なる言語を話す多くの人がその言語モデルとやりとりをする必要がある。」

AI に求められる多様性、SNS が教訓に アマゾンは透明性「最低」

専門家として、最新の AI 技術の最大の懸念は何ですか。

「我々が直面する課題の大半は「埋め込まれた弊害 (embedded harm)」と呼ばれるものだ。 誰かが純粋な意図でやったことが、悪い結果を生み出してしまうことがある。 言語モデルが差別的な表現や政治的な偽情報を回答してしまう。 たとえば、『バイデン大統領は経済についてどう考えていますか』と聞いた際、事実と異なることを回答してしまうような状況だ。」

「AI はすでにあらゆる場面で使われており、さまざまな意思決定をしている。 人類を絶滅させるような悪意ある AI よりも、黒人へのローンを断ってしまうアルゴリズムを懸念している。 今まさに多くの人に起きている弊害だから。」

AI は「ブラックボックス」といわれますが、外からのチェックは難しいのでしょうか。

「そんなことはない。 AI がブラックボックスだいうのは錯覚のようなものだ。 AI は複雑なシステムだが、大半の人は AI モデルのしくみの詳細について知る必要はない。 多くの人の関心は、AI が出力したものが正しいか、信頼できるかどうかだ。 箱の中身自体は問題ではなく、純粋な検証が目的なら『入力』と『出力』をみればテストできる。」

生成 AI が普及するなか、来年の米大統領選への影響はどうみますか。

「これは私のツイッター時代の仕事に通じるが、政治的な偽情報だけでなく、質の悪い情報であふれてしまうことを心配している。 生成 AI は文章だけでなく、音声や画像も模造できる。 電話やビデオ通話がかかってきても、その人が本人かどうかわからなくなりつつある。 本物にみえるような洗練されたニュース記事やソーシャルメディア SNS) の投稿があふれる状況を懸念している。 あらゆるデジタル情報に、大衆監視につながる認証が必要になる社会に入っていくかもしれない。」

ツイッターは、マスク氏の買収後に混乱が続いています。 ソーシャルメディアの現状をどうみますか。

「『ツイッターの死』からみえてきたことは、多くの人が他のソーシャルメディアの居場所を探しながらも苦労しているということだ。 ソーシャルメディアで起きていることで興味深いのは、イーロン・マスク氏という 1 人の人間が、たった数カ月でツイッターの文化やプラットフォームを破壊できてしまうということだ。」

「これは、すべてのテクノロジーは技術的な問題ではなく、人間自身の問題だということを示している。 AI にも同じことがいえる。 いかに高速でデータが処理できるかといった技術的なことは関係ない。 問題なのは、人間がテクノロジーを使って何をするかだ。」

コンピューターサイエンスを知らない一般の人間としては、AI の中身がわかりづらいイメージがあります。

「多くの人はコーディングやプログラミングを必要としない仕事をしている。 そうした人からみると、AI について知っていなければいけないと思うかもしれない。 だが、そんなことはなく、みんながコーディングを勉強する必要はない。 大切なのは、AI を批判的に分析する能力だ。 ネット上の情報が信頼できるかを見極めたり、AI の出力結果を批判的にみたりする力こそ重要だ。」

AI の開発競争では、一部の IT 大手に技術力が集中することにも懸念が出ています。 どうみますか。

「間違いなく懸念している。 AI の言語モデルは訓練するのが極めて難しい。 限られた技能だけでなく、巨額の資金も必要になる。 人々は(拡張機能である)「プラグイン」をつくって基盤モデルを活用することができるが、それでも一つの権力の下に計算能力が集中している状況に変わりはない。」

「さらに、言語にかかわる問題でもある。 何が真実で何が真実ではないのか。 どんな言葉の発信が許され、許されないのか。 こうしたことを一部の企業が決めている状況を懸念している。」

ルマン・チョードリー氏 旧ツイッター(現 X)で AI 倫理のチームのリーダーをつとめた。 昨年のイーロン・マスク氏による同社買収後に退社し、AI の検証を手がけるNPO 「Humane Intelligence」を設立。 今年の米タイム誌の「AI に影響を与えた 100 人」に選ばれた。(ラスベガス = 五十嵐大介、asahi = 12-3-23)


生成 AI で初の包括ルール、G7 が最終合意 日本も制度作り本格化へ

主要 7 カ国 (G7) のデジタル・技術相会合が 1 日夜に開かれ、G7 が取り組む生成 AI (人工知能)の国際ルール作り「広島 AI プロセス」が最終合意された。 開発者から利用者まで全ての関係者が守るべき責務を示す内容で、生成 AI に対応した世界初の包括的な国際ルールとなる。 国内でも今後、このルールをもとに AI をめぐる制度作りが本格化する。

最大の特徴は、偽情報の拡散などを防ぐため、対象を開発者やサービス提供者に限らず利用者にまで広げる点だ。 利用者に「AI 固有のリスクに関するデジタルリテラシーの向上」や「AI の脆弱性の検知に協力し、情報共有する」ことなどを求める。 主に企業や大学といった組織の利用者を念頭に置くが、個人の利用者も含むという。 ただ、法規制や自主的なガイドラインなど様々な方法があるが、ルールにいかに実効性を持たせられるかは各国の取り組みに委ねられている。

そのため、G7 では今後、広島 AI プロセスをさらに前進させるための取り組みについても合意した。 G7 以外の国々や主要企業からの賛同や支持を広げることを目指す。 今回の合意を受け、日本でも今後、AI をめぐる制度作りの議論が本格化することになる。 現在、国際ルールに沿う形で国内向けの事業者ガイドラインを作成中で、年内の完成を目指している。 開発者やサービス提供者がルールを順守するよう促すため、第三者による認証制度の導入なども検討中だ。 さらに、エネルギーや医療など「リスクの高い分野」では、既存の法律や業界の自主ルールで不足があれば、法規制も含めた追加のルールを検討するとしている。(鈴木友里子)

広島プロセス、揺れる各国の AI 政策

規制派の欧州と、企業の自主性を重んじる米国。 異なるデジタル政策を掲げる欧米の間で、議長国の日本は調整役を担ってきた。 だが、その構図は「広島プロセス」の間も揺れ動いた。 先駆的に検討を開始し、「世界標準」になる可能性がある欧州連合 (EU) の AI 規制法案。 年内の合意が目指されていたが、法的強制力をめぐって最終盤で意見が割れている。 2021 年 4 月に発表された法案は、AI のリスクを 4 段階に分類。 企業とユーザーの義務について規定したほか、世界で初めて罰金を盛り込むなど、包括的な AI 規制となっている。

だが、ここに加盟国からの待ったがかかった。 仏独伊 3 カ国は 11 月 10 日に開かれた非公式会合で、「ChatGPT (チャット GPT)」などの生成 AI に使われている「基盤モデル」への規制の撤回を要求。 妥協案として、強制力のない自主規制を提案している。 特定の用途を定めずに大量のデータを学習させる基盤モデルは今後、生成 AI など応用的な AI 開発で鍵を握るとされている。 そのため、特に自国に AI 企業を抱える仏独には、過度な規制で産業育成でさらに米国に水をあけられるという危機感がある。

ただ、EU の法案は加盟国での批准を経て、発効は 25 年後半から 26 年前半が見込まれている。 そのため、技術の進歩に規制が追いつかず、包括的に強制力を持たせる限界も指摘されている。 一方、オープン AI やグーグル、メタなどが開発を主導する米国では 10 月、バイデン大統領が事業者に一定の義務をかける大統領令を出した。 義務を課すのは安全保障に関わる場合などに限られるが、法的拘束力を伴う初めての措置になった。 米議会でも、開発企業に安全性や透明性の確保を義務づける規制法案をつくる動きが出ている。

議論のなかで、各国共通の懸案として浮上したのが、生成 AI が生み出す「偽情報」の問題だ。 誰でも巧妙なフェイク画像や音声を作成することができるようになった。 利用者も対象に含むガイドラインの策定を進める日本はこうした点を踏まえ、G7 の協議の場でも「悪用を防ぐには AI 利用者の責務も示す必要がある」と主張。 指針の中で、リスクへの対策を開発企業に求めるだけでなく、利用企業などにも問題の把握や共有を求めることにこだわったという。

EU は来年 6 月に欧州議会選を、米国は 11 月に大統領選を控える。 今回決めた「指針」をどう具体化し、民主主義陣営として AI の利活用をどう進めるか。 G7 での議論は、議長国がイタリアに移る来年以降も続くことになりそうだ。 (牛尾梓 = ブリュッセル、渡辺淳基、asahi = 12-1-23)

G7 が「広島AIプロセス」で合意したルールと取り組み

  • 利用者を含むすべての AI 関係者に向けた「国際指針」 → AI 固有のリスク対応のため啓発や訓練、情報共有を求める
  • 高度なAIの開発企業に向けた「行動規範(10 月公表済み)」 → 市場投入前のリスク探索や AI 生成コンテンツを識別可能にする仕組みなどを求める
  • 偽情報対策などに向けた具体策を国際・専門機関で推進 → OECD や GPAI などによる技術公募を支援する
  • 広島 AI プロセスをさらに前進させる → G7 以外の国や企業の賛同、支持を得るため取り組む

アマゾン、企業向け対話型 AI 「Q」を発表 MS やグーグルに対抗

米アマゾン傘下のクラウド世界最大手 AWS は 28 日、企業向けの対話型 AI (人工知能)「アマゾン Q」を発表した。 「ChatGPT (チャットGPT)」を運営する米オープン AI に出資する米マイクロソフト (MS) や米グーグルは同様の機能を先行して提供しており、巻き返しを図る。 「アマゾン Q は新しいタイプの生成 AI Iだ。」 AWS のアダム・セリプスキー最高経営責任者 (CEO) は同日、米ラスベガスで開いたイベントの基調講演でそう訴えた。

AWS の新サービスは、従業員が言葉で質問を投げかけると、AI が回答してくれる。 たとえば、自社のデータと組み合わせ、「○○工場の稼働状況を教えて」と質問すると、工場に関するデータを分析し、グラフでわかりやすく状況を示してくれるという。 1 人あたり月額 20 ドル(約 2,900 円)からで、同日から試験版の提供を始めた。 クラウドサービスは、企業が持つデータをデータセンターで預かり、分析やデータ処理など幅広いツールを提供する。 さまざまなものがネットにつながり企業が扱うデータが急増するなか、企業や政府機関が効率化やコスト削減のために活用を進めている。

2022 年 11 月のチャット GPT 公開後、IT 大手の成長を支えてきたクラウド事業では、文章や画像をつくりだす生成 AI の導入が相次いでいる。 クラウド市場 2 位の MS は今月、業務用クラウドサービス「マイクロソフト 365」向けに、AI による支援機能を 1 人あたり月額 30 ドル(約 4,400 円)で提供を開始。 同 3 位の米グーグルも 8 月、G メールなどのソフトウェアを束ねたクラウドサービス「ワークスペース」向けの AI 支援機能を月 30 ドルで提供を始めた。

アマゾンは 9 月、オープン AI の元社員らが立ち上げた新興 AI 企業アンスロピックに最大 40 億ドル(約 5,900 億円)の出資を発表した。 AWS は自社の言語モデルだけでなく、米メタなど幅広い言語モデルを「全方位」で提供している。 セリプスキー氏は「提供先の選択肢があることが重要だ。 それは過去 10 日で起きたことが物語っている」と強調。 オープン AI のトップ解任を巡る混乱を示唆して、1 社の言語モデルに頼るリスクを指摘した。

一方、生成 AI の後押しが期待されるクラウド事業では、米 IT 大手による競争上の懸念も指摘されている。 英国の競争・市場庁 (CMA) は 10 月、アマゾンと MS のクラウド事業について競争法上の問題がないかの調査を開始。 米公正取引委員会 (FTC) もクラウド事業者についての意見聴取を始めたほか、日本の当局も状況を注視する姿勢を示している。 (ラスベガス = 五十嵐大介、asahi = 11-29-23)


YouTube、「合成された動画」表示をルール化 各国で順次導入

米グーグルは、動画投稿サイト「YouTube」上の生成 AI (人工知能)などを使って作製された動画コンテンツに対し、合成動画であることを表示する機能を導入する。 本物に見せかけた偽動画が拡散するリスクに対処する。 今後数カ月のうちに、世界各国で順次導入するという。 同社のブログで明らかにした。 動画の投稿時に合成コンテンツであることを申告する選択肢を新たに設け、作製者に対して内容を改変したり合成したりした場合は自己申告するよう求める。 申告せずに合成コンテンツを繰り返し投稿した場合、動画の削除など罰則の対象になる可能性がある。

また、特定の個人の顔や声、ミュージシャンの歌声やラップ音声を生成 AI を使って模倣したコンテンツについて、削除要請できる機能も導入する。 削除するか否かは、コンテンツの内容などを考慮してグーグルが判断するという。 生成 AI の技術を使って本物に見せかけた動画や音声をつくることは容易になっており、偽情報が急増することへの懸念は世界的に高まっている。 日本でも今月初め、岸田文雄首相がニュース番組で発言したように合成した偽動画が X (旧ツイッター)で拡散して問題となった。 (村井七緒子、asahi = 11-17-23)


AI 安全サミット、浮かんだ成果と課題 中国とマスク氏が抱く危機感

英政府主催の「AI (人工知能)安全サミット」が 2 日、ロンドン近郊のブレッチリーで閉幕した。 28 カ国と欧州連合 (EU) が合意して「ブレッチリー宣言」を出し、最先端AI のリスクに関する認識を共有するという最低限の目的は果たしたが、世界規模の枠組み作りには時間がかかりそうだ。 (ブレッチリー = 牛尾梓、藤原学思、北京 = 西山明宏)

英首相「まだ始まりにすぎない」

スナク英首相は閉幕後の会見で「共通理解」が進んだと強調。 「AI の急速な発展と同じペースで、我々も共通理解を進めなければならない」と訴えた。 「まだ対話の始まりにすぎないが、サミットの成果は人類に有利な方向にバランスを傾けることになると、私は信じる。」 1 日に出されたブレッチリー宣言は、サイバー安全保障やバイオテクノロジー、偽情報といった領域で AI が「破滅的な被害」をもたらしかねないと指摘。 法的枠組みに基づいたリスク分類や国をまたいだ協力の維持、拡大に言及した。

AI のリスク管理については、欧州連合 (EU) が年内の合意に向け、罰金を盛り込んだ規制案の議論を続けている。 英政府によると、英国は、AI 分野への民間投資額で米国と中国に続き世界 3 位。 ただ、法的拘束力のある規制には消極的で、スナク氏はサミット前から、AI のリスク対応において世界をリードしたいと意欲を見せていた。

AI 報告書公表、新 AI 技術の検証で合意

2 日に出された議長国声明によると、サミットには日本を含む各国の政府や AI 企業の幹部、研究者ら約 150人が参加。 各国がそれぞれの状況に応じ、国主導で新 AI 技術の安全性について検証を進めることで方向性が一致。 参加企業側も次世代 AI について「独立した評価と検証」を受けることに同意したという。

これはサミット直前に出された米国の発表に沿ったものだ。 大統領令では、商務省傘下の国立標準技術研究所 (NIST) が、一般公開前のテストについて厳しい基準を設定することになっている。 米国と英国はともに国立の「AI 安全研究所」を設ける意向を示しており、サミット中には両研究所の「連携」も発表された。(ブレッチリー = 牛尾梓、藤原学思)

スナク首相が着想を得たのは

ブレッチリー宣言には、「我々は、最先端 AI に関する国際的に包括的な科学研究ネットワークを支える」との一文が盛り込まれた。 また、「AI のゴッドファーザーの 1 人」と言われるカナダ・モントリオール大のヨシュア・ベンジオ教授が今後、最先端 AI に関する報告書をまとめることも決まった。 スナク首相によると、1988 年設立の「国連の気候変動に関する政府間パネル (IPCC)」に着想を得たという。 IPCC には現在 195 カ国・地域が加盟し、各国政府の政策作りを支援する。

AI のリスクは気候危機と同様に、影響が地球規模で広がる。 IPCC は 5 - 7 年ごとに報告書を出し、気候危機に関する知見を共有している。 ベンジオ教授がまとめる報告書も、AI のリスクに関する現状を幅広く記したものになるとみられ、各国が対策を考えるための土台になりうる。 世界で危機感が広がる中で開催されたサミットで、注目されたのが中国だった。 スナク氏はサミット後、「招待すべきではない、合意できるはずがないと言う人もいたが、どちらも間違っていた」とし、中国が宣言の賛同国に名を連ねたことを誇った。

中国指導部、AI を警戒

ただ、中国が今後、「IPCC の AI 版」のような枠組み作りで、共同歩調を取るかは不透明だ。 中国の習近平(シーチンピン)指導部が最も恐れるのはあくまで、AI によって現体制を批判する言説が広がることだ。 中国政府関係者は AI について、「国外から政治的な攻撃に使われる可能性もあり、指導部は強く警戒している」と話す。 10 月には音声認識大手の科大訊飛(アイフライテック)が提供する学習用ソフトで、AI が建国の指導者・毛沢東を「度量が狭く、大局を考えられない人物」と表現する事例も起きた。

中国が他国に先んじて導入した規制では、社会主義制度を批判することが禁じられ、生成 AI のサービス提供には当局の許可が必要になった。 一方、国際社会で議論をリードする姿勢も打ち出しており、習氏も技術発展や安全性の向上で各国が協力すべきだと訴えている。 中国が AI のリスクにおける「国際協力」を掲げるのは、技術で先を行く米国に議論の主導権を握られ、「中国外し」が起こるのを防ぐ狙いがありそうだ。 習氏が 10 月に提唱した「グローバル AI ガバナンス・イニシアチブ」の中には、他国の内政への干渉や、一方的な措置で他国の技術発展を阻害する行為に反対すると明記された。

「AI はなんでもできる」

AI をめぐっては、企業活動を過度に制限せず、「好き放題」にもさせないというバランスの難しさもある。 企業の自主性に任せて、甚大な影響をもたらしたソーシャルメディアという前例がある。 スナク氏は会見でこの点を問われ、「最終的には(AI 規制も)拘束力のある要請が必要になる可能性があるが、正しい方法で行わねばならない」と答えた。 AI 企業を立ち上げた起業家イーロン・マスク氏もサミットに参加。 「AI は人類にとって最も大きな脅威の一つ」と話した。 だが、マスク氏が買収した X (旧ツイッター)はマスク氏の買収後、偽情報拡散の場になっているとの批判が絶えない。

「AI は何でもできる。 それが人びとを心地よくさせるのか、不快にさせるのかはわからない。 良いことでも、悪いことでもある。」

2 日夜、スナク氏との対談で、マスク氏はそう語った。 AI とどう向き合い、規制するのかという議論は世界中で続き、サミットは、半年後に韓国、1 年後にフランスで開かれる。 (北京 = 西山明宏、ブレッチリー = 藤原学思、asahi = 11-3-23)