キカベン
機械学習でより便利な世の中へ
G検定対策
お問い合わせ
   

AIプロジェクトの危機管理

thumb image

1. 学習目標🔝

AIプロジェクトにおいてコーポレートガバナンスや内部統制、予期せぬことが起きた場合の対応などクライシス・マネジメント(危機管理)に備えることの重要性を理解する。

  • 体制の整備
  • 有事への対応
  • 社会と対話・対応のアピール
  • 指針の作成と議論の継続
  • プロジェクトの計画への反映

キーワードコーポレートガバナンス内部統制の更新シリアス・ゲーム炎上対策とダイバーシティAIと安全保障・軍事技術実施状況の公開透明性レポートよりどころとする原則や指針Partnership on AI運用の改善やシステムの改修次への開発と循環

2. 体制の整備🔝

クライシス・マネジメント(危機管理)は以下を主眼とする。

  • 危機を最小限に抑えて拡大を防ぐ「火消し」
  • 速やかに平常化と再発防止を目指す「復旧」

一部の企業ではコーポレートガバナンス(corporate governance)や内部統制の更新を行い体制整備(外部有識者などで構成される委員会を設置したり監査体制を強化するなど)を行っている。もちろん現場にいる担当者の問題意識の向上が重要。

データセットのバイアスから生じる予測の偏りなどが「炎上」を生じることがある。開発者がダイバーシティ(多様性)やインクリュージョン(包括性)を理解する必要がある。開発者たちの性別、人種、経歴などが偏らないようにした方が良い。よって、このような炎上対策とダイバーシティへの対策は体制の整備が重要。

MITメディアラボのジェンダー・シェーズ(GenderShades)という研究では顔認証システムがジェンダーや肌の色によって精度がまちまちであることが証明された。データセットに偏りがあることを認識し、透明性や説明責任を強化する必要があると結論している。

まあ、ゲームで社会問題への対策・危険性を学ぶシリアス・ゲームも炎上対策に効果がある可能性を秘めている。

3. 有事への対応🔝

近年、ソーシャルメディアの口コミによるクライシスの発生が起きている。初動対応の前に憶測や風評被害が生じる。さらに、マスメディアが不安を煽るケースもある。その後に企業や研究機関の発信を受けても不満を感じやすく炎上しやすい。

AIと安全保障・軍事技術に関する議論は日本や海外で行われている。特にAIを軍事利用した自律型兵器(Autonomous Weapons Systems、AWS)は人間の介入なしに対象を選定して攻撃を行うので大惨事を招きかねない。

  • 2015年の人工知能国際合同会議(IJCAI)で非営利団体The Future of Life InstituteはAWS開発の禁止を求める公式書簡を公開した。
  • 2017年からは国連において自律型致死兵器システム(Lethal Autonomous Weapons Systems、LAWS)の研究開発を禁止すべきだとの議論が特定通常兵器使用禁止制限条約(CCW)の枠組みで開始された。
  • 2019年1月、人間の関与しない自律兵器を開発しないという立場を表明。

参考記事AIによる人間征服はあり得るのか?

4. 社会と対話・対応のアピール🔝

プライバシーやセキュリティの実施状況の公開を通して社会に対して対策のアピールし責任説明を果たすことが重要。個人情報を扱う企業は透明性レポートなどをウェブ上などに公開し透明性を担保するべき。

透明性レポートは以下に関する統計を含む。

  • ユーザーからの情報開示請求や削除請求
  • 政府からのコンテンツの削除要求

日本では、業界として自治を行う一般社団法人セーファーインターネット協会(safer internet association、SIA)が透明性レポートの公開やサイトパトロールを行なっている。削除要請のあった違法・有害情報の9割以上が削除された実績を持つ。

5. 指針の作成と議論の継続🔝

個人、企業、政府などがよりどころとする原則や指針が必要であり、以下のように国際機関、政府、企業、アカデミアでAIガバナンス体制に関する議論が起こっている。

年月組織発表内容
2016年9月Amazon、Google、Facebook、
IBM、Microsoftなど
アメリカIT企業中心
Partnership on AI(PAI)が組織した。
2017年2月NPO法人Future of Life Institute「アシロマAI原則」
技術開発の安全性の検証と透明性の確保
など23項目。
2019年4月学術団体IEEE「倫理的に調和された設計」
2019年4月欧州委員会「信頼性を備えたAIのための倫理ガイドライン」
2019年5月中国「北京AI原則」
2019年5月日本内閣府「人間中心のAI社会原則」
2020年2月欧州委員会「AI白書」(AIの規制の枠組みの方向性)
2020年1月アメリカ政府民間部門におけるAI技術の10項目の原則

このほか、シンガポールやドバイなどは具体的なセルフチェック項目やベストプラクティスを含んだ報告書を公開している。

6. プロジェクトの計画への反映🔝

AIシステムから得た教訓を運用の改善やシステムの改修に活かし、次への開発と循環へつなげることが重要。技術発展が速いので法的、社会的、倫理的、文化的な課題の明確な答えを出したり線引きをするのが難しい。

開発段階から以下の点に注意し、想定外の事件・事故を減らす努力をする。

  • 誰がこのAIシステムによる恩恵・影響を受けるのか
  • 想定されていないユーザー層はあるのか
  • 推論や予測を行う際の基準となっているものは何か
  • 機械で判断・最適化をする正当性はあるのか
  • 異なるコンテキストで悪用される危険性はあるのか
  • 悪用を防ぐ対応策は取れるのか

こういった疑問は絶対的な正解がないものが多い。必要に応じて対策をとり、ユーザーに説明をし、常に自問し続けたり、研究会や勉強会で共有・議論することが重要。次のAIシステム開発デザインに反映したり、研究開発がしやすい環境を構築できるよう目指す。



コメントを残す

メールアドレスは公開されません。