キカベン
機械学習でより便利な世の中へ
G検定対策
お問い合わせ
   

AIシステムの実装・運用・評価

thumb image

1. 学習目標🔝

実際にサービスやプロダクトとしてAIシステムを世に出す局面で注意すべきことを理解する。

  • 本番環境での実装・運用
  • 成果物を知的財産として守る
  • 利用者・データ保持者の保護
  • 悪用へのセキュリティ対策
  • 予期しない振る舞いへの対処
  • インセンティブの設計と多様な人の巻き込み

キーワード著作物データベースの著作物営業秘密限定利用データオープンデータに関する運用除外秘密管理個人情報GDPR十分性制定敵対的な攻撃(adversarial attacks)ディープフェイクフェイクニュースアルゴリズムバイアスステークホルダーのニーズ

2. 本番環境での実装・運用🔝

PoCでの検証で十分に価値を生み出せると判断したら本番環境での実装と運用を行います。

  • 推論を行う環境(クラウド、エッジなど)
  • データを継続的に蓄積する環境
  • 再学習のための環境

クラウドを使う場合はサービスをAPI化するなどで共有化したり、サーバの数を増やして負荷の分散などを計画。

エッジの場合は遠隔でモデルを更新する仕組みを考える。故障した場合の運用体制などを考慮する。

3. 成果物を知的財産として守る🔝

収集・生成したデータや学習済みモデルは一定の条件を満たせば知的財産として保護できる。

  • 特許法
  • 著作権法
  • 不正競争防止法

著作物は「思想・感情」を「創作的」に「表現」したもの(著作権法2条1項1号)なので数値データは該当しないが、データの集合全体としてデータベースの著作物として保護される可能性がある(同法12条の2第1項)。よって学習用データセットは保護の対象になり得る。ビッグデータなどはデータ選択の「創作性」が認められる可能性は低い。

営業秘密(不正競争防止法2条6項)は非公知性、有用性、秘密管理性の要件を満たせば保護される。気温データなどは公知なので非公知性を満たしにくい。オープンなコンソーシアムによる共同管理されたデータは秘密管理性を満たしにくい。ただし、2018年の法改正で限定利用データ(同法2条7項)が追加され、コンソーシアムによるデータ共有も保護の対象にはなり得る。また、オープンデータに関する運用除外も設けられ、保護と利用のバランスが図られている。

学習済みモデルをデータの組み込まれたプログラムとしてプログラムの著作物として保護できる余地がある。ディープラーニングで自動的に生成されるパラメータ値だけを取り出した場合は(創作性などの観点から)著作物になるかどうかは議論が分かれる。

学習モデルをデバイスに組み込むならば、暗号化や難読化の処理を施してリバースエンジニアリングを難しくするなどの秘密管理をすることも考慮できる。これによって営業秘密としての保護を受けるのと同様の効果が得られる。

「蒸留」(教師役のモデルと同じ出力をするように生徒用のモデルのパラメータを調節すること)に対しては従来の知財の保護は及ばない可能性がある。教師役のプログラムをコピーしているわけではないため著作権法で「蒸留」を禁止できず、パラメータを盗んだわけでもないので不正競争防止法にも触れない可能性がある。

以上のように法制度上では判断が難しいのが知的財産権の保護である。実務では関係者間で契約を結び、権利の帰属、利用範囲、禁止行為を明示して一定の解決を図る。「AI・データの利用に関する契約ガイドライン」が重要になってくる。

AIによる音楽や絵画などの「作品」の権利や保護のあり方は今も議論されている。米国や中国など国際的な知的財産権の保護の動向などを踏まえての検討がなされている。

以下は、2016年に経済産業省商務情報政策局が行ったAIに関する知的財産法の整理イメージ。

特許権著作権営業秘密*1
(不正競争防止法)
一般不法行為*2
データ(生データ、著作物を含む)
学習用データセット(情報の選択、構成)
学習(プログラム)
学習済みモデル(プログラム、パラメータ)
利用(システム、アプリ)

○:可能性あり、❌:可能せなし、△:可能性低い

*1は①秘密管理性、②有用性、③非公知性を満たす場合。

*2は損害賠償請求は可能

4. 利用者・データ保持者の保護🔝

個人情報を扱う場合、利用目的を明確に特定する必要がある(個人情報保護法15条1項)。

  • 実装段階でデータ利用目的が変わるなどしたら原則本人による事前の同意が必要(同法16条1項)で、利用目的を本人に通知か公表しなければならない(同法18条1項)。
  • 個人データの漏洩防止など安全管理措置を講じなければならない(同法20条)
  • 従業員の監督義務(同法21条)
  • 委託先の監督義務(同法22条)
  • データ内容の正確性の確保などに関する努力義務(同法19条)

各種ガイドラインや規格によって必要な対策例やレベルなどが具体化されている。

2018年5月にEU一般データ保護法(GDPR)が運用開始された。日本にも域外適用されるので、EU向けにサービスを提供する場合は規制を受ける。2019年1月、日本とEUは相互に「個人データの移転を行うことができるだけの十分なデータ保護の水準を持つ」と合意した(十分性制定)。

故人のデータ利用に関しては以下の点に配慮する。

  • 実演家や著作者の死後における人格利益の保護(著作権法60条・同法101条の3)
  • パブリシティ権(名前、肖像、画像、音声の商業的な利用)
  • 死後のプライバシー(post-mortem privacy)
  • 死者に対する宗教的崇拝感情

リクナビDMPフォロー事件では学生の同意を得ずに内定の辞退率の予測データを利用企業に販売しており問題となった。

  • データ主体(学生)の軽視。学生はサービスを作るための仕入れ先。
  • 優越的地位の濫用。リクナビは寡占状態であり学生は同意を余儀なくされた。

5. 悪用へのセキュリティ対策🔝

システムを運用する際に様々な攻撃や想定外の振る舞いを考慮する。

  • データ入力システムへの妨害
  • AIモデルの認識を混乱させる敵対的な攻撃(adversarial attacks)
  • システムに侵入しデータ・モデルの改竄・盗取や不正な実行
  • なりすまし、脆弱性を利用した不正アクセス

対策としては以下が考えられる。

  • システム稼働を監視
  • 通信相手の認証
  • アクセス制限
  • データの暗号化
  • データ改変の検知
  • 問題があった場合の対策手順・仕組みを用意する

また、AIの悪用のケースとして敵対的生成ネットワーク(generative adversarial network)によるディープフェイク(deep fake)やフェイクニュースなどの社会問題になっているものもあります。

6. 予期しない振る舞いへの対処🔝

AIはデータせっとのバイアスを受けたり、アルゴリズムの限界があるので解決が難しい課題もあります。いわゆるアルゴリズムバイアスによって画像分類で誤認識を生じたり、履歴書審査で性別による差別を起きたりします。

名誉毀損の発言を取り除いたり、フェイクニュースなど偽りの情報が流れないようにチェックするのはAIには難しいケースもあります。よって、業務によってはAIと人を組み合わせたプロセスを取り入れる必要があるかもしれません。

また、物損・人損事故など問題が起きた場合に備えて保険をかけるなどの対策も必要です。

7. インセンティブの設計と多様な人の巻き込み🔝

現場の利用者やプロダクトの影響・恩恵を受けるステークホルダーのニーズを把握することが重要。最先端の技術にとらわれず既存業務と調和したデザインを考える必要もある。

ブラックボックス化をなるべく避けユーザが納得して使えるようにしたり、データをうまく活用することを奨励するなどのインセンティブ設計など技術以外の仕組みを構築するとAIの導入により効果がある。

また、AIの不具合や不適合を現場の人が言語化できるような体制作りや教育が必要。人文・社会科学の研究者や社会一般を巻き込んだり、企業内の経営者、法務、広報などがともに学んで考えていくことが重要。



コメントを残す

メールアドレスは公開されません。