キカベン
機械学習でより便利な世の中へ
G検定対策
お問い合わせ
   

人工知能分野の問題

thumb image

1. 学習目標🔝

人工知能の研究で議論されている問題や、人工知能の実現可能性を考察する。

  • トイ・プロブレム
  • フレーム問題
  • チューリングテスト
  • 強いAIと弱いAI
  • シンボルグラウンディング問題
  • 身体性
  • 知識獲得のボトルネック
  • 特徴量設計
  • シンギュラリティ

キーワードローブナーコンテスト中国語の部屋機械翻訳ルールベース機械翻訳統計学的機械翻訳特徴表現学習

2. トイ・プロブレム🔝

トイ・プロブレム(おもちゃの問題)は、現実問題の本質を損なわない程度に簡略化したもの。コンピュータで扱うには複雑すぎる問題の本質を理解し、解決のアルゴリズムを考えるために使う。例えば、掃除ロボットの行動計画の話。

掃除機

第1次AIブームの当時、人工知能の技術はトイ・プロブレムしか解けないと批判された。

3. フレーム問題🔝

フレーム問題は1969年にジョン・マッカーシーパトリック・ヘイズが提唱した人工知能における重要な問題で、いまだに未解決。人工知能研究の最大の難問で、有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができないことを示す。

ロボットが命令されたことを実行する際、ロボットのいる環境ではさまざまな出来事が起きる可能性がある。しかし、そのほとんどは無視するべきことだ。全てを考慮すると無限の時間がかかってしまう。つまり、人工知能は枠(フレーム)を作って、その枠の中だけで思考しなくてはならない。これがフレーム問題だ。

有名な例が哲学者ダニエル・デネットが示した例。

洞窟の中にロボットのためのバッテリーがある。そして、ロボットは「洞窟からバッテリーを取り出してくること」を命令される。しかし、その上に時限爆弾が仕掛けられていた。ロボットが命令通りにバッテリーを持ち帰ったら爆弾も一緒についてくる。爆弾に触ったら爆発するかもしれない。爆弾を素早く投げたら洞窟が崩れるかもしれない。いろいろと考えているうちに爆弾が爆発するかもしれない。

しかし、人間はどんな状況でも無限に考え続けてフリーズしたりはしない。人工知能でも人間のようにフレーム問題を解決して行動できるようになる必要がある。

4. チューリングテスト🔝

イギリスの数学者アラン・チューリングが発案した人工知能に対するテスト。人間が見えないところにいる相手と話してそれがコンピュータだと見破れなかったらそのコンピュータには知能があるとするもの。

第二次世界大戦中、チューリングは、ブレッチリー・パークでドイツの暗号エニグマ)を解読した。おかげで連合国側の情報機関がドイツの潜水艦「Uボート」の攻撃地点を予測できるようになり、数万人の命が救われた。

4.1. ローブナーコンテスト🔝

ローブナーコンテストでは、チューリングテストを使って最も人間に近いと判定された会話ボットに賞を与えている。人間の審判員が2つの画面を通して人間とコンピュータとチャットをする。その応答に基づき、審判員はどちらが人間でどちらがコンピュータかを判定する。

1950年の論文の中でアラン・チューリングは、50年以内に質問者が5分間質問した後の判定で30%はコンピュータを人間だと誤判定すると予測した。しかし、現在でもチューリングテストにパスするレベルのソフトウェアは出現していない。

イライザ(ELIZA)は本物のセラピストだと信じる人も現れるぐらいだった。厳密なチューリングテストを通過できたというわけではないが、チューリングテストを通過できるようなソフトウェアが作れる可能性を示唆している。しかも、そのようなソフトウェアに含まれるのはデータベースと単純なルールの適用だけかもしれない。

5. 強いAIと弱いAI🔝

アメリカの哲学者ジョン・サールは1980年に「Minds, Brains, and Programs」(心、脳、プログラム)という論文を発表した。その中で強いAIと弱いAIという言葉を使っている。

強いAI正しくプログラムされたコンピュータには精神が宿る。
弱いAI自意識もなく人間並みの幅広い認知能力もない。単なる特定問題解決器でしかない。

5.1. 中国語の部屋🔝

ジョン・サールは中国語の部屋という思考実験で強いAIに対して批判的な立場をとっている。中に英語しかわからない人間がいて、外から中国語の質問が与えられる。中の人はマニュアルなどを使って中国語で返事をする。外の人からすると中に中国語を理解できる人がいると判断するが、実際にはそうではない。

つまり、チューリングテストに合格しても本当に知能があるかどうかはわからない、とジョン・サールは結論づける。


数理物理学者のロジャー・ペンローズは「皇帝の新しい心ーコンピュータ・心・物理法則」の中で意識は脳内の微細な管に生じる量子効果が絡んでいるので既存のコンピュータでは強いAIは実現できないと主張した。

ロジャー・ペンローズはブラックホールの研究で有名なスティーブン・ホーキングと共同研究をした。

6. シンボルグラウンディング問題🔝

シンボルグラウンディング問題(記号接地問題)は、1990年に認知科学者のスティーブン・ハルナッドが命名したもので、記号システム内のシンボルがどのようにして実世界の意味と結びつけられるかをどうすればコンピュータが扱えるのかという問題。フレーム問題と同じく人工知能の難問。

コンピュータは記号(文字)の意味がわかっていない。例えば、「犬」という言葉を使った文章を作ることができたとしても、現実の「犬」を理解しているわけではない。

7. 身体性🔝

シンボルグラウンディング問題と関連して、身体性がある。人間の知能が成立しているのは身体があるからだという考え方。身体を通して知覚した情報が膨大なので記号を使って物事を認知し思考することようになったおかげでシンボルグラウンディングが出来るようになったとする。触ってみたりして外界と相互作用できる身体がないと概念を捉えきれないというのが身体性に着目したアプローチの考え方。

8. 知識獲得のボトルネック🔝

機械翻訳は1970年代後半はルールベース機械翻訳が使われていた。1990年代以降は統計学的機械翻訳が主流になり性能は飛躍的に向上したが実用レベルではなかった。コンピュータが意味を理解していないのが最大の問題だった。

一般常識がないと正しい翻訳はできないが、一般常識は膨大すぎで全ての知識を獲得することは難しい。これを知識獲得のボトルネックと呼ぶ。

2016年11月にGoogleはニューラル機械翻訳を使ったサービスを発表した。TOEIC900点以上の人間と同等の訳文が生成可能だと言われている。知識獲得のボトルネックが超えられるのではないかと期待されている。

9. 特徴量設計🔝

機械学習を行う上で、データの中から予測や判断に役立つ特徴を量的に表したものを特徴量と呼ぶ。特徴量の選択を人間が行うのではなく機械学習自体に発見させることを特徴表現学習と呼ぶ。ディープラーニングは特徴表現学習を行う機械学習の一種である。

ディープラーニングでは入力データを複数の層を通すことで細かい情報から段々と抽象的な情報へとデータを変換していく。とても複雑な関数を作り上げていると考えることもできる。あるいは複数のステップに渡るプログラムを学習しているとも捉えられる。

しかし、ディープラーニングが抽出する特徴量は必ずしも人間が理解できるものではないので、ブラックボックスと呼ばれたりする。つまり、判断理由や根拠を説明できないのだが、人間の脳もある意味同じではある。

10. シンギュラリティ🔝

シンギュラリティ(技術的特異点)とは人工知能が人間の知能を超え、自分よりもさらに賢い人工知能を作れるようになること。無限に高い知能が生産できることになる。レイ・カーツワイルはシンギュラリティが2045年に訪れると予想している。また、彼は2029年には人工知能が人間より賢くなると考えている。

スティーブン・ホーキング、イーロン・マスク、ビル・ゲイツは人工知能に懸念を持ち脅威論に同調している。

日本の人工知能学会では2014年に倫理委員会が設置された。



コメントを残す

メールアドレスは公開されません。