一般財団法人日本情報経済社会推進協会

ナビゲーションをスキップ

EN

お問い合わせ

2018.04.27

レポート

人工知能の品質保証とは

日本アイ・ビー・エム株式会社
東京基礎研究所 部長
インダストリー・ソリューション
セキュリティ&サービス
リサーチ・スタッフ・メンバー
早稲田大学大学院 非常勤講師
 細川 宣啓氏

日本IBM 細川様

日本IBM 細川様

本日の講演タイトル「人工知能の品質保証とは?」には以下4通りに解釈できる曖昧さがある。
 1. 人工知能で品質保証(方法の話)
 2. 人工知能で品質保証なんてできるのか?(実現性の話)
 3. 人工知能の品質保証はどうやってやるべきか?(要望・要求・理想レベル)
 4. 人工知能の品質保証は可能か?(実現性の話)

人工知能で品質保証

まず人工知能で品質保証が可能かという話からしたい。
例えば、「TODOというコメントが残存している」という未完成を示すバグを人工知能で検出することはできるか。
 
// //TODO:ロギング処理など

というコードは「ロギング」処理が欠落していることをレビューを通じて「TODO」として指摘、つまり処理なしの処理になっておりTODOの意味がない。
このプログラムの場合、何がソフトウェア欠陥なのか。”TODO”があることか、処理が空なことか、エラーハンドラになっていないことなのか?

さらに、

  /// TODO3:フェールセーフ機能(現状異常にせず、ServiceTraceに出力するのみ、
  /// 異常にする場合、ソースコード上のコメントを削除すること)

 は、「コメントを削除すること」とは「コメントになっているところを普通の行に戻せ」なのか「コメントになっているところを行ごと削除しろ」と言っているのか二義性がある。しかも「異常にする場合」、「ソースコード上のコメントを削除すること」とあるので、異常にしない場合は削除するのかしないのかわからない。TODOを書いた人と実行した人の意識合わせをしなければならない。

こうした二義性のあるものに従うことは、誤った修正にミスリードする可能性がある潜在的なバグであり、実装した瞬間に実バグになる。実バグを生み出すタイプのTODO文章といえる。AIは意味を理解しないので「二義性があり、潜在バグの可能性が高い」ということをどうわからせるかが問題だ。AIに単純にバグをとらせようと思っても難しい。せいぜいTODOの記述箇所を見つけるくらいしかできない。人間ならば修正順序まで大体推測できるものをAIに実装させるというのはかなり難しい領域である。
 
従来の品質管理は内在しているバグの数のみで保証すると思うが、コンピュータのバグには学問的な定義がない。「何が故障であり何がバグであるか」という定義が学習する元データになるが、AIでは学習の対象となる悪いデータが集まっていない。

人工知能の品質保証

人工知能搭載兵器や自動運転、医療分野などあらゆる産業面で人工知能システムの発展に伴い、パブリックセンサーやオープンなデータを検出し、上手く取り扱うことが現在の鍵になってきている。

(図1)

私たち人間はどうしてバナナとぶどうの違いを認識できるのか?「バナナ」=「黄色くて細長くいもの」と定義すると図1にあるような唐辛子やキリンも「バナナ」といえる。開発者じゃない人はよく「大量のデータを食わせれば必ず人工知能が成立する、育っていく」と誤解しているが、AIはラベルを付けて分類したものでしか学習できない。

「プログラムのバグをAIで見つけられないか」とよく聞かれるが、バグの性質、挙動、被害がラベル付けされて初めて品質保証に役立てることができる。現在集まっている大量のデータをAIに学習させるために人間が認識、整理しAIに学習させるためのラベル付けをするところまで至っていない。AIはまだ意味を理解しておらず、あくまで与えられた特徴から似たものを探してくるところまでしかできていない。
AIはまだ照合や推論の域を出ておらず、本日のテーマ「人工知能の品質保証」というタイトルに多義性があり、「人工知能で」、「人工知能を」という二つの解釈ができるという意味論を理解できない。

2016年10月にホワイトハウスから『AI研究開発ガイドラインの組織化に向けた提言』が出された(図2)。この中に「AIネットワークシステムはその挙動が説明でき、検証可能であること(透明性原則)」とあるが、AIは意味を理解しないので「私(AI)は望まれていない答え、嫌な答えをしていないか」という自省をしたり意味を考えながら会話を進めることが現時点ではできない。

(図2)

「人間の尊厳とネットワークに接続するAIの研究開発を行う上で個人の自主性(自律性)を尊重すること(倫理原則)」とあるが倫理というのは地域(regional)や宗教(religious)によっても異なり、Aさんに不快なものがBさんに快適だったりするので尊重しようがない。また、いわゆるChatBotに代表されるユーザー対話を伴うAIアプリケーションの場合も、学習元となるデータの品質に応じてユーザーに対する反応が望ましい・望ましくないといった快・不快問題を内包する。これは従来の開発におけるプログラムではなくデータの問題で、これをバグと呼ぶことは果たして適当といえるか。

「AIの研究者・開発者は、ネットワーク分散されたAIであっても、ユーザー(やその他の受益者)に対して説明責任を果たさなくてはならない(アカウンタビリティー原則)。」についても、AIは毎分毎秒データを食わされて賢くなっていくものなので、例えば1秒間隔で10回テストすると1回目と2回目で同じ結果が出ない可能性がある。決定的(deterministic)な関数のファンクションテストではないので、どうテストしたらいいのか、どこまでテストしたらいいのかが明確でない。つまり、人工知能を品質保証しようとしてもテストができない、終わりがない。

 AIの品質保証にはたくさんの課題がある。アメリカではロボットが人を襲わないよう、AI自身が自分(AI)を殺す「アポトーシス問題(自分自身を止められない)」が話題になっているが自分がシャットアウトできたことを確認できないのでそういう機能は実現できない。

良いデータを食わせればAIは賢くなると思われているが、私は「やってはいけないことだけ学習させれば良い」と思っている。例えば自動運転車が安全に左折するために、前走車、並走車、後続車、路面の摩擦係数、歩行者、自転車といったすべての組み合わせを掛け算でテストすると安全が保障されるのは数兆ケースの事例を検証したあと、つまり数千年後といわれる。そうではなくて、前後左右にぶつかったらアウト、人や自転車を轢いたらアウト、と条件を足していくと検出数が数十ケースにまで減る。人工知能のテストは背理法でテストすると検出数が極端に減る。シミュレーションしたらおそらく数分程度で済むだろう。ただし、それでその自動車を販売して良いかというのは法律学や倫理観の問題になってくる。

人工知能システムの安全を守るには、防衛、検知、修正・訂正、軽減という4段階のガードをかけていくAIのためのAIを走らせるイメージで考えていただくと分かりやすい(図3)。私も「悪魔回路」と「良心回路」から成り、良心回路の振る舞いを悪魔回路が常にチェックするAIを作りたいと思っており、少なくとも人間を殺したり暴走したりする状態を止められる安全装置をかけて作ろうというところまできている。

(図3)

まとめ

AIの品質の領域をきちんと捉えている国は日本を含めて今のところ存在しない。世界中の学会、組織で「テスト技法を作ろう」というレベルであり、品質に包括的かつ真正面から取り組めてはいない。もし、本分野に取り組んでいたり問題を抱えている会社さんがあれば是非呼んでいただきたい。AIと品質の問題は一社レベルではなく市場全体で取り組むべき課題だと考えている。今後とも是非皆さんと知見を共有していきたいと考えている。