2019.08.26

求められるXAI(説明可能なAI)

PDF

ディープラーニングを中心に大量なデータを利用して、AIによって今まで人の判断では不可能であった高度な未来予測が可能になると、到底人間では、その予測結果の根拠を説明することができません。

求められるXAI(説明可能なAI)
AIが、活躍すればするほどAIに対する依存度が高まります。DeepMind社のAlphaGoと囲碁のプロ棋士との戦いは有名ですが、誰一人予想もしない手をAIが選択したことについて、もはや人間では説明できないとまで言われています。
今、企業では、人の採用や、医療の診断などあらゆる分野にAIが進出していますが、すでにそのことが、AIによる判断に人の運命まで影響を与えるほどの重要なポジションを、AIに依存してしまっているという現状があります。
たとえば、大企業の採用の1次審査で、書類選考をAIに任せると、年齢や性別など何を優先して選考しているかわからず、優秀な人を足切りしている可能性もあります。医療では、医師とAIの診断結果が異なる場合に、なぜ違うのかが解明できなくて困ってしまい、有効な治療に進めないというリスクもあります。

ディープラーニングに代表される機械学習では、必ずしも教師データを与える手法ばかりではなく、AIが自立して学習することさえ可能であるため、どういった特徴のデータがどれくらいの影響を与えているのか分からないという判断基準がブラックボックス化されてしまう問題があります。
そのために、近年世界中でXAI(Explainable AI)という説明可能なAIの研究がなされ、多くの論文も発表され、いろいろな手法が開発されています。すでに、各企業によって、実用的なソリューションとして展開されてサービス化されている例も多くなってきました。
米国防高等研究計画局(DARPA) のXAI の研究は有名ですが、日本においても、内閣府の「人間中心のAI社会原則検討会議」において、「公平性、説明責任及び透明性の原則」にて、「AIを利用しているという事実、AIに利用されるデータの取得方法や使用方法、AIの動作結果の適切性を担保する仕組みなど、用途や状況に応じた適切な説明が得られなければならない」としています。これにより、AIを利用した企業は、その処理の決定過程の説明責任が求められるようになり、今後、業務自動化にAIを組み込む場合などに考慮が必要になってきます。

そもそも、人間に説明が出来ないAI の内部処理なので、AI が何を考え、どうしてそのような結果を出したのかを解析するための別のAIを設置することが、今後流行っていくのかもしれません。


← 前のページ→ 次のページ

[タグ] AI 用語 トレンド

[関連]


▼業務自動化やセキュリティ対策に関するご相談は、お気軽にお問合せください RPA概説お問合せ