AI

XAI(説明可能なAI)とは?今さら聞けない注目されている理由を説明

こんにちは、まさかめです。

まさかめ
まさかめ
今回はAI関連の知識、XAIについて説明するよ!

XAI(説明可能なAI)とは?

 

XAIは、”Explainable AI”の略称です。
日本語の意味としては”説明可能なAI”となります。

「AIによる予測結果がなぜそのようになったのかを説明できる」
そういったAIのため”XAI(説明可能なAI)”を呼ばれています。

まさかめ
まさかめ
AIといえばブラックボックス、なんでその予測になっているか説明できないことが多かったんだよね。でも、それだと色々不都合だからXAIみたいに「なんでそういう予測になったのか」が説明できることが望まれているんだ!

XAIが注目されている背景

XAIが注目されている背景は、まさに先程お伝えした

AIといえばブラックボックス、なんでその予測になっているか説明できないことが多かったんだよね。でも、それだと色々不都合…

という部分が関わってきます。

AIの発達

現代において、AIという存在は急速に発展を続けており、

私達にとって必要不可欠なものとなっています。

まさかめ
まさかめ
身近なとこだとYouTubeやAmazonのオススメ機能、ビジネスシーンだと画像認識や音声認識とかもあるね

 

そんなAIですが、確率予測、自然言語処理、画像認識、音声認識…と、

幅広い分野で影響力がある中、一つの懸念がありました。

予測結果の説明ができない

AIを使用している人が下記のように感じたとします。

AIを使用している人
AIを使用している人
なんでこの予測になってるんだろう…?

僕の肌感と全然違うから理由を知りたい!

この場合、AIを作成している人は

「AIは膨大なデータを学習しているので、様々なデータから総合的に予測結果を出しています。その中でもコレとコレとコレは予測に与える影響が大きいですね。」

このように返答することが多かったのです。

まさかめ
まさかめ
実際僕が働いている会社では、社内向けのAIに対する予測結果の理由についての問い合わせには上記のような返答がすべてだったかな。

 

AIを作成する人からすれば、
AIが膨大なデータから学習した結果算出する予測結果はブラックボックス、
つまり理由がわからなかったのです。

しかし、ユーザーの心理としてはどうでしょう?

悩んでる人
悩んでる人
理由を説明できない予測結果を信じてもいいのか…?

予測結果の説明はできないけど、その内容を信じて使ってねと言われても、
不信感を抱いてしまう心理は納得できます。

まさかめ
まさかめ
ちなみに、XAI以外のすべてのAIがブラックボックスというわけじゃないよ!

比較的説明がしやすいアルゴリズムもあります!

AIの予測結果を説明できないことによる弊害

これまで説明してきたような「AIが発達▶予測結果は説明不可能」という状態だと以下のような社会的な問題が発生します。

例
クレカの審査に落ちたんだけど、理由を説明してもらえなかった
例
AIを使って採用活動している会社から落とされた!AIはなんで私を落としたんだろう?
例
自動運転技術を搭載した車が事故を起こした!このAIに問題はなかったのか!?

いずれも、結果に対する理由を求められるものばかりですが、
精度を追い求めたブラックボックスなAIでは回答が非常に難しいのです。

説明可能性が求められ始めた

  1. AIが発達
  2. AIの活用が増加
  3. AIの予測結果に対する不信感が発生
  4. AIの予測結果への説明を求める声の増加

これまで説明してきた上記の流れが背景として存在し、
XAI(説明可能なAI)が注目されてきました。

まとめ、というより感想

ではすべてのAIをホワイトボックス化するべきか?

私はそうは思いません。

 

確かに誰かの人生に大きく関わる予測などは説明可能なものである方がいいと思います。
しかし、YouTubeのレコメンド機能などは、
例えレコメンドの基準が不明でも、動画再生数が増え、広告閲覧数が増加すれば問題ないでしょう。

 

ほとんどの場合、精度と透明性はトレードオフの関係です。

一つの変数で予測をしていると説明はしやすいですが精度が低くなる可能性があり、
たくさんの変数で予測をしていると精度は向上しそうですが説明が難しくなります。

私達は「今回は説明可能であるべきか、精度を追い求めるべきか」を考えながら、
事例に適したAIを作成していく必要があると感じます。

まさかめ
まさかめ
ちなみに、XAIの作成には”LIME”、”SHAP”などの手法が使われるよ!

それについてはまた別の記事で詳しく説明します!