こんにちは、まさかめです。
XAI(説明可能なAI)とは?
XAIは、”Explainable AI”の略称です。
日本語の意味としては”説明可能なAI”となります。
「AIによる予測結果がなぜそのようになったのかを説明できる」
そういったAIのため”XAI(説明可能なAI)”を呼ばれています。
XAIが注目されている背景
XAIが注目されている背景は、まさに先程お伝えした
AIといえばブラックボックス、なんでその予測になっているか説明できないことが多かったんだよね。でも、それだと色々不都合…
という部分が関わってきます。
AIの発達
現代において、AIという存在は急速に発展を続けており、
私達にとって必要不可欠なものとなっています。
そんなAIですが、確率予測、自然言語処理、画像認識、音声認識…と、
幅広い分野で影響力がある中、一つの懸念がありました。
予測結果の説明ができない
AIを使用している人が下記のように感じたとします。
僕の肌感と全然違うから理由を知りたい!
この場合、AIを作成している人は
「AIは膨大なデータを学習しているので、様々なデータから総合的に予測結果を出しています。その中でもコレとコレとコレは予測に与える影響が大きいですね。」
このように返答することが多かったのです。
AIを作成する人からすれば、
AIが膨大なデータから学習した結果算出する予測結果はブラックボックス、
つまり理由がわからなかったのです。
しかし、ユーザーの心理としてはどうでしょう?
予測結果の説明はできないけど、その内容を信じて使ってねと言われても、
不信感を抱いてしまう心理は納得できます。
比較的説明がしやすいアルゴリズムもあります!
AIの予測結果を説明できないことによる弊害
これまで説明してきたような「AIが発達▶予測結果は説明不可能」という状態だと以下のような社会的な問題が発生します。
いずれも、結果に対する理由を求められるものばかりですが、
精度を追い求めたブラックボックスなAIでは回答が非常に難しいのです。
説明可能性が求められ始めた
- AIが発達
- AIの活用が増加
- AIの予測結果に対する不信感が発生
- AIの予測結果への説明を求める声の増加
これまで説明してきた上記の流れが背景として存在し、
XAI(説明可能なAI)が注目されてきました。
まとめ、というより感想
ではすべてのAIをホワイトボックス化するべきか?
私はそうは思いません。
確かに誰かの人生に大きく関わる予測などは説明可能なものである方がいいと思います。
しかし、YouTubeのレコメンド機能などは、
例えレコメンドの基準が不明でも、動画再生数が増え、広告閲覧数が増加すれば問題ないでしょう。
ほとんどの場合、精度と透明性はトレードオフの関係です。
一つの変数で予測をしていると説明はしやすいですが精度が低くなる可能性があり、
たくさんの変数で予測をしていると精度は向上しそうですが説明が難しくなります。
私達は「今回は説明可能であるべきか、精度を追い求めるべきか」を考えながら、
事例に適したAIを作成していく必要があると感じます。
それについてはまた別の記事で詳しく説明します!