近年におけるAI(人工知能)の発展は著しい。しかしその一方で、企業における実際の業務にAIを活用する取り組みは、あまり進んでいないのが実情だ。AIの活用を阻んでいる「壁」と、それを乗り越える方法を解説する本連載。第1回はAIの判定根拠に対する利用者の不安を解消できると期待される「説明可能AI(XAI)」を取り上げる。

 ディープラーニング(深層学習)などAIの進展によって、あらゆる分野でAIを適用する試みが広がっている。特に経済や健康にかかわる重要なビジネスシーンにおいても、AIによる高度な判断を導入しようという期待が高まっている。ところが、高精度なAIモデルは内部構造が複雑であり、AIの判断がどのような基準に従っているのか理解するのは非常に困難だ。これがAIを活用する上での大きな壁になっている。

高精度なAIの複雑な内部構造
出所:NTTデータ
[画像のクリックで拡大表示]

AIの透明性の必要性

 AIをビジネスに適用するうえでは、利用者が納得できる判定根拠を「説明」できることが不可欠だ。例えば医療診断にAIを適用するのであれば、単なる病名を判定するだけでなく、それがどのような条件によるのか「根拠」を提示しない限り、利用者はAIの判定結果に納得できないだろう。

 人が直接利害を受けるビジネスへAIを適用する際の要件については、各国政府でも取りまとめが図られている。日本でも内閣が設置した統合イノベーション戦略推進会議が取りまとめた「人間中心のAI社会原則」の中で「公平性、説明性及び透明性の原則」における要件を挙げている。AIの公平性や説明性、透明性を確保するために、AIの判定根拠を人間にも分かる形で提示する「説明可能AI(Explainable AI、 以下XAI)」技術の研究が盛んになっており、関連する論文の数は増え続けている。

XAIに関する論文数の推移
出所:「Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI」, Alejandro Barredo Arrieta et al. (2019)
[画像のクリックで拡大表示]

 XAIは、複雑なAIモデルの内部ロジックを簡潔な条件の組み合わせで可視化する、個々のデータに対する判定でどの特徴量(予測に用いる変数)を重視しているかを定量化する、といった方法で「説明」を出力する。例えば入力が構造データであれば予測に効いている変数を、非構造データであれば領域を、自然文であれば単語を説明として出力する。XAIの活用によって、複雑なAIモデルによる「精度」と内容を解釈できる「説明性」の両立が期待されている。

 XIAの代表例が、近傍での線形近似によってAIモデルを説明する「LIME」と、特徴量間での利得配分によって説明する「SHAP」がある。それぞれの概要を紹介しよう。

特徴量とスコアを可視化する「LIME」

 LIMEはあるデータに対するAIモデルの予測について、寄与した特徴量とそのスコアを可視化する技術だ。様々なAIモデルに対して適用が可能であり、構造データだけでなく画像やテキストデータも説明できる。

 例えば、テキストから車の故障箇所を判断するAIモデルにLIMEを適用した場合、その説明は下図のように得られる。

テキストデータのAI予測に対するLIMEの説明例
出所:NTTデータ
[画像のクリックで拡大表示]

 AIによるエンジン故障の予測においては、単語「エンスト」が最も強く影響しておりその度合いは0.43、次の「クランクシャフト」は0.16の影響度であることが読み取れる。

 AIモデルの判断が分かれる境界線は、複雑な条件が入り組んでいるため単純な式で表現することは不可能だ。しかし、説明したいデータ周辺の狭い範囲のみに着目すると、線形式によって境界線を近似できる。

この先は日経クロステック Active会員の登録が必要です

日経クロステック Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。