株式会社HYPERIAとの共同研究に関するお知らせ

AIからの出力を解釈可能なものにするための実践ポイント

AI・機械学習・ディープラーニング

AI(人工知能)技術は、すでに日常生活に欠かせないものとなってきています。

医師が見つけられない病気の兆候を発見したり、犯罪行為を検出できるようになってきています。そういった場合でも、AIの基礎となるアルゴリズムは、膨大な量のデータを分析しパターンを検出、結果を出力してくれます。そして僕たちはその結果を使って意思決定を行うことが可能になるわけです。

しかし、AIの能力が高まるにつれて、AIモデルはしばしば複雑になりがちで、人間には理解が難しくなる傾向があります。その結果、データが入ってきて答えを出す過程が「ブラックボックス化」の状態になることがあります。僕たち人間は、どのようにしてこの結果が導き出されたのか、理解できない状態になるわけです。

いまやあらゆる業界の経営者層の約85%が、今後5年間でAIがビジネスのやり方を大きく変えると考えているそうです。

しかし、今後もAIが人々の信頼を得て、人間の活動により密接に関係するためには、AIモデルが解釈可能なものである必要があります。「どうしてそのような出力になったのか」理由を理解することは、出力の精度の高さと同じくらい重要である場合が多いです。

今回は、AIを解釈可能なものにするための実践ポイントを紹介します。

ニーズを理解しAIに期待する精度を明確にする

プロジェクトを開始するにあたり、まずはプロジェクトのゴールとスコープを定義し、それが課題に対する最善の解決策であるかどうかを評価する必要があります。

・課題の解決にAIを利用することは最適な手段か
・AIシステムのコストは、潜在的な利益やコスト削減に見合うか
・どのような精度が必要か
・適切なデータは収集可能か

など、検討することが重要です。

なによりも「AIは完璧でない」ということを念頭に置くことが重要です。特に、複雑なタスクについて100%の出力精度をAIに期待することは非現実的です。これは、AIの流行もあり勘違いしている人がいまだに多いので、プロジェクトに関わる関係者だけでなく、企業の経営層にも予め理解を求める必要があります。

要求されるレベルを確認/明確にする

AIを使ったすべての作業に解釈が必要になるわけではありません。
例えば、メールをスパムフォルダに振り分けるAIを理解する必要はないわけです。間違いは稀ですし、間違っても簡単に修正できるので、判断を説明できることにほとんど価値はありません。

しかし、たとえば金融詐欺を見抜くAIモデルの場合、解釈可能性は起訴前の証拠集めに不可欠な要素になる可能性があります。そのため、モデルの使用目的は、解釈可能性が必要かどうかの重要な検討事項となります。

特定のユースケースで要求される厳密性を判断するために、以下の2つの要素を見ると良いです。

・臨界性:人の安全、金銭、組織の評判がどの程度危険にさらされているかを示すもの
・脆弱性:AIと共同で作業している人間のオペレータがAIの決定を不信に思い、それを上書きして冗長化させる可能性

重要で脆弱性の高いユースケースであればあるほど、説明可能で透明性の高いAIが必要とされる傾向があります。

ステークホルダーへの影響と要件を理解する

AIシステムの影響を受けるすべての関係者を満足させ、特定のユースケースで適用される規制を遵守するために、プロジェクトチームが取るべきことは、プロジェクト初期の時点から解釈可能性の検討をすることです。

以下のような質問をすることで、解釈可能なシステムに向けた取り組みが可能になります。

・利害関係者は誰で、どのような情報を必要としているのか?
・良い説明、または十分な説明とはどういったものか?
・ステークホルダーごとに、どのような情報について解釈可能性が求められるか?
・解釈可能性に対応するために、AIモデルの性能にどれだけ妥協可能か?

さらに、前述した臨界性の評価のように、AIシステムが出力する結果が重要であり、それがエンドユーザーの身体的/精神的安全に影響を与えたり、人の権利や自由を制限したりする可能性がある場合には、解釈可能性は不可欠になるわけです。

たとえば、法律で義務付けられている場合、顧客の個人情報に依存するAIシステムは、その情報がどのように使用され、どのような目的で使用されるかを説明できるようにしなければいけません。

このような場合、解釈可能性はAIシステムの「付加価値」ではなく、外すことのできない「要件」となります。

AIモデル戦略の策定と実行

これまで挙げたポイントを念頭に置いてプロジェクトを推進することで、AIモデルの解釈可能性戦略を策定し、それを実施するための準備をすることができます。

たとえば、あるプロジェクトで検討中のAIモデルがブラックボックスとなっている場合、1人以上の利害関係者が解釈可能性を必要としていたとします。その時、いくつかの取るべき選択肢があります。

代わりに、よりシンプルで効果が低いが、より効果的なAIモデルを採用することもできるし、AIと他の技術を併用して解釈可能性を付加することも可能です。

たとえば、決定木のような単純なモデルは、枝の一番上にある親から一番下にある子までのパスをたどることで、比較的簡単に解釈することができます。おそらくディープラーニング的手法のほうが性能は良いかもしれませんが、説明するのははるかに困難になります。

AIシステムを使用することの意味合いを評価するとき、意思決定者は、パフォーマンスと解釈可能性のトレードオフを考慮する必要があるわけです。

あるいは、複雑なAIモデルはそのままに、SHAP(SHapley Additive exPlanations)LIME(Local Interpretable Model-Agnostic Explanations)のようなフレームワークを通じて解釈可能性を向上させることもできます。こういったフレームワークを使うことで、ブラックボックスの中を見るのではなく、試行錯誤の方法でその働きを推論することができるというイメージです。

さいごに

AIの解釈可能性が上がることで、バイアスや公平性、セキュリティをサポートするのに役立ちます。AIを導入しようとしている業界の規制に準拠させることもできますし、また倫理的に健全な意思決定も可能にします。

今後もAIが人々の信頼を得て、人間の活動により密接に関係するためには、解釈可能性というのはAIが持つべき大きな要件のひとつになります。