不正防止のための説明可能なAI – darkreading.com
security summaryこのようなツールの助けを借りて、ユーザーは重要な決定を下すMLモデルをより理解し、信頼することができます。
ブラックボックスモデルをSHAPと組み合わせると、モデルのグローバルな動作を理解し、モデルが不正行為を検出するために使用する主な機能を明らかにすることができます。
さらに、モデルによって行われた個々の予測を理解するのに役立ちます。
そして、モデルを理解することで、継続的に改善することができます。
元のドキュメントによると、「EBMは、最新のブラックボックスモデルと同じくらい正確でありながら、完全に解釈可能です。EBMは、他の最新のアルゴリズムよりもトレーニングが遅いことがよくありますが、予測時に非常にコンパクトで高速です。」ローカル解釈可能モデルにとらわれない説明(LIME)も、ブラックボックスの説明に使用できる優れたツールです。
ただし、非構造化データで機能するモデルでより一般的です。

コメント