説明可能な不正防止AIについてお話しましょう

説明可能な不正防止AIについてお話しましょう

人工知能は近年急速に発展し、さまざまな業界の無数のユースケースで強力なイノベーションツールとして広く使用されています。しかし、大きな責任には大きな能力が求められることがよくあります。 AI と機械学習のおかげで、不正防止技術はかつてないほど正確になり、急速に発展しています。リアルタイム スコアリング テクノロジーにより、ビジネス リーダーは不正行為を即座に特定できるようになります。しかし、AI-ML 主導の意思決定の使用は、透明性に関する懸念も引き起こします。さらに、ML モデルが重要な環境で使用される場合、説明可能性の必要性が生じます。

機械によって行われる重要な意思決定の数が増え続けるにつれて、説明可能性と理解可能性がますます重要になります。テクノロジー研究者のティム・ミラー氏によると、「理解可能性とは、人間が意思決定の理由を理解できる度合いのことです。」したがって、信頼できる自動化ソリューションの開発を促進するには、ML モデルの解釈可能性を開発することが重要です。

開発者、消費者、リーダーは、不正防止の意思決定の意味とプロセスを理解する必要があります。しかし、少しだけパラメータが多い ML モデルは、ほとんどの人にとって理解するのが困難です。しかし、説明可能な AI 研究コミュニティは、理解可能性ツールの開発により、ブラックボックス モデルはもはやブラックボックスではないと繰り返し述べています。これらのツールの助けを借りて、ユーザーは重要な意思決定に使用する ML モデルを理解し、より信頼できるようになります。

SHAP オブ シングス

SHAP (SHapley Additive exPlanations) は、今日最も一般的に使用されているモデルに依存しない説明ツールの 1 つです。協力ゲームから Sharply 値を計算し、機能の影響を均等に共有します。表形式のデータに取り組んで不正行為と戦うためにアンサンブル法を使用する場合、SHAP の TreeExplainer アルゴリズムは、多項式時間でローカルな説明を取得する機会を提供します。このツールでは近似値のみが可能です。これは、ニューラル ネットワーク ベースの説明に比べて大きな進歩です。

ホワイト ボックスは通常、不正行為の重大度スコアを計算するルール エンジンを指します。本質的には、ブラック ボックス メソッドとホワイト ボックス メソッドは異なる結果を生成します。ブラック ボックス メソッドは、機械がデータから学習した内容に基づいて結果を生成するのに対し、ホワイト ボックス メソッドは、事前に定義されたルールに基づいてスコアを生成するためです。これらの違いに基づいて、両方向に発展することができます。たとえば、ブラックボックス モデルによって発見された不正ループに基づいてルールを調整するなどです。

ブラック ボックス テストと SHAP を組み合わせることで、モデルの全体的な動作を理解し、不正行為を検出するためのモデルの主な特徴を明らかにすることができます。同時に、モデル内の望ましくないバイアスも明らかになる可能性があります。たとえば、モデルは特定の人口統計を差別する可能性があります。グローバルモデルの解釈を通じてこのような状況を検出し、不正確な予測を防ぐことができます。

さらに、モデルによって行われた個々の予測を理解するのにも役立ちます。 ML モデルのデバッグ プロセス中に、データ サイエンティストは各予測を個別に観察し、それに応じて解釈できます。その機能の貢献により、モデルが何をしているかを把握することができ、これらの入力からさらに開発を進めることができます。 SHAP を活用することで、エンド ユーザーはモデルの重要な機能を取得できるだけでなく、各機能がモデル出力の不正確率にどのように (どの方向に) 影響するかを理解することもできます。

信頼係数

最後に、SHAP の助けを借りて、成功したモデルに対する信頼を獲得することで、顧客からの信頼を得ることができます。一般的に言えば、製品がどのように機能するかを理解すれば、その製品に対してより自信を持つことができます。人々は理解できないものを嫌います。解釈ツールの助けを借りて、ブラックボックスを調べ、よりよく理解し、信頼できるようになります。さらに、モデルを理解することで、継続的に改善することができます。

Explainable Booster (EBM) は、ML モデルに SHAP 勾配ブースティングを使用する代わりに使用できます。これはInterpretML(マイクロソフトの人工知能企業)の主力製品であり、いわゆるガラスの箱です。 Glass Box という名前は、その構造上、その性質が解釈の余地があるという事実に由来しています。元のドキュメントによると、「EBM は、最先端のブラック ボックス モデルと同等の精度を持ちながら、完全に解釈可能なままです。EBM は他の最新のアルゴリズムよりもトレーニングに時間がかかりますが、非常にコンパクトで予測が高速です。」とあります。Locally Interpretable Models — Model Agnostic Explanations (LIME) も、ブラック ボックスの説明に使用できる優れたツールです。ただし、非構造化データ モデルではより一般的です。

上記のツールと透明なデータ ポイントを活用することで、組織は自信を持って意思決定を行うことができます。最良の結果を生み出すには、すべての関係者がツールがどのように機能するかを理解する必要がありま す。ブラックボックス ML とそれに伴うさまざまな手法を理解することで、組織は結果に至った経緯をより深く理解し、ビジネス目標の達成に貢献できます。

レビュー

人間にとって、未知のものは恐ろしく、信頼できないものであることが多いです。 AI-ML の意思決定を推進するアルゴリズム モデルは「ブラック ボックス」のようなものです。その構造は理解できますが、動作原理を理解することはできず、得られる結果の信頼性を判断することもできません。特に、不正防止などの高リスク環境では、AI および ML テクノロジの適用がより困難になります。説明可能なツールの導入により、「ブラックボックス」は徐々に透明化され、ユーザーの疑問や懸念が大幅に払拭され、「ブラックボックス」自体の発展の条件も整いました。

<<:  クラウド コンピューティングにおいて人工知能はどのような役割を果たすのでしょうか?

>>:  機械学習: Python による分類

ブログ    
ブログ    

推薦する

知っておくべき 19 の実用的なコンソール デバッグのヒント!

みなさんこんにちは、CUGGZです。ブラウザの開発者ツールは、DOM ツリー構造の表示、CSS スタ...

...

タイムトラベルが現実になる?人間はワームホールを通じて「時空の端」に到達できるかもしれないし、量子AIは機械に意識を与えるだろう

[[436484]]タイムトラベルは本当に可能なのでしょうか?新たな研究によれば、今から数千年後には...

Pythonを全く知らなかった私がAIエンジニアになるまでに2年かかりました

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

人工知能と伝統的な中国医学が出会うと、青い「箱」は「見て、嗅いで、聞いて、感じることができる」

[[238055]] [[238056]]患者は青い「ボックス」に手首を入れ、赤外線スキャン後に脈...

人工知能:しっかりと根を張ってこそ、どこでも繁栄できる

人工知能(AI)技術は静かに人間の生活を変えています。顔認証、顔スワイプ決済、新型コロナウイルス感染...

AIによって書かれたコードは「手書きのコード」よりもはるかに安全性が低い

Github Copilot のような人工知能コードアシスタントは、開発者の開発効率と生産性を大幅に...

機械学習と従来のプログラミングの違いについて話す

[[264779]] AI と ML は誇張されすぎていて、if 文を書いたりプログラミングに関係す...

10年以内にAGI?次世代のジェミニは環境を感知できるのか?ディープマインドCEOハサビス氏がAIについて語る

「今後10年でAGIのようなシステムが登場しても驚かないだろう」と、グーグル・ディープマインドの共同...

...

AWS でディープラーニングを使用するための 10 個の Linux コマンド

[[202723]] AWS 上で大規模なディープラーニング処理を実行することは、学習と開発を行うた...

...

インド初のAI教師アイリスが就任。3か国語を話し、個別指導を改善できる

3月8日、インド初のAI教師であるアイリス氏が就任した。彼女は、楽しみながら学ぶことで生徒の学習体験...