説明可能な不正防止AIについてお話しましょう

説明可能な不正防止AIについてお話しましょう

人工知能は近年急速に発展し、さまざまな業界の無数のユースケースで強力なイノベーションツールとして広く使用されています。しかし、大きな責任には大きな能力が求められることがよくあります。 AI と機械学習のおかげで、不正防止技術はかつてないほど正確になり、急速に発展しています。リアルタイム スコアリング テクノロジーにより、ビジネス リーダーは不正行為を即座に特定できるようになります。しかし、AI-ML 主導の意思決定の使用は、透明性に関する懸念も引き起こします。さらに、ML モデルが重要な環境で使用される場合、説明可能性の必要性が生じます。

機械によって行われる重要な意思決定の数が増え続けるにつれて、説明可能性と理解可能性がますます重要になります。テクノロジー研究者のティム・ミラー氏によると、「理解可能性とは、人間が意思決定の理由を理解できる度合いのことです。」したがって、信頼できる自動化ソリューションの開発を促進するには、ML モデルの解釈可能性を開発することが重要です。

開発者、消費者、リーダーは、不正防止の意思決定の意味とプロセスを理解する必要があります。しかし、少しだけパラメータが多い ML モデルは、ほとんどの人にとって理解するのが困難です。しかし、説明可能な AI 研究コミュニティは、理解可能性ツールの開発により、ブラックボックス モデルはもはやブラックボックスではないと繰り返し述べています。これらのツールの助けを借りて、ユーザーは重要な意思決定に使用する ML モデルを理解し、より信頼できるようになります。

SHAP オブ シングス

SHAP (SHapley Additive exPlanations) は、今日最も一般的に使用されているモデルに依存しない説明ツールの 1 つです。協力ゲームから Sharply 値を計算し、機能の影響を均等に共有します。表形式のデータに取り組んで不正行為と戦うためにアンサンブル法を使用する場合、SHAP の TreeExplainer アルゴリズムは、多項式時間でローカルな説明を取得する機会を提供します。このツールでは近似値のみが可能です。これは、ニューラル ネットワーク ベースの説明に比べて大きな進歩です。

ホワイト ボックスは通常、不正行為の重大度スコアを計算するルール エンジンを指します。本質的には、ブラック ボックス メソッドとホワイト ボックス メソッドは異なる結果を生成します。ブラック ボックス メソッドは、機械がデータから学習した内容に基づいて結果を生成するのに対し、ホワイト ボックス メソッドは、事前に定義されたルールに基づいてスコアを生成するためです。これらの違いに基づいて、両方向に発展することができます。たとえば、ブラックボックス モデルによって発見された不正ループに基づいてルールを調整するなどです。

ブラック ボックス テストと SHAP を組み合わせることで、モデルの全体的な動作を理解し、不正行為を検出するためのモデルの主な特徴を明らかにすることができます。同時に、モデル内の望ましくないバイアスも明らかになる可能性があります。たとえば、モデルは特定の人口統計を差別する可能性があります。グローバルモデルの解釈を通じてこのような状況を検出し、不正確な予測を防ぐことができます。

さらに、モデルによって行われた個々の予測を理解するのにも役立ちます。 ML モデルのデバッグ プロセス中に、データ サイエンティストは各予測を個別に観察し、それに応じて解釈できます。その機能の貢献により、モデルが何をしているかを把握することができ、これらの入力からさらに開発を進めることができます。 SHAP を活用することで、エンド ユーザーはモデルの重要な機能を取得できるだけでなく、各機能がモデル出力の不正確率にどのように (どの方向に) 影響するかを理解することもできます。

信頼係数

最後に、SHAP の助けを借りて、成功したモデルに対する信頼を獲得することで、顧客からの信頼を得ることができます。一般的に言えば、製品がどのように機能するかを理解すれば、その製品に対してより自信を持つことができます。人々は理解できないものを嫌います。解釈ツールの助けを借りて、ブラックボックスを調べ、よりよく理解し、信頼できるようになります。さらに、モデルを理解することで、継続的に改善することができます。

Explainable Booster (EBM) は、ML モデルに SHAP 勾配ブースティングを使用する代わりに使用できます。これはInterpretML(マイクロソフトの人工知能企業)の主力製品であり、いわゆるガラスの箱です。 Glass Box という名前は、その構造上、その性質が解釈の余地があるという事実に由来しています。元のドキュメントによると、「EBM は、最先端のブラック ボックス モデルと同等の精度を持ちながら、完全に解釈可能なままです。EBM は他の最新のアルゴリズムよりもトレーニングに時間がかかりますが、非常にコンパクトで予測が高速です。」とあります。Locally Interpretable Models — Model Agnostic Explanations (LIME) も、ブラック ボックスの説明に使用できる優れたツールです。ただし、非構造化データ モデルではより一般的です。

上記のツールと透明なデータ ポイントを活用することで、組織は自信を持って意思決定を行うことができます。最良の結果を生み出すには、すべての関係者がツールがどのように機能するかを理解する必要がありま す。ブラックボックス ML とそれに伴うさまざまな手法を理解することで、組織は結果に至った経緯をより深く理解し、ビジネス目標の達成に貢献できます。

レビュー

人間にとって、未知のものは恐ろしく、信頼できないものであることが多いです。 AI-ML の意思決定を推進するアルゴリズム モデルは「ブラック ボックス」のようなものです。その構造は理解できますが、動作原理を理解することはできず、得られる結果の信頼性を判断することもできません。特に、不正防止などの高リスク環境では、AI および ML テクノロジの適用がより困難になります。説明可能なツールの導入により、「ブラックボックス」は徐々に透明化され、ユーザーの疑問や懸念が大幅に払拭され、「ブラックボックス」自体の発展の条件も整いました。

<<:  クラウド コンピューティングにおいて人工知能はどのような役割を果たすのでしょうか?

>>:  機械学習: Python による分類

ブログ    
ブログ    
ブログ    

推薦する

...

EasyDLは、臨床試験データの敵対的学習と複数のアルゴリズムの比較を簡単に処理します。

[51CTO.com からのオリジナル記事] 画像学習は高度なアルゴリズムであり、画像への高い適応...

機械学習は「部屋の中の象」に対処するのが難しい

AI には、部屋に突然象が現れたなど、信じられないような異常を発見しながらも、それを冷静に受け入れる...

人工知能の簡単な歴史 | (1) ディープラーニング、人工知能の新たな盛り上がり

人工知能はまだ少し遠く、Google の巨大なデータセンターの部屋や神秘的な MIT ロボット工学研...

ネットワークにおける機械学習の実用的応用

各 Web アプリケーションには独自の機能とパフォーマンス パラメーターのセットがあり、これらは動的...

2021 年に注目すべき 27 の建設技術トレンド (パート 3)

テクノロジーは建設業界にかつてないほど大きな影響を与えています。クラウドベースのコラボレーションやデ...

プログラマーを夢中にさせるソートアルゴリズムに関するビデオ

ルーマニア人はダンスが大好きな国民です。古いルーマニア映画「チプリアン・ボロンベスク」をご覧になった...

人工知能とビッグデータを開発する際に注意すべき12のポイント

人工知能は近年の科学技術発展の重要な方向です。ビッグデータの時代において、データの収集、マイニング、...

...

Amazon Web Services は、5 つのステップで企業の生成 AI の実現を支援します。

アマゾンのCEO、アンディ・ジャシー氏はかつて、アマゾン ウェブ サービスの目標は、誰もが大企業と同...

セキュリティ分野におけるドローン技術応用の現状

[[422011]] 2013年、バハマで仕事をしていたとき、私は現在ドローンとして知られているもの...

2ポインタアルゴリズムを学んでLeetCodeをプレイする

[[421659]]みなさんこんにちは。私は梁唐です。今日は、非常に古典的で非常にシンプルなアルゴリ...

Facebook の最新傑作 Pythia: モジュール式、プラグアンドプレイ、モデルの進行を大幅に簡素化

Facebook の人工知能研究部門は最近、モジュール式のプラグアンドプレイ フレームワークである ...

産業分野におけるAIの重要な役割

人工知能 (AI) は、多くの保守および制御エンジニアにとって新しい概念ではありません。デジタル変革...

...