AI バイアスを検出して防止するにはどうすればよいでしょうか?

AI バイアスを検出して防止するにはどうすればよいでしょうか?

[[417154]]

[51CTO.com クイック翻訳]あらゆる AI アプリケーションの成功は、トレーニング データと密接に関係しています。適切なデータ品質と適切な量のデータが必要なだけでなく、AI エンジニアが開発する製品に自身の潜在的な偏見を反映させないように積極的に確認する必要もあります。エンジニアが自分の世界観や偏見をデータ セットに反映させ、特定の人口統計や焦点に限定したデータを提供すると、AI に依存して問題を解決するアプリケーションも同様に偏見が生まれ、不正確になり、有用性が低下します。

つまり、このテクノロジーがその可能性を実現するには、AI アプリケーションにおける人間の偏見を継続的に検出し、排除する必要があります。 AI が比較的新しい技術から完全にユビキタスな技術へと急速に進化し続けるにつれて、偏見の監視の厳しさは増すばかりだと予想しています。しかし、これを本当に実現するには、人間の偏見を克服しなければなりません。 2018 年のガートナーのレポートでは、2030 年までに AI プロジェクトの 85% が、データやアルゴリズムに組み込まれたバイアス、またはそれらの展開を管理するチーム内に存在するバイアスにより、誤った結果を出すようになると予測されています。リスクは大きいです。AI の欠陥により、AI が出した誤った結論に基づいて意思決定を行う企業は、深刻な評判の失墜や高額な損失を被る恐れがあります。

AIバイアスの特定

AI の偏見にはさまざまな形があります。開発者から生じる認知バイアスは、機械学習モデルやトレーニング データセットに影響を及ぼす可能性があります。実際には、バイアスはアルゴリズムに組み込まれています。不完全なデータ自体がバイアスを生み出す可能性があります。特に、認知バイアスにより情報が無視される場合はそうです。偏りなくトレーニングおよび開発された AI が使用される場合でも、その結果は展開の偏りによって影響を受ける可能性があります。集計バイアスは別のリスクであり、AI プロジェクトに関して行われた小さな選択が結果の整合性に大きな集合的な影響を及ぼす場合に発生します。つまり、あらゆる AI プロセスには、本質的にバイアスを導入する傾向があるステップが多数存在します。

AIバイアスの検出と排除

さまざまなユースケース (およびユーザー) にわたって一貫して正確な出力を生成する、信頼性の高い AI 依存アプリケーション システムを実現するには、組織は AI バイアスを特定し、積極的に軽減するための効果的なフレームワーク、ツールキット、プロセス、ポリシーを必要とします。利用可能なオープンソース ツールは、AI アプリケーションをテストして、データ内に特定の偏り、問題、盲点があるかどうかを確認するのに役立ちます。

AIフレームワーク。 AI バイアスのリスクから組織を保護するように設計されたフレームワークは、アプリケーションの開発および展開プロセス全体にわたって不当な影響を最小限に抑えるためのチェックとバランスを導入できます。これらのフレームワークを使用すると、信頼できる公平なプラクティスのベンチマークを自動化し、製品に組み込むことができます。

以下にいくつか例を挙げます。

  • ロールス・ロイスの Aletheia フレームワークは、正確で適切に管理された AI アプリケーションを設計するための 32 段階のプロセスを提供します。
  • Deloitte の AI フレームワークでは、AI の安全対策と倫理的慣行を実施するための 6 つの重要な側面を強調しています。
  • Naveen Joshi のフレームワークでは、信頼できる AI を開発するための中核的なプラクティスについて詳しく説明しています。説明可能性、機械学習の整合性、意識的な開発、再現性、スマートな規制のニーズに重点を置いています。

ツールキット。組織は、利用可能なツールキットを活用して、機械学習モデルからバイアスを特定して除去し、機械学習パイプラインのバイアス パターンを識別する必要もあります。特に役立つツールキットをいくつか紹介します。

  • IBM の AI Fairness 360 は、機械学習モデルにおける差別や偏見を検出、報告、削減するためのスケーラブルなオープンソース ツールキットです。
  • IBM Watson OpenScale は、リアルタイムのバイアス検出と軽減を提供し、詳細な説明可能性を実現して、AI 予測の信頼性と透明性を高めます。
  • Google の What-If ツールは、機械学習モデルの動作を視覚化して、機械学習の公平性指標に対してトレーニング済みのモデルを簡単にテストし、バイアスを特定できるようにします。

プロセスとポリシー。組織は、AI からバイアスを取り除き、AI システムへの信頼を高めるために特別に設計された新しいプロセスを導入する必要があるかもしれません。これらのプロセスでは、バイアス メトリックを定義し、それらの基準に照らしてデータを定期的かつ徹底的にレビューします。政策も同様の役割を果たすべきであり、偏見を最小限に抑え、盲点に対処するために厳格な実践と慎重な行動を必要とするガバナンスメカニズムを確立する必要があります。

覚えておいてください: AI信頼はビジネスチャンスです

AI システムのバイアスを減らすための措置を講じる組織は、この潜在的な危機を競争上の差別化を獲得する機会に変えることができます。偏見防止対策を推進することで、顧客が AI アプリケーションにさらに自信と信頼を持てるようになり、組織を差別化できます。これは今日特に当てはまりますが、AI が普及するにつれてさらに当てはまるようになります。公平な AI の追求において透明性を確保することは、ビジネスにとって有益です。

高度な新しい AI アルゴリズムにより、合成データ生成から転移学習、強化学習、生成ネットワーク、ニューラル ネットワークまで、AI は新しい領域に進出しています。これらの刺激的な新しいアプリケーションはそれぞれバイアス効果の影響を受けやすいため、これらのテクノロジーが普及する前にその影響に対処する必要があります。

AI の偏見に関しては、その責任は AI にあるのではなく、私たち自身にあります。 AI における人間の偏見を排除するために、あらゆる利用可能な対策を講じる必要があります。そうすることで、組織はより正確で効果的、そして顧客にとってより魅力的なアプリケーションを開発できるようになります。

原題: AI バイアスは蔓延しているが予防可能 — それを根絶する方法はここにある、著者: Shomron Jacob、Iterate.ai

[51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください]

<<:  保険業界は人工知能をどのように活用しているのか

>>:  合意アルゴリズムRaftの簡単な紹介

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

アストラゼネカはPyTorchベースのアルゴリズムを使用して新薬を発見

[51CTO.com クイック翻訳] Facebookの機械学習フレームワークPyTorchは、20...

「人工知能、データサイエンス、機械学習」について語る -- 概要

[[190364]]この記事は、写真付きの 4 つの例を含む 6 時間かけて執筆されました。目的は、...

各自動車会社の「地図なし」インテリジェント運転ソリューションについてお話ししましょう

01 起源産業発展のニーズ2022年下半期には、高速道路や都市高速道路でのインテリジェント運転の問題...

もう在宅勤務​​はしないのですか? GANの父イアン・グッドフェローは怒りのあまりアップルを辞職した

アップルに3年間在籍した後、同社の機械学習担当ディレクターのイアン・グッドフェロー氏が突然辞任を発表...

2021年のAIに関する10の大胆な予測の科学的分析 学術見出し

2020年は忘れられない年です。今年に入って、新型コロナウイルスの感染拡大に伴い、人工知能(AI)が...

...

...

国防総省は、今後数日間の出来事を予測するために人工知能を活用している。

海外メディアCNETによると、米軍はビッグデータと人工知能を活用して近い将来の出来事を予測しようとし...

マトリックスシミュレーション! Transformer の大型モデルの 3D 視覚化。GPT-3 と Nano-GPT の各層がはっきりと見える

「マトリックスシミュレーション」の世界は本当に存在するかもしれない。人間のニューロンをシミュレートし...

2019年の人工知能の開発動向

人工知能(AI)はAIと略されます。これは、人間の知能をシミュレート、拡張、拡大するための理論、方法...

...

ビジネスを阻害する 6 つの AI 神話

AI テクノロジーは職場環境に深く浸透しており、単調で反復的な手作業を置き換えるだけでなく、他の仕事...