NIST: AIの偏りはデータだけにとどまらない

NIST: AIの偏りはデータだけにとどまらない

現時点では、ほとんどの AI がある程度問題のある偏見に基づいて構築され、現在もそれを使用していることに異論を唱える人はいないはずです。これは何百回も観察され、証明されてきた課題です。組織にとっての課題は、より優れた偏りのないデータを推進するだけでなく、AI の偏りを根絶することです。

米国国立標準技術研究所 (NIST) は、昨年のパブリックコメント期間に続いて、出版物「人工知能におけるバイアスの識別と管理の標準に向けて (NIST 特別出版物 1270)」を大幅に改訂し、データ、さらには ML プロセスを超えて AI バイアスを検出して破壊することの必要性を強く主張しています。

著者らは、不適切に収集されたデータや適切にラベル付けされていないデータを非難するのではなく、AIバイアスの次のフロンティアは「人的および体系的な制度的および社会的要因」であると述べ、社会技術的な観点からより良い答えを求めている。

「文脈がすべてだ」と、NISTのAIバイアス研究の主任研究者であり、報告書の著者の一人であるレヴァ・シュワルツ氏は述べた。 「AI システムは単独で動作するわけではありません。AI システムは、他人の生活に直接影響を与える決定を下す人々を支援します。信頼できる AI システムを開発するには、AI に対する国民の信頼を損なう可能性のあるすべての要因を考慮する必要があります。これらの要因の多くは、テクノロジー自体を超えて、テクノロジーにも影響を与えます。これは、さまざまな人々や組織から寄せられたコメントからも明らかです。」

AI バイアスを引き起こす人間的および体系的なバイアスとは何ですか?

NIST のレポートによると、人間の偏見は個人と集団という 2 つの大きなカテゴリに分類され、各カテゴリには多くの具体的な偏見が当てはまります。

人間の個々の偏見には、自動化への満足感(人々が自動化されたスキルに過度に依存する)、暗黙の偏見(誰かの意思決定に影響を与える無意識の信念、態度、連想、または固定観念)、および確証バイアス(人々が既存の信念と一致する情報を好む)が含まれます。

集団の人間的基盤には、集団思考(人々が集団に同調したい、または意見の相違を避けたいという欲求から最適ではない決定を下す現象)や、資金提供機関や資金提供者を満足させるために偏った結果が報告され、それがさらに個人/集団の偏見の影響を受ける可能性がある資金提供偏見が含まれます。

NIST レポートでは、体系的な偏見を歴史的、社会的、制度的なものとして定義しています。本質的には、長年にわたる偏見は時間の経過とともに社会や制度に組み込まれ、「事実」または「ありのままの姿」として広く受け入れられています。

これらのバイアスが重要な理由は、AI の導入が今日の組織の働き方にどれほど劇的な影響を与えているかということです。人種的に偏ったデータのせいで、人々は住宅ローンを拒否され、住宅所有の最初のチャンスを奪われている。 AIは、女性よりも男性を優遇する過去の採用決定に基づいて訓練されているため、求職者が面接を拒否されている。将来有望な若い学生が、名字が過去の成功者の名字と一致しないという理由で、大学から面接や入学を拒否されることがあります。

言い換えれば、偏った AI は、効率性を高めるための扉と同じ数の鍵のかかった扉を作り出します。 組織が展開における偏見を排除するために積極的に取り組まなければ、すぐに深刻な信頼の欠如を抱えたまま考え、行動することになります。

NIST が推奨する社会技術的視点とは何ですか?

その中核にあるのは、あらゆる AI アプリケーションの成果は単なる数学的および計算的入力以上のものであるという認識です。これらは開発者やデータ サイエンティストによって作成され、職名や所属はさまざまで、いずれもある程度の負担を抱えています。

「AIに対する社会技術的アプローチでは、データセットからモデル化された価値観や行動、それらとやりとりする人間、そしてそれらの運用、設計、開発、最終的な展開に関わる複雑な組織的要因を考慮する」とNISTの報告書には記されている。

NIST は、社会技術的な視点から、組織は「正確性、説明可能性、理解可能性、プライバシー、信頼性、堅牢性、安全性、セキュリティの回復力」を通じて信頼を育むことができると考えています。

推奨事項の 1 つは、組織がテスト、評価、検証、検証 (TEVV) プロセスを実装または改善することです。特定のデータセットまたはトレーニング済みモデルでは、バイアスを数学的に検証する方法が必要です。また、AI 開発の取り組みにはさまざまな分野や役職からの関与を増やし、さまざまな部門や組織外から複数の関係者を集めることも推奨されています。個人またはグループが基礎となる ML 出力を継続的に修正する「人間が関与する」モデルも、バイアスを排除するための効果的なツールです。

これらおよび改訂されたレポートと並んで、NIST の人工知能リスク管理フレームワーク (AI RMF) があります。これは、AI システムに関連するリスクを管理するためのコンセンサスに基づく一連の推奨事項です。完成すると、AI テクノロジーと製品の透明性、設計と開発、ガバナンス、テストがカバーされるようになります。 AI RMF の最初のコメント期間は終了しましたが、AI のリスクと軽減策について学ぶ機会はまだ十分にあります。

<<:  産業用ロボットの限界

>>:  古典的な論文を実装するための60行のコード:ポアソンディスクサンプリングを完了するのに0.7秒、Numpyよりも100倍高速

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

エンタープライズ向け人工知能プラットフォームの選択ガイド

企業における人工知能の応用はますます広範になってきており、産業化される可能性もあります。既存のデータ...

あなたのデータは本当に安全ですか?ハッカーが機械学習を使ってデータを盗む7つの方法

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

あらゆるビジネスオペレーションに AI を効果的に適用する 10 の方法

企業は、業務に AI を実装するさまざまな方法を分析し、理解する必要があります。 人工知能(AI)は...

...

...

...

人工知能が生き残るために頼りにしているビッグデータは、独占企業の手に渡ると本当に恐ろしいものになる

わずか5年で、人工知能は急速に発展しました。最近、GPT-3が再び白熱した議論を巻き起こしています。...

...

自動運転車のソフトウェアアップグレードに関する技術管理と規制戦略の分析

スマート車両ネットワーキング、インテリジェンス、アーキテクチャ技術の発展に伴い、自動車ではファームウ...

...

3つの主要な要因の影響を受けて、自動運転トラックの開発は加速し続けています

近年、自動運転は幅広い注目を集め、熱い議論を呼んでいます。自動運転は自動車産業の将来のトレンドである...

機械学習: Python でベイズ分類器をゼロから実装する

ナイーブ ベイズ アルゴリズムはシンプルで効率的であり、分類問題を扱う際に最初に検討すべき方法の 1...

...

アリババAIは1日1兆回以上呼び出され、中国を代表する人工知能企業に

アリババは9月26日、杭州で開催された雲奇大会で、初めて同社の人工知能通話の規模を発表した。1日あた...