AI はどのようにして既存の人間の偏見を強化するのでしょうか?

AI はどのようにして既存の人間の偏見を強化するのでしょうか?

定義上、人工知能 (AI) は人間の脳の働きを模倣して組織活動を最適化することを目的としています。

[[421223]]

残念ながら、人間の知能を人工的に再現することに近づく一方で、AI は人種、民族、性別に基づく偏見という、人間に特有の別の特性も示しています。 AIにおけるバイアスは新しい概念ではありません。偏ったアルゴリズムの例は、最近も過去にも、医療、法執行機関、雇用業界で発見されています。

このように、世界がすべての人々を包摂する方向に進んでいるように見えても、何世紀にもわたる不寛容と差別は、何らかの形で再び表面化し続けています。 AI が長年にわたる人間の偏見をどのように強化するかを理解するには、偏見が AI モデルやニューラル ネットワークに侵入する仕組みを特定する必要があります。

AIモデルのトレーニングのためのバイアスデータセット

AI 駆動型システムの決定は、モデルのトレーニングに使用される入力データの種類のみを反映します。したがって、AI モデルが取り込むデータセットが差別的である場合、出力される推奨事項や決定は同じ傾向に従います。初期の機械学習フェーズでバイアスのある AI モデルを作成する方法は 2 つあります。まず、前述したように、AI モデルのトレーニングに使用されるデータは (全体的に) 狭く偏っています。次に、与えられたデータセット内のサンプルの偏りにより、識別アルゴリズムが作成されます。入力データが狭いのは、不注意のためか、トレーニング プロセスに携わるデータ サイエンティスト自身が保守的、視野が狭く、偏見を持っているためである可能性があります。

差別的 AI の最も良い例の 1 つは、米国のいくつかの州で使用されている悪名高い COMPAS システムです。 AI 駆動型システムは、過去の刑務所データベースと回帰モデルを使用して、釈放された犯罪者が将来再犯する可能性があるかどうかを予測します。予想通り、システムの予測では、アフリカ系アメリカ人の再犯率は白人のほぼ2倍であることが示されました。このバイアスの主な理由の 1 つは、ネットワーク管理者が予測を分析する際に、システム内の差別的な手がかりを検出しようとしないことです。通常、AI バイアスの被害者は女性、特定地域の少数民族、または移民の背景を持つ人々です。よく言われるように、AI モデルは新しい偏見を生み出すのではなく、社会にすでに存在する偏見を反映するだけです。

前述のように、機械学習のデータ収集プロセスにも偏りが生じる可能性があります。この場合、指定された AI ガバナンス担当者は、収集されたデータの偏りに気づきますが、それでもそれを無視することを選択します。たとえば、入学背景に関連するデータを収集する場合、学校は白人の候補者だけを選択する可能性があります。さらに、学校は他の子供たちの学習機会を単純に拒否する可能性もあります。おそらくサイクルとして、AI モデルは学校が白人の学生だけを選抜するという選択を綿密に観察するかもしれません。その後、このモデルは人種差別の遺産を引き継ぐことになる。なぜなら、そのパターン分析は、これが学校入学における正しい行動方針であると単純に示唆しているからだ。したがって、このプロセスを処理する洗練されたテクノロジーが存在するにもかかわらず、人種差別は何倍にも強化されます。

AI における偏見は、人種差別や性差別に加え、富裕層を優遇するという形でも存在する可能性があります。その結果、貧困層は AI データセットで十分に表現されない可能性があります。現在進行中のCOVID-19時代において、このことの仮説的な例を想像することさえできる。一部の国では、ウイルスに感染した人を追跡し、特定の地域にいる人々にその人たちと距離を保つよう警告するために使用できる独自のモバイルアプリを開発している。この取り組みは崇高な目的を持っているかもしれないが、スマートフォンを持たない個人はアプリ内で完全に見えなくなってしまう。この種の偏見は誰のせいでもありませんが、そもそもそのようなアプリを設計する目的を無効にします。

要約すると、差別的なトレーニング データと運用慣行は、AI システムとモデルの偏りに直接つながる可能性があります。

エージェント関連の理由によるAIバイアス

AI モデルにバイアスが入り込むもう一つの方法は、プロキシを介することです。機械トレーニングに使用される一部の詳細と情報は、保護された特性と一致する場合があります。結果として生じる偏見の例は意図的ではない可能性があり、合理的かつ調整された決定を行うために使用されるデータが、最終的にはクラスのメンバーシップの代理として機能する可能性があります。

たとえば、金融機関が AI システムを使用して、どのローン申請者がローンの返済に困難を抱える可能性があるかを予測するとします。 AI システムのトレーニングに使用されるデータセットには、3 世紀以上に及ぶ歴史的情報が含まれます。現在、この入力データには、申請者の肌の色や性別に関する詳細は含まれていません。しかし、システムが、特定の場所(特定の郵便番号に関連付けられている場所)に住んでいる人々がローンの分割払いを滞納すると予測したとします。この予測は過去のデータのみに基づいています。銀行が居住地に基づいて融資申請を承認しないことを決定した場合、その地域に住む人々は差別されていると感じるかもしれません。 AI のこの偏りは、単なる歴史的記録ではなく実際の事実に基づいて AI システムの決定を覆すことができる人間の役人を関与させることで排除できます。

それ以外にも、偏った AI が作成される方法はいくつかあり、それが現代においても古くからの偏見を強化し続けることになる。 AI のバイアスを完全に排除する方法、または少なくとも大幅に削減する方法はいくつかあります。

より代表的なデータセットを選択する


組織内の全員が、職場で AI システムが偏向する可能性を減らすよう取り組む必要があります。これまで見てきたように、AI のバイアスは、機械学習や日常業務で受け取るデータの種類に完全に起因します。大量のトレーニング データや運用データを収集するデータ サイエンティストやその他の専門家は、あらゆる人種や民族の少数派に属する人々を含む多様なデータを扱う必要があります。このようなデータセットでは、男性と同数の女性がいるはずです。さらに、AI モデルにおけるセグメンテーションは、データ エキスパートがセグメンテーションのようなモデルに入力データを提供する場合にのみ存在するはずです。

さらに、AI アプリケーションを使用する組織は、人種や民族の多様性に応じて異なるモデルを使用してはなりません。単一の母集団のデータが不十分な場合、組織は重み付けなどの手法を使用して、他の母集団と比較してその母集団の重要性のバランスをとることができます。各データ グループが慎重に扱われず、均等に重み付けされない場合、AI モデルにバイアスが導入されるリスクがあります。

潜在的なバイアスの引き金や原因を特定する

特定の種類のバイアスが AI システムに侵入した可能性のある領域と操作を検出することは、あらゆる組織の AI ガバナンス チームと経営幹部レベルのスタッフの主な責任です。理想的には、このプロセスは AI を組織に組み込む前に実行する必要があります。組織は、データ セットを調べて AI モデルの「視点」が狭まっ​​ていないか確認することで、バイアスを軽減できます。徹底的な検査の後、組織は AI システムが動作中にバイアスを示すかどうかを確認するために試行を実行する必要があります。最も重要なのは、組織が偏った AI のすべての領域を網羅する問題をリストアップする必要があることです。そして、これらの質問に一つずつ答えるための解決策を探し続けなければなりません。

厳格なAIガバナンスガイドラインを実装する

AI ガバナンス チームは、AI システムが時間の経過とともに差別的になるのを防ぐ上で重要な役割を果たします。 AI の偏りを回避するには、ガバナンス チームが AI モデルを定期的に更新する必要があります。さらに重要なのは、チームが、機械トレーニングに使用される入力データセットの偏りを検出して排除するか、少なくとも軽減するための、交渉の余地のない規制とガイドラインを策定する必要があることです。

さらに、AI 差別に関する顧客からの苦情を組織内のどのレベルの従業員も受け取った場合にガバナンス チームに通知できるように、明確なコミュニケーション チャネルを確立する必要があります。これらのチャネルは、従業員自身が組織の AI に偏りがある可能性があることを発見した場合でも機能します。

AI の偏見は、その決定の犠牲になる個人やグループにとって非常に苦痛となる可能性があります。さらに問題なのは、偏向した AI システムが、人類の歴史を通じて何世紀にもわたって不運な犠牲者たちが直面してきた疎外と差別の新世代の象徴であるという点です。したがって、モデルのトレーニングと適切な AI ガバナンスのための多様な入力データセットを確保することで、アルゴリズムの偏りを未然に防ぐ必要があります。差別的 AI はすべての人の問題であるため、AI モデルの設計、実装、保守の各段階に関与する組織内のすべての関係者が協力して対処する必要があります。

<<:  ハイパーオートメーション: 次世代のサイバーセキュリティソリューション

>>:  ついに誰かが自動運転を明確にした

推薦する

ビッグスリー:ディープラーニングの未来

【51CTO.com 速訳】ディープラーニングの課題過去数年間で、ディープラーニング モデルの主要構...

ルーティングアルゴリズムの概念

この記事では主にルーティング アルゴリズムの概念を説明し、ルーティング アルゴリズムの基本的な概念を...

李徳義:自動運転のバブルを破るには、技術、市場、エコロジー、コストを無視することはできない

[[277858]] 「自動運転は長い間宣伝されてきたが、なぜ一般の人々は自動運転車に乗らないのか?...

2年後には「ロボット」が人間の活動の80%以上をこなすようになるのでしょうか? AIに関する専門家の見解を聞く

写真:人工知能カンファレンスフォーラム 撮影:新民晩報主任記者 劉欣 「私は生産性を変革し、新しい...

音声技術市場には発展のチャンスがあるが、落とし穴には注意が必要

[[257487]] [51CTO.com クイック翻訳] 音声アシスタントの台頭により、マーケティ...

コードで機械の心を構築するまで、どれくらい時間がかかるのでしょうか?

[[242009]]この記事の著者は、Microsoft Internet Engineering...

人工知能があなたの仕事を奪い、ビッグデータがあなたを「裸」にしてしまう。私たちの未来はどうなるのでしょうか?

失業率が急上昇、それはAIのせいか? !科学技術の発展に伴い、高コストで非効率的な手作業が人工知能に...

996の非効率性にノーと言いましょう: ChatGPTはコードコメントとドキュメントを簡単に処理するのに役立ちます

適切なコメントは、Python プロジェクトを成功させる上で非常に重要です。実際には、コメントを書く...

AI研究 | 陸宇:人工知能はオンライン教育を改善する大きな可能性を秘めている

工業情報化部科学技術庁は、感染予防・抑制に努め、感染拡大を阻止するために、「人工知能の力を十分に発揮...

...

2元で何千枚もの顔写真が買える、AIブラック業界の真実はそれ以上だ!

最近では、「顔スキャン」、つまり顔認識技術を使うことで、解決できることが増えています。買い物の際の「...

JD Digits の AI ロボットが物理産業に貢献し、業界賞を受賞

電気の「ジュージュー」という音が響くコンピューター室では、「スマートガーディアン」コンピューター室検...

わずか4つの例から、DeepMindの800億のモデルは本当に学習した

知能の鍵となるのは、簡単な指示を与えられて新しいタスクを実行する方法を素早く学習する能力です。たとえ...

...