AI バイアス: 機械は絶対的に合理的か?

AI バイアス: 機械は絶対的に合理的か?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。

人工知能はすでに私たちの日常生活に浸透しています。 YouTube のホームページのおすすめから医薬品の製造まで、インターネットはあらゆるところに存在し、私たちの生活に与える影響は想像以上に大きいものです。しかし、AI は必ずしも公平なのでしょうか? いいえ、絶対にそうではありません。

[[354470]]

公平な AI とは何かを定義するのは困難です。私が思いつく最良の定義は次のとおりです。社会的差別の対象となる特定のタスクについては、特定の AI モデルが、敏感なパラメーター (性別、人種、性的指向、宗教的信念、障害など) に依存しない結果を出力できる場合、その AI モデルは公平です。

この記事では、AI バイアス、その実際の例、そしてその対処方法について説明します。

質問

AI バイアスは、モデルのトレーニングに使用されるデータに内在するバイアスによって引き起こされ、社会的差別につながり、ひいては機会均等の欠如につながります。

私の仕事が、場所をパラメータとして個人の信用スコアを計算するモデルを作成することだとします。特定の人種グループは特定の場所に集中しているため、作成されたモデルはそれらの人種グループに対して偏りがあり、クレジットカードや銀行ローンの申し込みに影響を及ぼします。偏った AI モデルは、現在の社会的差別を悪化させます。

AIバイアスの実例

  • COMPAS (代替制裁のための刑罰管理分析) は、被告人が再犯者 (以前に犯した犯罪を再び犯す犯罪者) になる可能性を判断するために米国の裁判所が使用するソフトウェアです。重大なデータ偏りのため、モデルは黒人犯罪者の再犯率を白人犯罪者の2倍の偽陽性率で予測した。
  • 2014年、Amazonは採用プロセスを簡素化するために人工知能採用システムを開発しました。研究では、モデルのトレーニングに使用されたデータが過去10年間のものであったため、システムが女性に対して差別的であったことが判明した。過去10年間、テクノロジー業界は男性中心だったため、選ばれた応募者の大半は男性だった。アマゾンは2018年にそのシステムを廃止した。
  • 米国の医療制度では、同じ病気に関して黒人は白人よりもリスクが低いことを示唆する人工知能モデルを使用している。これは、モデルがコストを最適化し、黒人は支払い能力が低いと認識されているため、モデルが黒人の健康リスクを白人より低くランク付けし、結果として黒人の医療水準が低くなるためです。
  • 2019年、Facebookは広告主が人種、性別、宗教に基づいて人々をターゲットにすることを許可した。その結果、看護師や秘書などの職業は女性をターゲットにし、清掃員やタクシー運転手などの職業は男性、特に有色人種の男性をターゲットにしているのです。また、このモデルは、不動産広告は白人に表示された方がクリック率が高くなることも学習したため、少数派グループに表示される不動産広告は少なくなります。
  • 2020年9月、Twitterユーザーは、画像切り抜きアルゴリズムが黒人の顔よりも白人の顔を優先していることを発見した。プレビューウィンドウとは異なるアスペクト比で画像が Twitter に投稿されると、アルゴリズムによって画像の一部が自動的に切り取られ、画像の特定の部分のみがプレビューとして表示されます。黒人の顔と白人の顔が同じフレーム内にある場合、AI モデルは通常、プレビュー ウィンドウに白人を表示します。

これらの例はほんの一滴に過ぎません。開発者が知っているかどうかに関わらず、多くの不公平な AI 慣行が存在します。

この問題を解決するにはどうすればいいでしょうか?

公平な AI への第一歩は、問題を認めることです。 AIは不完全であり、データは不完全であり、アルゴリズムは不完全であり、テクノロジーは不完全です。問題に目をつぶれば、解決策を見つけることは不可能だろう。

次に、このソリューションに AI が必要かどうかを自問してください。被告が再犯する可能性を見つけるなどのタスクなど、データよりも感情に依存する問題の中には、データに依存しないものもあります。

3番目に、責任ある AI プラクティスに従います。 Google の責任ある AI 実践ガイドラインに基づいて、いくつかの重要なポイントを追加しました。責任あるAIの実践:

  • 人間中心設計アプローチを使用します。適切な開示が組み込まれたモデルを設計し、展開前にテスターからのフィードバックを取り入れます。
  • トレーニングと監視を評価するための複数のメトリックを特定します。タスクに適したさまざまなメトリックを使用して、さまざまなエラーとエクスペリエンス間のトレードオフを理解します。これらの指標は、消費者からのフィードバック、偽陽性率、偽陰性率などから得られます。
  • 可能であれば、元のデータを確認してください。AI モデルは、モデルのトレーニングに使用されたデータを反映します。データに問題があれば、モデルにも問題が生じます。したがって、データのバランスを保つようにしてください。
  • モデルの限界を理解する: 相関関係を検出するようにトレーニングされたモデルは、因果関係を確立するのに必ずしも役立つとは限りません。たとえば、バスケットボール シューズを購入する人は一般的に背が高いということをモデルが学習したとしても、バスケットボール シューズを購入したユーザーが結果として背が高くなるというわけではありません。
  • テスト: 厳密なユニット テストを実行して、モデルの障害を特定します。
  • 展開後もモデルの監視と更新を継続する: モデルを展開した後は、ユーザーからのフィードバックに注意し、定期的にモデルを更新します。
  • 公平で包括的なモデルを設計する: 倫理と社会研究の専門家と協力して、さまざまな視点を理解して考慮し、モデルを可能な限り公平にするよう努めます。
  • 代表的なデータセットを使用してモデルをトレーニングおよびテストし、データの公平性を評価します。つまり、特徴とラベルの間の偏った、または差別的な関連性を探します。
  • 不公平な偏見がないか確認する: さまざまなバックグラウンドを持つテスターからユニット テストの入力を取得します。これにより、モデルの影響を受ける可能性のある人々のグループを特定するのに役立ちます。
  • パフォーマンスを分析する: あるメトリックの改善が別のメトリックのパフォーマンスに悪影響を及ぼす可能性があるため、さまざまなメトリックを検討します。

公正なAIを開発するためのツール

  • AIFairness 360: これは、機械学習モデルにおける差別や偏見を検出、報告、軽減するのに役立つ IBM のオープン ソース ツールキットです。
  • ML Fairness Gym: これは、機械学習システムにおける AI バイアスの長期的な影響を調査するために Google が提供するツールです。
  • FATE: AI における公平性、説明責任、透明性、倫理 (FATE)、Microsoft は視覚化ダッシュボードとバイアス緩和アルゴリズムを評価するためのツールを提供します。主に公平性とシステムパフォーマンスのバランスをとるために使用されます。

最近、企業や政府は人工知能における偏見を真剣に受け止め始めています。多くの企業が AI の公平性を評価するツールを開発し、AI の偏見に対処するために最善を尽くしています。

AI には大きな可能性がありますが、私たちはこれまで以上に AI システムの潜在的な差別的危険性を念頭に置き、公正な AI モデルの開発に協力しなければなりません。

<<:  スマート製造技術:効率的な生産の未来?

>>:  機械学習の成功事例 5 つ

ブログ    

推薦する

ブラックテクノロジー検出法: 心拍を信号として利用し、偽モデルを「発見」

偽の肖像ビデオ生成技術は、政治宣伝、有名人のなりすまし、証拠の捏造、その他のアイデンティティ関連の操...

なぜ人工知能は高度な数学を解くことができるのでしょうか?

まずは大学院入試から始めましょう。大学院入試の重要性は大学入試の重要性に匹敵します。数字で言うと、2...

まばたきが正常かどうか判断し、フェイク動画対策にも人工知能が活用されています!

AIが生成したPS動画は本物と見分けがつかないほどに進化している。昨年、ミシェル・オバマに似せるた...

...

...

2024年に生成AIを支援する3つのテクノロジー

ChatGPT の素晴らしい初年度が終わりに近づくにつれ、生成型人工知能 (genAI) と大規模言...

「データオープン化」の道で、百度アポロはウェイモをリード

6月17日、世界最大のコンピュータービジョンカンファレンスであるCVPRの自動運転セミナーにおいて、...

...

コードコーパス、大規模モデル、インテリジェントエージェントの魔法の杖を振ると、より強力なエネルギーが呼び出されます

熱帯雨林の杖が、ダンブルドアのようなあらゆる時代の並外れた魔法使いの伝説を生み出したのと同じように、...

人工知能がサプライチェーンに及ぼす8つの影響

サプライチェーンに影響を及ぼす人工知能 (AI) について知っておくべき 8 つの方法をご紹介します...

AIのデジタルシールド:インフラのサイバーセキュリティ戦略の強化

技術革新の時代において、人工知能 (AI) は変革の力として際立っています。パーソナライズされた推奨...

素晴らしい瞬間を振り返りましょう! IEEE Spectrumが2023年の最もホットなAIストーリーをレビュー

また冬が来て、終わりに近づいています。気温も少し上がり、広大な空と大地にはまだ溶けきれない白が残って...

2020 年に注目すべき機械学習とデータサイエンスのウェブサイト トップ 20

今日最も進歩的で、最先端で、刺激的なもの…データ サイエンスと機械学習は、今日非常に魅力的で、非常に...

人工知能トレーナー、ドローンパイロット…聞いたことのない「新しい職業」が登場している

社会における分業がますます洗練されていくにつれ、まるで種の進化のように、新しい職業が次々と生まれ、中...

200以上の大規模モデル論文の調査と分析、数十人の研究者が1つの論文でRLHFの課題と限界をレビュー

ChatGPTの登場以来、OpenAIが使用するトレーニング方法である人間によるフィードバックによる...