王立歴史協会は最近、人工知能アルゴリズムを使用した初の研究で、英国の労働力に「大きな性差別」があることが示されたと明らかにした。 AIベースのシステムは英国のインターネット全体から情報を収集し、既存の男性と女性の役職の分布を確認した。この調査では108の異なる経済分野を調査し、そのうち87%で男性に有利な不平等があり、その結果、上級管理職に就く男性の数が不釣り合いに多いことが判明した。 この画期的な研究は、私たちの世界を説明する人工知能の大きな可能性を示す素晴らしい例です。結局のところ、人工知能の強力な機能の 1 つは、膨大な量のデータを分析し、人間では見つけられないパターンを見つけることです。しかし、AI は偏見や不公平さを検出するのに役立ちますが、実際にはさらなる偏見や不公平さを生み出す可能性があります。 次の例を考えてみましょう。現在ローズ奨学生であり、MITメディアラボの研究者であるガーナ系アメリカ人のコンピューター科学者、ジョイ・ブオラムウィニ氏(https://twitter.com/jovialjoy?lang=en)は、大学院生のときに、使用していたAI顔認識システムが自分の顔を認識できないことに気付きました。彼女が白いマスクを着用して初めて、システムは彼女の存在を確認できる。ブオラムウィニさんの場合、顔認識システムは彼女を識別できなかった。ソフトウェアのトレーニングに使用されたデータプールが主に白人の顔で構成されており、十分な多様性がなかったためだ。言い換えれば、問題はデータ自体から始まります。人工知能システムは、この欠陥のあるデータセットから学習する必要があります。システムがますます「インテリジェント」になるにつれて、問題は長引くようになります。実際のところ、偏見自体が偏見をさらに強化するため、実際のシステムはますます愚かなものになっていくでしょう。 Buolamwini 氏は、AI バイアスの認識を促進し、組織に AI プラクティスを実装するためのトレーニングを行うことを目的とした Algorithmic Justice League (https://www.ajlunited.org/) を設立しました。ブオラムウィニ氏は、このプログラムが人工知能に対するより公平で倫理的なアプローチを促進することを期待しており、これはAIが意思決定を主導する時代に特に重要な使命である。 企業は、データセットとアルゴリズムのトレーニングを再配置するだけでなく、AI を取り巻くプロセスと人材も再配置する必要があります。 (写真:AP通信) バイアスをかけた AI は、刑事司法、採用、雇用などの他の分野にも拡大しています。 IBM が発表した調査レポートによると、定義され分類された人間の偏見は 180 種類もあり、それぞれが判断を妨げ、最終決定に影響を及ぼす可能性があるとのことです。人工知能はこれらのバイアスを簡単に再現できます。ある企業が、報酬履歴に基づいて AI を使って従業員の給与を決定したいとします。これにより、女性は大きな不利な立場に置かれる可能性があります (https://www.brookings.edu/blog/techtank/2019/01/03/artificial-intelligence-and-bias-four-key-challenges/)。基本的に、女性は過去に差別を受けてきたからです。別の例として、推奨エンジンもユーザーの好みを学習し、それに応じた提案を行います。 組織は、自社や AI システムが依存するデータが適切であり、差別的なパターンを強化しないことをどのように確認できるでしょうか? 他の多くの問題と同様に、それらを克服するには、その存在を認めることから始まります。企業は、データセットとアルゴリズムのトレーニングだけでなく、AI を取り巻くプロセスと人材も再編する必要があります。より公平な職場環境の実現を目指す上で、これらの問題に対処することは非常に重要です。専用のチームとプロセスを用意する必要があり、データをレビューして厳格な倫理基準を確保する「最高バイアス責任者」などの役職を設ける必要があるかもしれません。AI ツールは職場環境にますます普及するでしょうが、彼の任務は偏見や先入観と戦うことです。 たとえば、多様性を推進することでエンジニアリング チームの採用に影響を与え、エンジニアが AI アルゴリズムに入力することを選択したデータ入力を定期的に確認することができます。これは「人が政策である」という例です。 AI は絶対的なものではないことを認識し、入力が悪ければ出力も悪くなることを認識することが重要です。定期的なパフォーマンスレビューを実施し、制御テストを実行し、検証可能なアルゴリズムの出力を継続的に微調整する必要があります。 組織は、歪みや盲点を防ぐために、複数のコンテキストが使用されるようにする必要があります。 Buolamwini 氏自身は、組織がさまざまなバイアスのセットについてアルゴリズムを調査することを推奨しており、さまざまな視点からこの作業を強化し、偏ったデータを減らし、より公平なアルゴリズム コードを確保できると述べています。 アルゴリズムの偏りを修正するには、経営陣、人事、エンジニアの共同の取り組みが必要です。3 者が協力して初めて、システムから意識的および無意識的な人間の偏りを効果的に排除できます。人間の愚かさを完全になくすことはできませんが、それを認識することで、職場での意思決定をより不自然なものではなく、よりインテリジェントなものにすることができる、より公平でスマートな AI システムを構築できます。 |
<<: Uberの自動運転車の死亡事故から忘れてはならない10の教訓
>>: 調査によると、経営幹部はAIが職務記述書を時代遅れにしていると考えている
視覚的なプロンプトを使用するとどのような感じでしょうか?写真をランダムにフレームに入れるだけで、同じ...
[[271402]]ムーアの法則の終焉にあたり、GPU やその他のハードウェア アクセラレータによっ...
背景メディア伝送における一般的な帯域幅推定アルゴリズムには、GCC/BBR/PCC/QUBIC など...
1. 人工知能と機械学習記事を始める前に、下の図 1.1 に示すように、人工知能、機械学習、ディープ...
近年、世界中でますます多くの政府や企業組織が人工知能の経済的、戦略的重要性を徐々に認識し、国家戦略や...
今年上半期、中国と米国のインターネット・テクノロジー企業は、程度の差はあれ、レイオフや人員削減を経験...
[[238055]] [[238056]]患者は青い「ボックス」に手首を入れ、赤外線スキャン後に脈...
近年、バイオメディカルにおける人工知能 (AI) と機械学習 (ML) アルゴリズムの応用は拡大し続...
人工知能 (AI) は世界中の産業に変化をもたらしており、交通も例外ではありません。テクノロジーが進...
機械学習では特徴を選択する必要があり、人生でも同じではないでしょうか?特徴選択とは、利用可能な多数の...