人工知能は、すべての人の生活に欠かせないものとなっています。 YouTube のおすすめなどの単純なタスクから、病気を治す薬を生成するといった複雑で命を救うタスクまで、AI はすでにあらゆるところに存在しています。 それは私たちが認識している以上に私たちの生活に影響を与えます。 しかし、AIは公平なのでしょうか? いいえ、絶対にそうではありません。
公平な AI を定義するのは困難です。 それが私が思いつく最善の説明です。 特定の AI モデルが公平であるとは、その出力が、すでに社会的差別の対象となっている特定のタスクの繊細なパラメータ (性別、人種、性的指向、宗教的信念、障害など) から独立している場合を指します。 この記事では、AI バイアス、AI バイアスの実際の例、そしてその対処方法について書きます。 質問 AI バイアスは、モデルのトレーニングに使用されるデータに内在するバイアスによって発生し、社会的差別につながります。 これにより、平等な機会が失われます。 たとえば、場所をパラメータとして使用して個人の信用スコアを計算するモデルを作成するというタスクがあるとします。 特定の民族は特定の場所に集中しています。 これにより、私のモデルはそれらの人種グループに対して人種的に偏向することになり、クレジットカードや銀行ローンを取得する際にそれらのグループに影響を与えることになります。 好まれる AI モデルは、現在の社会的差別を悪化させ、抑圧への道を開きます。 AIバイアスの実例 AI バイアスの実際の例をいくつか示します。
これらは AI バイアスの一般的な例の一部にすぎません。 開発者の認識の有無にかかわらず、不公平な AI 実践の例は数多くあります。 それで、どうやって解決するのでしょうか? > Unsplash の Yancy Min による写真 公平な AI への第一歩は、問題を認めることです。 人工知能は完璧ではありません。 データは完璧ではありません。 私たちのアルゴリズムは完璧ではありません。 私たちの技術は不完全です。 問題が存在しないふりをしていては、解決策を見つけることは不可能です。 次に、このソリューションに AI が必要かどうかを自問してください。 機械学習なしで製品をリリースすることを恐れないでください - Google データに依存しない問題もいくつかあります。 被告の再犯の可能性を発見するなどの作業は、データよりも感情に依存します。 3番目に、責任ある AI プラクティスに従います。 以下に、Google の責任ある AI 実践ガイドから重要なポイントを追加しました。 責任あるAIの実践:
公正なAIを開発するためのツール
結論は ここ数年、企業や政府は AI の偏見を真剣に受け止め始めています。 多くの企業が AI の公平性を評価するツールを開発し、AI の偏見と戦うために最善を尽くしています。 AI には大きな可能性がありますが、AI システムの潜在的な差別的危険性を念頭に置き、公正な AI モデルの開発に協力することがこれまで以上に重要になっています。 |
>>: 新しいエッジAI手法であるTinyMLは、超低消費電力でエッジデバイス上で機械学習を実行します。
[[410932]]会議中にこっそりと携帯電話を見ている時間がバックグラウンド システムによって記...
簡単に体験できるものではないため、自動運転技術が実用化にはまだ遠いと感じている人も多いでしょう。しか...
7月25日、杭州公安局は「杭州人妻殺害事件」について記者会見を開き、捜査結果を発表した。ネットユーザ...
10月12日、世界をリードするインテリジェントオペレーティングシステム製品およびテクノロジープロバイ...
ロボットが社会を変える出発点は、旅行の分野にあるかもしれない。 1956 年、ジョン・マッカーシーは...
物語の主人公は中国人のソフトウェアエンジニア、エリック・ユーです。 2016年、Google、Met...
農産物における人工知能の応用人工知能は、次のような農産物のあらゆる段階と側面に適用できます。農業: ...
金融業界は国民経済の生命線です。モバイルインターネットやオンライン決済の普及により、データは企業にと...
市場でのスマートハードウェアの人気が徐々に高まり、また、伝染病の予防と制御によってスマートハードウェ...
[[357916]]実践する前に、データ構造やアルゴリズム、あるいはこのシリーズについての誤解を避け...
ビッグデータ、自動化、ニューラルネットワークが日常語となっている世界では、人工知能とその背後にあるプ...
概要過去 6 か月間で、人工知能の分野は科学技術分野で最も頻繁に言及される用語の 1 つになりました...