多様性がAI戦略の成功の鍵となる理由

多様性がAI戦略の成功の鍵となる理由

機械学習と人工知能に関しては、スキャンダルが後を絶ちません。過去数ヶ月、マイクロソフトのジャーナリストが人種差別に関する記事にバンド「リトルミックス」のメンバーの誤った画像を掲載したり、英国政府が過去の成績に基づいて学生にペナルティを課すAレベルのアルゴリズムを採用したり、最近ではツイッターのAI駆動型画像切り抜きツールが黒人の顔よりも白人の顔を優先しているように見えるといった事態が起こっています。

[[375843]]

しかし、AI による偏見は、有名企業や注目を集めるスキャンダルに限ったものではありません。キャップジェミニが 800 の組織と 2,900 人の消費者を対象に実施した最近のレポートによると、組織の 90% が、AI システムが自社のビジネスで倫理的問題を引き起こした事例を少なくとも 1 件認識していることがわかりました。

さらに、調査結果によると、消費者の3分の2(68%)がAIモデルが公平で偏見のないものであることを期待している一方で、最高倫理責任者などAIシステムの倫理に責任を持つリーダーがいる企業はわずか53%でした。独立したレビューの対象となる AI システムの倫理的影響を認識している人はさらに少なく (46%) なりました。

AI が私たちの生活のあらゆる側面に統合されるようになるにつれて、企業は自社のシステムが偏見のない状態であることを保証するためにさらなる努力をし、さらにテクノロジーを使用して有害な偏見を軽減し、より公正なビジネス上の意思決定を行う方法を見つける必要があることは明らかです。

チームビルディング

では、どうすればいいのでしょうか? それは多様性のあるチームを構築することから始まりますが、業界ではまだそれができていません。 AI Now Instituteが発表した調査によると、AI教授の80%が男性である一方、FacebookのAI研究者の15%とGoogleのAI研究者の10%だけが女性である。

「多様性はAI戦略を成功させる鍵であるだけでなく、企業の収益にとっても重要です」と、ソプラ・ステリアのデジタル倫理およびテクノロジー部門責任者、ジェン・ロドボルド氏は語る。「多様性のある労働力はさまざまな視点を提供し、開発プロセスに含まれる偏見を警告し、そのような偏見を永続させ、予期せぬ形でテクノロジーの開発方法に影響を与えている可能性のある、より広範な組織プロセスを調査するのに役立ちます。」

イマジネーションテクノロジーズのAI担当シニアプロダクトディレクター、アンドリュー・グラント氏もこれに同意し、倫理的なAIを開発するにはデータサイエンティストの多様性を確保することが重要だと述べています。

AI のトレーニング用のデータセットを構築する際のベストプラクティスを確保するには、まずデータを収集して分析する多様なデータ サイエンティストのグループが必要です。 「AIのトレーニングのいかなる部分も個人によって監督されるべきではなく、作業を相互チェックすることで個人の偏見をより効果的に排除できる」と彼は述べた。

データを多様化する

さまざまなデータセットも必要です。機械学習モデルを過去のデータ(例えば、男性の方が上級職に昇進することが多い、テクノロジー業界の労働者のほとんどが白人であることを示すデータ)でトレーニングすると、AI にバイアスがエンコードされることはほぼ避けられません。

「AI を構築し設計する組織は、AI が入力する情報によって制限されることを忘れてはなりません」と、アクセンチュアの AI マネージャーであるキャリン・タン氏は VentureBeat に語った。「アルゴリズムは何かが不公平であるかどうかを判断できず、過去のパターンに従うだけです。これを軽減する措置を講じなければ、出自、経歴、さらにはステレオタイプに基づいて人々を陥れる、歪んだフィードバック ループにつながる可能性があります。したがって、組織は潜在的な偏見が顕在化する前に、積極的に対策を講じる必要があります。」

CodeFirstGirls の CEO である Anna Brilsford 氏は、多様なデータセットを使用してモデルをトレーニングするためには、「多様性と包括性がビジネス上の意思決定の基盤の一部となること」が不可欠であると付け加えました。

「テクノロジー業界では、機械学習やAIシステムは、知能を訓練するために使われるデータセットのせいで、本質的に偏っています」と彼女は言う。「ハーバード大学の研究者たちは、企業が採用のためのAIを訓練するために欠陥のある過去のデータセットを使用していることを発見しました。つまり、有色人種や女性は面接段階に到達する前から差別されているのです。」

「トップダウンのアプローチは解決策ではなく、既存の AI バイアスをさらに悪化させる可能性があります。代わりに、企業は多様性と包括性を継続的な学習プロセスとして捉える必要があります。」

透明性が鍵

もちろん、特に規制の監視が強化されるにつれて、企業は AI のガイドラインと透明性も考慮する必要があります。たとえば、欧州委員会は AI アプリケーションを設計する際に使用すべき主要な倫理原則に関するガイダンスを公開しており、米国連邦取引委員会 (FTC) は 2020 年初頭に「透明な AI」を求めました。

後者は、AI 対応システムが不利な決定 (クレジットカードの申し込みを拒否するなど) を下した場合、組織は影響を受ける消費者に決定に使用された主要なデータ ポイントを示し、誤った情報を変更する権利を与える必要があると述べています。

NTTデータUKの新規事業およびイノベーション担当副社長トム・ウィンスタンリー氏は、次のように述べています。「AIが経済全体に拡大し続ける中、企業が強固な倫理基準を策定し、業務の中核にAIの原則を組み込むことが極めて重要です。透明性は不可欠です。企業は「ブラックボックス」データセットに頼ることはできませんが、AIのトレーニング方法や、責任を持って使用されるように適用する基準について透明性を確保する必要があります。その結果、NTTデータは昨年、独自のAI倫理ガイドラインを公表しました。」

ロドボルド氏は次のように付け加えた。「テクノロジーの透明性を確保し、強力な多様性の実践を行うことで、偏見を排除し、社会の信頼を築くことができます。AI 開発における多様性、透明性、プライバシー、セキュリティの交差点を考慮した包括的なデジタル倫理アプローチにより、AI の旅で顧客を引き付け、効果的で持続可能なテクノロジーを提供できるようになります。」

AI がさまざまな業界で普及し、これらのシステムに組み込まれたバイアスの問題が十分に文書化されるにつれて、企業はソフトウェアとプロセスにバイアスがないようにするために直ちに行動を起こすことが重要になります。ありがたいことに、パンデミック中にその導入は急増しましたが、いくつかの措置を講じる必要があります。

これは、戦略的な多様化の取り組みを通じて AI の将来をさらに良く形作ることができることを意味します。

<<:  2020年中国AI+医療産業調査レポート

>>:  ハードコア! CES 2021 アワード: 労働者は仮想人間、口紅は AI アルゴリズムを追加、ロボットは毛皮で覆われる

ブログ    
ブログ    
ブログ    

推薦する

ロボットプログラムは人間のプログラマーのようにバグを修正する

[[247601]]プログラムにバグが含まれることは避けられず、バグを見つけて修正することはプログラ...

スタートアップ企業の皆様、人工知能は本当に必要ですか?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

調査 | AIと機械自動化が社会に与える影響に関する世界の見解

[[358905]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

AI 実践者が習得する必要がある 10 種類のディープラーニング手法: バックプロパゲーション、転移学習、勾配降下法...

機械学習への関心は過去 10 年間で爆発的に高まりました。ほぼ毎日、さまざまなコンピューターサイエン...

...

3つの勾配降下法アルゴリズム(BGD、SGD、MBGD)の違い

序文ネットワークをトレーニングするときに、batch_size を設定することがよくあります。この ...

NIOはまたしても窮地に陥った!運転支援の責任は誰が負うべきでしょうか?

[[417840]]運転支援機能がまた事故を起こした。昨日、「Meiyihao」という公開アカウン...

人工知能は中国の製造業にどのような変化をもたらすのでしょうか?

[[260379]]データマップ:中国航空宇宙科学産業集団第三科学院第35研究所が開発に成功した新...

...

このAI「マスターレベル」の棒人間レベルはネットユーザーを驚かせた。GANすら使っていない

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

Golang と OpenCV ライブラリ: 顔認識を実装するには?

Go 言語で顔認識を実装するには、通常、OpenCV ライブラリを使用する必要があります。 Go ...

...

...

大規模言語モデルの詳細な分析: トレーニングから大規模モデルの展開まで

導入データサイエンスの分野が進歩するにつれ、複雑な自然言語を処理および生成できる高度な AI システ...

ケーキを食べて、ケーキも残すことはできないのですか?清華大学チーム、非常に正確で解釈可能な分類モデルを提案

[[432462]]既存の機械学習分類モデルは、性能と解釈可能性に基づいて、大まかに 2 つのカテ...