多様性がAI戦略の成功の鍵となる理由

多様性がAI戦略の成功の鍵となる理由

機械学習と人工知能に関しては、スキャンダルが後を絶ちません。過去数ヶ月、マイクロソフトのジャーナリストが人種差別に関する記事にバンド「リトルミックス」のメンバーの誤った画像を掲載したり、英国政府が過去の成績に基づいて学生にペナルティを課すAレベルのアルゴリズムを採用したり、最近ではツイッターのAI駆動型画像切り抜きツールが黒人の顔よりも白人の顔を優先しているように見えるといった事態が起こっています。

[[375843]]

しかし、AI による偏見は、有名企業や注目を集めるスキャンダルに限ったものではありません。キャップジェミニが 800 の組織と 2,900 人の消費者を対象に実施した最近のレポートによると、組織の 90% が、AI システムが自社のビジネスで倫理的問題を引き起こした事例を少なくとも 1 件認識していることがわかりました。

さらに、調査結果によると、消費者の3分の2(68%)がAIモデルが公平で偏見のないものであることを期待している一方で、最高倫理責任者などAIシステムの倫理に責任を持つリーダーがいる企業はわずか53%でした。独立したレビューの対象となる AI システムの倫理的影響を認識している人はさらに少なく (46%) なりました。

AI が私たちの生活のあらゆる側面に統合されるようになるにつれて、企業は自社のシステムが偏見のない状態であることを保証するためにさらなる努力をし、さらにテクノロジーを使用して有害な偏見を軽減し、より公正なビジネス上の意思決定を行う方法を見つける必要があることは明らかです。

チームビルディング

では、どうすればいいのでしょうか? それは多様性のあるチームを構築することから始まりますが、業界ではまだそれができていません。 AI Now Instituteが発表した調査によると、AI教授の80%が男性である一方、FacebookのAI研究者の15%とGoogleのAI研究者の10%だけが女性である。

「多様性はAI戦略を成功させる鍵であるだけでなく、企業の収益にとっても重要です」と、ソプラ・ステリアのデジタル倫理およびテクノロジー部門責任者、ジェン・ロドボルド氏は語る。「多様性のある労働力はさまざまな視点を提供し、開発プロセスに含まれる偏見を警告し、そのような偏見を永続させ、予期せぬ形でテクノロジーの開発方法に影響を与えている可能性のある、より広範な組織プロセスを調査するのに役立ちます。」

イマジネーションテクノロジーズのAI担当シニアプロダクトディレクター、アンドリュー・グラント氏もこれに同意し、倫理的なAIを開発するにはデータサイエンティストの多様性を確保することが重要だと述べています。

AI のトレーニング用のデータセットを構築する際のベストプラクティスを確保するには、まずデータを収集して分析する多様なデータ サイエンティストのグループが必要です。 「AIのトレーニングのいかなる部分も個人によって監督されるべきではなく、作業を相互チェックすることで個人の偏見をより効果的に排除できる」と彼は述べた。

データを多様化する

さまざまなデータセットも必要です。機械学習モデルを過去のデータ(例えば、男性の方が上級職に昇進することが多い、テクノロジー業界の労働者のほとんどが白人であることを示すデータ)でトレーニングすると、AI にバイアスがエンコードされることはほぼ避けられません。

「AI を構築し設計する組織は、AI が入力する情報によって制限されることを忘れてはなりません」と、アクセンチュアの AI マネージャーであるキャリン・タン氏は VentureBeat に語った。「アルゴリズムは何かが不公平であるかどうかを判断できず、過去のパターンに従うだけです。これを軽減する措置を講じなければ、出自、経歴、さらにはステレオタイプに基づいて人々を陥れる、歪んだフィードバック ループにつながる可能性があります。したがって、組織は潜在的な偏見が顕在化する前に、積極的に対策を講じる必要があります。」

CodeFirstGirls の CEO である Anna Brilsford 氏は、多様なデータセットを使用してモデルをトレーニングするためには、「多様性と包括性がビジネス上の意思決定の基盤の一部となること」が不可欠であると付け加えました。

「テクノロジー業界では、機械学習やAIシステムは、知能を訓練するために使われるデータセットのせいで、本質的に偏っています」と彼女は言う。「ハーバード大学の研究者たちは、企業が採用のためのAIを訓練するために欠陥のある過去のデータセットを使用していることを発見しました。つまり、有色人種や女性は面接段階に到達する前から差別されているのです。」

「トップダウンのアプローチは解決策ではなく、既存の AI バイアスをさらに悪化させる可能性があります。代わりに、企業は多様性と包括性を継続的な学習プロセスとして捉える必要があります。」

透明性が鍵

もちろん、特に規制の監視が強化されるにつれて、企業は AI のガイドラインと透明性も考慮する必要があります。たとえば、欧州委員会は AI アプリケーションを設計する際に使用すべき主要な倫理原則に関するガイダンスを公開しており、米国連邦取引委員会 (FTC) は 2020 年初頭に「透明な AI」を求めました。

後者は、AI 対応システムが不利な決定 (クレジットカードの申し込みを拒否するなど) を下した場合、組織は影響を受ける消費者に決定に使用された主要なデータ ポイントを示し、誤った情報を変更する権利を与える必要があると述べています。

NTTデータUKの新規事業およびイノベーション担当副社長トム・ウィンスタンリー氏は、次のように述べています。「AIが経済全体に拡大し続ける中、企業が強固な倫理基準を策定し、業務の中核にAIの原則を組み込むことが極めて重要です。透明性は不可欠です。企業は「ブラックボックス」データセットに頼ることはできませんが、AIのトレーニング方法や、責任を持って使用されるように適用する基準について透明性を確保する必要があります。その結果、NTTデータは昨年、独自のAI倫理ガイドラインを公表しました。」

ロドボルド氏は次のように付け加えた。「テクノロジーの透明性を確保し、強力な多様性の実践を行うことで、偏見を排除し、社会の信頼を築くことができます。AI 開発における多様性、透明性、プライバシー、セキュリティの交差点を考慮した包括的なデジタル倫理アプローチにより、AI の旅で顧客を引き付け、効果的で持続可能なテクノロジーを提供できるようになります。」

AI がさまざまな業界で普及し、これらのシステムに組み込まれたバイアスの問題が十分に文書化されるにつれて、企業はソフトウェアとプロセスにバイアスがないようにするために直ちに行動を起こすことが重要になります。ありがたいことに、パンデミック中にその導入は急増しましたが、いくつかの措置を講じる必要があります。

これは、戦略的な多様化の取り組みを通じて AI の将来をさらに良く形作ることができることを意味します。

<<:  2020年中国AI+医療産業調査レポート

>>:  ハードコア! CES 2021 アワード: 労働者は仮想人間、口紅は AI アルゴリズムを追加、ロボットは毛皮で覆われる

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

ユーザー投票に基づくランキングアルゴリズム: Delicious と Hacker News

インターネットの出現は「情報爆発」を意味します。ユーザーが心配するのは、もはや情報量が少なすぎること...

人工知能とクラウドコンピューティングはアプリケーションエコシステムの形成を加速させている

[[430244]]現在、人工知能は生産性の向上を可能にし、さまざまな産業のインテリジェント化と新旧...

詳細 | ビッグデータアルゴリズムアプリケーションのテストの開発

[[389157]]この記事では、アリババ AI ミドルプラットフォームの技術品質システム、つまり検...

このAIアルゴリズムの面接体験は非常に役立つ:Amazonは履歴書から面接まで実践的な経験を共有

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

AIコアとは何ですか?これら2つの機能はオンラインです

DeepMindとカリフォルニア州サンフランシスコの人工知能研究所は、マルチプレイヤーリアルタイム戦...

...

...

A*アルゴリズムのC#実装に関する簡単な説明

もちろん、主な参照アルゴリズム ドキュメントは「http://www.vckbase.com/doc...

トークン化ガイド: バイトペアエンコーディング、WordPiece およびその他の方法 Python コードの詳細な説明

2022年11月にOpenAIのChatGPTがリリースされて以来、大規模言語モデル(LLM)が非常...

速度が1000倍になりました!拡散モデルは物質の錬金術プロセスを予測し、システムが複雑になればなるほど加速が大きくなる

拡散モデルを使用して化学反応を予測すると、速度が1,000 倍向上します。かつてはコンピューターで計...