AIガバナンスがリスクを軽減しながら利益を獲得する方法

AIガバナンスがリスクを軽減しながら利益を獲得する方法

[[389556]]

AI ガバナンスは、データ プライバシー、アルゴリズムのバイアス、コンプライアンス、倫理など、企業内の多くの機能と領域に影響します。したがって、AI テクノロジーの使用におけるガバナンスの問題に対処する企業は、さまざまなレベルでの行動を必要とします。

「AIガバナンスは、ITレベルやプロジェクトレベルだけで行うべきものではありません」とタタ・コンサルタンシー・サービシズのデータ​​および分析責任者、カムレシュ・ムハシルカー氏は言う。「政府、企業の取締役会、最高セキュリティ責任者も取り組む必要があります。」

例えば、ヘルスケア分野では、AI モデルは厳格な監査とチェックに合格する必要があると彼は指摘した。他の業界にも適用される規制があります。 「企業がAI技術を導入する際にはリスクが伴うため、取締役会は経済行動との関連でAIガバナンスを懸念している」とムハシルカー氏は述べた。

企業経営においても、AIに関する議題は意義深いものとなっている。たとえば、CFO は AI がもたらす株主価値と収益性を考慮する必要があります。最高情報責任者と最高データ責任者も重要な利害関係者であり、顧客やサプライヤーは言うまでもなく、企業のマーケティング責任者やコンプライアンス責任者も同様です。

すべての企業が AI ガバナンス戦略の構築のあらゆる側面に対して行動を起こす必要はありません。特に中小企業ではそうです。それでも、あらゆる規模の企業が、たとえサードパーティのツールやサービスに組み込まれているだけであっても、AI や関連テクノロジーを使用するでしょう。

しかし、適切な監督なしに AI 技術を使用すると、重大なエラーが発生し、業務運営に損害を与えたり、プライバシー権を侵害したり、業界規制に違反したり、企業の評判に悪影響を与えたりする可能性があります。

先進的な組織は、データ品質、アルゴリズムのパフォーマンス、コンプライアンス、倫理に重点を置いて、AI プロジェクトをパイロットから本番環境まで拡張しています。対処する必要がある AI ガバナンスの問題は次のとおりです。

人工知能の倫理的問題

今日、顔認識ほど倫理的な問題に直面している分野はほとんどありません。この技術が悪用される可能性は大きく、顔認識技術を提供する企業の中には、一般の人々や時には自社の従業員からの抵抗に直面しているところもある。

これは、画像認識技術を使用して武器を所持している人物を識別するパトリオット・ワン・テクノロジーズの子会社であるXtract AIが直面している状況です。

Xtract AIの業務担当副社長ジャスティン・グラネック氏は、顔認識技術はマスク着用や社会的距離のガイドラインに従っていない人を特定するなど、他の場面でも使用できると述べた。

「私たちにとって、倫理は重要なテーマです。例えば、従業員は『私たちは何をしているのですか?』と言います。これが私たちに AI ガバナンスのポリシーを策定することを強いるのです」と彼は語った。

「顧客にはそれぞれ独自の要件があり、バランスを取る必要があります」と彼は指摘した。「カナダ国防省は当社の顧客の一つであり、医療分野の顧客もいます。彼らは異なる視点から見ています。」

同氏は、同社が直面している最大の問題は、どの顧客のために働くか、顔認識技術をどこに適用するかということだと語った。これは同社の使命に関連する重要な決断だ。しかし、対処しなければならない技術的な問題もあり、それらはすべてデータに起因しています。

データを正しく取得する

アルゴリズムの偏りの最大の原因はデータセットです。たとえば、顔認識技術の場合、データセットは一般人口を代表するものではありません。 「養子縁組に関するデータセットは白人男性に重点が置かれていることが分かり、それは修正されたが、まだやるべきことはたくさんある」とグラネック氏は語った。

グラネック氏は、専門家がデータの偏りの問題に対処するのに役立ち、商業データプロバイダーは提供しているデータのギャップを埋めるために取り組んでいると述べた。合成データセットを作成する方法もありますが、解決策としては外部からより良いデータを取得することがよく行われます。

Xtract AI の銃検出アルゴリズムの場合、それは銃を所持している人々が群衆の中に混じるラボを設置することを意味します。

同氏は「このアプローチは、群衆の中に銃を持った男を探すハリウッド映画のシーンのようなものだ。我々のAIシステムは群衆の中にいる犯人を特定する必要があるが、これでは事実を反映することはできない」と語った。

代わりに、Xtract AI はトレーニング データとして使用するために大量の個人データを収集することに取り組みました。 「誰が武器を所持しているかについての規則はない」とグラネック氏は言う。「学生や高齢者もいるので、さまざまなグループからデータを収集する必要がある」

特定の AI アプリケーションでは、代表的で正確なデータセットが生死を分ける可能性があり、道徳的および倫理的に大きな意味を持ちます。ただし、不良データ セットの影響が公的な災害につながらない場合でも、業務上の影響や財務上の損失を引き起こしたり、規制やコンプライアンスの問題につながったりする可能性があります。

これは、100年以上の歴史を持つ世界最大級の建築資材販売会社の一つで、メキシコに本拠を置くセメックスにとって懸念事項だ。同社は、サプライチェーンの管理と運営に人工知能を活用することで自らを改革している。約3年前、セメックスは市場シェアの拡大、顧客サービスの向上、利益の増加を目的に、人工知能と関連技術の研究を開始した。

「過去2年間、小規模なパイロットプロジェクトだけでなく、世界規模でAIの価値を実際に目にしてきました」と同社の最高人工知能責任者、ニール・カルデロ氏は語った。

同氏は、セメックスはAI技術が同社のビジネス哲学に統合されるにつれて、AIを中心としたガバナンス構造を構築する必要性を認識したと述べた。

「すべてはデータから始まります」とカルデロ氏は言う。「優れた情報アーキテクチャがなければ、優れた信頼性の高い AI は実現できません。また、優れた情報がなければ、優れた信頼性の高いモデルは実現できません。」

Cemex のデータ ガバナンスは、セキュリティ、監視、プライバシー、コンプライアンス、倫理を網羅しており、データがどこに保存されているか、どこでどのように使用されているか、規制要件に準拠しているか、偏りがないかを把握する必要があります。

カルデロ氏は、セメックスはデータ管理にスノーフレーククラウドデータプラットフォームを活用していると述べた。同社には、データを担当する幹部が 1 名と、ガバナンス チームを担当する幹部が 1 名います。

モデルを正しく設定する

データ ガバナンスに加えて、Cemex は AI モデルと結果を中心とした AI ガバナンス戦略の作成を開始しました。 「これらはセメックスにとってだけでなく、世界にとっても新しいことだ」とカルデロ氏は語った。

このタスクは、カルデロ氏が率いる人工知能およびデータサイエンスのグループと、最高情報責任者が率いるグループの間で分担されます。セメックスは現在、人工知能技術を使って自社製品の需要を予測し、サプライヤーとより良い条件で交渉することでコストを削減している。また、トラックのルートや配送、販売や価格設定にも AI を活用しています。これらの計算のいずれかが間違っていた場合、会社は多大な損失を被ることになります。

そのため、モデルのドリフトとアルゴリズムの偏りを防ぐために、Cemex はシアトルを拠点とする Algorithmia のテクノロジーを使用しました。

KenSci は、AI モデルの結果に焦点を当てた別の企業です。シアトルを拠点とする KenSci は、AI を使用して医療データを分析しています。この分野では、正確な AI モデルが文字通り生死を分ける可能性があります。

「私たちは常に、さまざまな利害関係者とともに AI モデルを精査するという目標から始めます」と、同社の主任データ サイエンティストであるムハンマド アウランゼブ アフマド氏は語ります。「解釈可能性は、これらのモデルの透明性と説明責任を確保するための中核的な要素です。私たちは、機械学習モデルの公平性を測定するために誰でも使用できるオープンソースの Python パッケージ、fairMLHealth もリリースしました。」

アフマド氏はまた、少数派やその他の恵まれないグループが公平に扱われるように、AI モデルがグループ間でどのように機能するかを監査することを提案しました。

「AIモデルの透明性と説明可能性により、エンドユーザーはAIモデルを使いやすく、信頼しやすくなります。また、監査もしやすくなり、必要に応じて修正も容易になります」と同氏は述べた。

人工知能と倫理

AI ガバナンス戦略を策定する際に考慮すべきもう 1 つの重要な領域は、AI の使用に関する倫理です。 「AIに関する規制はテクノロジーの進歩に追いついておらず、機械学習システムの開発者には、機械学習システムの価値を倫理的目標と一致させる責任がある」とアフマド氏は述べた。「トレードオフが必要な場合は、慎重に進めるべきだ」

デジタルサービスコンサルティング会社Nerderyの最高技術責任者ジョー・トボルスキ氏は、人工知能の潜在的な倫理的リスクを認識する企業が増えていると考えている。 「しかし、自分が運用しているシステムや持っているトレーニングデータを完全に理解しているでしょうか? おそらく、そうではないでしょう」と同氏は語った。

AI プロジェクト、データ ソース、テクノロジーの使用に適用される明確な AI 倫理規定を持つ組織はほとんどありません。 「こうした問題に対処するための強力で成文化された枠組みを作ることが、我々の目標だ」と彼は語った。

Cemex の主な事業は、人工知能の使用を制限したり妨げたりする問題を研究し、潜在的な倫理的問題を最小限に抑えることです。たとえば、同社では、単に従業員数を削減するプロジェクトよりも、サービスの向上と顧客支援につながるプロジェクトを優先しています。

「ビジネスの中心はテクノロジーではなく人です」と彼は語った。「すべての顧客コールセンターを自動化することもできますが、それは私たちの利益にはなりません。セメックスは従業員により多くの仕事を提供できることを誇りに思っています。これは当社の使命において素晴らしいことです。」

AI プロジェクトを選択すると、従業員にプラスの影響がもたらされます。これは人工知能にとって大きな進歩です。セメックスは人工知能技術によるエラーの研究により事故件数を大幅に削減しており、そのエラー削減方法は画像認識技術を使用している。 ”

AIガバナンス戦略

マサチューセッツ州に本拠を置く生命保険会社 MassMutual にとって、AI ガバナンスは、ビジネスの行動と意思決定の指針となる、進化する一連のデータ倫理原則に基づいています。

「当社は、ビジネスを企業価値と保険契約者の利益に合わせるために、AIの使用に特化した一連の原則を策定しました」と、同社のデータ、戦略、アーキテクチャの責任者であるシアーズ・メリット氏は述べた。「また、ポリシーフレームワークを作成し、AIの使用を監視するチームも設立しました。」

MassMutual は、AI の使用が保険契約者に利益をもたらしていることを実証し、保証する必要があることに気付いた約 1 年前、AI の倫理とガバナンスの調査を開始しました。

メリット氏は現在、AI 倫理およびガバナンス コンサルタントを含む 6 人の専門家チームを率いており、AI アルゴリズムがガバナンス原則に準拠しているかどうか、またそれが時間の経過とともにどのように変化するかを追跡して、同社がすでに従っているアプローチの正式なフレームワークを作成しています。

「私たちの仕事はすべての利害関係者に大きな影響を与えることができると信じています」とメリット氏は述べ、AIガバナンスは企業価値と顧客の利益に合致する中核原則から始まり、法律、コンプライアンス、倫理、ビジネスパートナーと連携して実施する必要があると示唆した。

同氏は、マスミューチュアルの次のステップは、その枠組みを業界のベストプラクティスとして推進することだと語った。

ガードレールを設置することの重要性

ブーズ・アレン・ハミルトンの上級副社長ジョン・ラーソン氏は、AIガバナンスのベストプラクティスの多くは、ある程度馴染みのあるものであるかもしれないと述べた。

「私はこの業界に25年間携わっていますが、現在AIソフトウェアやアルゴリズムの開発に使用されている原理は、以前から存在していたものです」と彼は語った。「以前は存在しなかったのは、データ収集の速度、処理能力、学習アルゴリズムです。」

企業がデータをトレーニングする AI システムは、これまでよりも大規模なデータセットを使用することが多く、今日のビジネスのデジタル化により、Web サイト、ネットワーク センサー、IoT デバイス、その他のソースから、これまでにない速度でデータが AI システムに入力されています。

このデータを処理する能力も、無限にスケーラブルなクラウド コンピューティング リソースのおかげで、これまでよりも大幅に向上しています。

最後に、一部の AI システムのフィードバックの性質は、実際に実行しながら学習することを意味し、この学習により、誰も想像できないほど速く予期しない方向に進む可能性があります。

「今日の AI ガバナンス モデルの原則は 25 年前と同じですが、直面する課題にそのまま適応できるわけではありません」とラーソン氏は言います。「解決策は、AI システムに自動化された安全策を組み込むことです。」

たとえば、開発者はガードレールを設置することができます。 AI モデルの予測精度が事前に設定された目標から外れた場合、またはモデルが設計パラメータ内で動作しなくなった場合は、何らかの介入が必要になる場合があります。同様に、AI システムに入力されるデータが望ましい特性を反映しなくなった場合は、アラートを発してデータ ソースを再評価するか、入力データに適した別のモデルを選択する必要があります。

AI システムを監視する方法は他にもあります。たとえば、人種、年齢、宗教的信念など、禁止されている相関関係を検査するという推奨事項は、規制上の罰金や広報上の大惨事につながる前に問題を発見するのに役立ちます。

「グーグルやマイクロソフトのような企業は、モデルが特定のものに偏っているかどうかを評価できるツールを開発している」とラーソン氏は言う。「ブーズ・アレンはいくつかのツールスイートを開発しており、当社のデータサイエンティストにツールを提供しようとしている。」

法律事務所ローブ・アンド・ローブLLPのプライバシーおよびセキュリティ業務のパートナー兼共同議長であるジェシカ・リー氏は、優れたAIガバナンス・プログラムには明確な所有権と説明責任が必要だと述べた。

「誰がこの取り組みを主導し、これらの間違いをどう修正するのか。これらは企業が答えなければならない質問です」と彼女は語った。「アルゴリズム、偏見、差別的な結果、その他の害による予期せぬ結果が避けられるという保証はありません。しかし、適切な AI ガバナンスは確かに役立ちます。」

<<:  DeepMindは、あらゆる武器を持つロボットを簡単に倒すことができる視覚ベースの強化学習モデルを提案している。

>>:  2021 年のイノベーションを形作る 5 つのテクノロジー トレンド

ブログ    
ブログ    
ブログ    

推薦する

...

...

李開復「2021年を予測」:4つの主要分野が前例のない発展の機会をもたらす

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

百度脳がAIの「先導役」を演じる 王海鋒:AI時代の社会の知能化を共同で推進

11月1日、Baidu Brainは2018年Baidu世界大会の初イベントとしてデビューしました。...

NSA、RSA暗号化アルゴリズムに2つ目のバックドアを追加

ロイター通信は12月、米国国家安全保障局(NSA)が、携帯端末で広く使用されている暗号化技術にバック...

人工知能と教育や指導が出会うと、どんな火花が散るでしょうか?

人工知能は世界第4次産業革命であり、工業、医療などの分野での応用が拡大しています。オンライン教育の普...

GPT-4: 私が書いたコードを使ってみますか?調査によると、APIの不正使用率は62%を超えている。

言語モデリングの新しい時代が到来し、大規模言語モデル (LLM) は自然言語を理解するだけでなく、ユ...

MIT の中国人博士共同執筆者: 確率プログラムモデリングを使用して世界モデルを解明!

言語は思考にどのように影響しますか?人間は言語からどのように意味を引き出すのでしょうか?これら 2 ...

Facebookの広告システムの背後にあるペーシングアルゴリズム

[[163141]]先月、Facebook は 2015 年第 4 四半期の驚異的な財務結果を発表し...

...

...

...

...

数学的論理とコンピュータプログラムコードの深いつながり:互いの鏡像

DNAの二重らせん構造やブラックホールの存在など、いくつかの科学的発見は何か新しいことを明らかにする...

...