AIガバナンスがトップに躍り出るには

AIガバナンスがトップに躍り出るには

人工知能(AI)技術は現在、広く利用されています。 AI ガバナンスが重要なのは、AI はより大きなメリットをもたらす一方で、高いリスクにも直面し、誤った判断をした場合の結果が深刻なものになる可能性があるためです。

[[348667]]

組織はリスク管理の観点から管理されなければなりません。人工知能の主なリスク要因には、次の側面が含まれます。

  • AIによる人々のプライバシー侵害を防ぐことはできるのでしょうか?
  • AI 駆動型アプリケーションで生じる可能性のある社会的および経済的偏見を排除することはできるでしょうか?
  • AI 駆動型のプロセスが完全に透明性があり、説明可能で、人々にとって理解可能であることを保証できますか?
  • AI アルゴリズムは、アルゴリズムの結果に対する人間の責任と説明責任が常に明確にわかるように設計できるでしょうか?
  • 生死に関わる決定につながる可能性のあるあらゆる人間的考慮事項を AI アルゴリズムが考慮できるように、倫理的および道徳的原則を AI アルゴリズムに組み込むことは可能でしょうか?
  • AI アプリケーションを利害関係者の価値観に自動的に合わせること、または少なくとも特殊なケースで回復力を獲得して、悪意のあるロボットが自律的な意思決定シナリオに出現するのを防ぐことは可能でしょうか?
  • 不確実性が大きすぎて自律的な行動を正当化できない状況では、AI 主導の意思決定を抑制できるでしょうか?
  • AI 自動化アプリケーションが機能の限界に達したときに、人間が制御を取り戻すことができるように、フェイルセーフ手順を導入することはできますか?
  • AI 駆動型アプリケーションは、変化する状況に動的に適応する必要がある場合でも、予期しない副作用がなく、一貫性があり予測可能な方法で動作することを保証できますか?
  • AI アプリケーションは、基礎となる統計アルゴリズムの脆弱性を悪用するように設計された敵対的攻撃から保護できますか?
  • 環境データがトレーニングに使用された環境と大きく異なる場合に、壊滅的な失敗ではなく、適切に失敗する AI アルゴリズムを設計することは可能でしょうか?

ソフトウェアベースのパイプライン自動化に基づく AI ガバナンス

ソフトウェアベースの開発および運用 (DevOps) プロセス内で適切な制御が適切に実施されていない場合、AI ガバナンスは役に立ちません。

AI アプリケーションは、データ サイエンティスト、データ エンジニア、データ スチュワードなどのチームによって、複雑なワークフロー内で構築、トレーニング、展開、管理されます。このニーズを満たすために、多くの組織が MLOps プロセスに AI ガバナンス制御を組み込んでいます。基本的に、これには、AI アプリケーションの構築、トレーニング、展開に使用されるデータ、統計モデル、メタデータ、その他の構成要素を管理するプロセスのポリシー主導の自動化が必要です。また、AI アプリケーションのライフサイクル全体にわたってその使用、動作、結果を監視するツールも必要です。

AI 駆動型プロセスの典型的なリスクは、組織が展開された統計モデルを信頼して、割り当てられたタスクを正確かつ確実に完了できるかどうかがわからないことです。統計モデルの予測適合性が低下して、指定されたタスク(顔の認識、人間の言語の理解、顧客行動の予測など)を実行できなくなると、そのモデルは、それを構築して導入した組織にとって本質的に役に立たなくなります。

したがって、AI ガバナンスの中核機能はモデル保証です。これは、AI アプリケーションの機械学習モデルが割り当てられたタスクに予測どおりに適合しているかどうかを判断し、適合していない場合は元の場所に戻す機能です。

ただし、予測精度は保証するのが難しいパフォーマンス メトリックになる可能性があります。 AI の統計モデルは人工ニューラル ネットワークとして実装されることが多く、非常に複雑で謎めいているため、自動推論を実際にどのように実行しているのかがわかりにくくなることがあります。同様に懸念されるのは、統計ベースのアプリケーションが、自動化された決定によって生じる可能性のある偏見やその他の悪影響に対する責任を不注意に曖昧にしてしまう可能性があることです。さらに、これらの確率モデルはめったに評価および再トレーニングされない可能性があり、その結果、かつては特定の目的に適していたモデルが、今では予測力を失っていることになります。

MLOps プラットフォームへの AI モデル保証の組み込み

AI 主導のプロセスにビジネスを賭けている組織は、モデル保証を MLOps プラットフォームの組み込み機能として取得するか、この魅力的なニッチ分野に注力しているスタートアップ ベンダーから取得するかを検討する必要があります。

幸いなことに、ますます多くのデータ サイエンス DevOps 環境が信頼性の高いモデル保証を提供しています。これらのツールの最新世代は、クラウドネイティブ インフラストラクチャを活用して、エッジに至るまで AI モデルとビルド アズ コード ストリームを継続的に展開および管理します。商用製品ラインの主な製品は次のとおりです。

  • Google Cloud AI Platform は、継続的な評価などのモデル品質保証機能を提供しており、データ サイエンティストはモデルの予測を真実のラベルと比較して継続的なフィードバックを取得し、モデルの精度を最適化できます。
  • H2O.ai の無人人工知能は、豊富なモデル品質保証機能を提供します。これは、モデルがそのような結果を念頭に置いて設計されていない場合でも、異なる人口グループに対して異なる悪影響をもたらすかどうかを分析することをサポートします。展開されたモデルの予測減衰を自動的に監視し、A/B テスト用の代替モデルのベースラインを確立し、モデルを再調整、再トレーニング、その他のメンテナンスを行って実稼働環境に備える必要がある場合にシステム管理者に警告することができます。
  • Microsoft Azure Machine Learning MLOps は、実験の完了、モデルの登録、モデルの展開、データ ドリフトの検出など、機械学習ライフサイクルのイベントについて通知し、アラートを送信できます。機械学習アプリケーションのモデル固有のメトリックを監視し、機械学習インフラストラクチャの監視とアラートを提供します。また、新しいデータやその他の運用およびビジネス要因に基づいて、モデルを自動的に再トレーニング、更新、再展開することもできます。
  • Amazon SageMaker Model Monitor は、AWS Sagemaker クラウドコンピューティングサービス内の機械学習モデルを継続的に監視し、時間の経過とともにモデルのパフォーマンスを低下させる可能性のあるデータドリフトなどのバイアスを検出し、モデルの監査や再トレーニングなどの是正措置を取るようにユーザーに警告します。監視ジョブは定期的に実行するようにスケジュール設定でき、サマリーメトリクスを Amazon CloudWatch にプッシュしてアラームとトリガーを設定し、修正アクションを実行できます。また、Amazon SageMaker でサポートされている複数のインスタンスタイプがサポートされています。
  • Superwise の AI Assurance は、展開された AI モデルの精度を監視および維持するためのリアルタイム プラットフォームを提供します。これにより、関係者は、ビジネスに悪影響を与える前に、展開された AI モデルのモデル回帰やその他の問題を検出できるようになります。 AI モデルに入力されたデータの変動から生じるモデルの不正確さをフラグ付けします。また、モデルが展開されるビジネス環境の変化に関連する不正確さも把握できます。モデルの精度、公平性、その他の目的適合性の側面を維持するために実行すべき手動アクションに関するプロアクティブな推奨事項をデータ サイエンス チームに提供します。また、モデルが潜在的に最適でない領域に迷い込むのを防ぐために、いくつかの修正アクションを自動的に実行することもできます。

結論は

AI は一般の人々にとって脅威ではありませんが、現実には、この技術に関する規制を強化する管轄区域が増える可能性があります。

2020 年代に向けて、AI アプリケーションは、良い意味でも悪い意味でも、最も破壊的なテクノロジーになるでしょう。増殖が監視および制御されなければ、欠陥のある AI モデルが社会に大混乱をもたらすことになります。 AI のリスクの一部は、テクノロジーの特定の構築における設計上の制限から生じます。その他の理由としては、リアルタイム AI アプリケーションのランタイム管理が不十分であることが考えられます。さらに、AI が依存する機械学習、ディープラーニング、その他の統計モデルの技術の扱いにくい「ブラックボックス」の複雑さに固有の問題もあるかもしれません。

これらのリスクを軽減するために、組織では、あらゆる展開シナリオでこれらのモデルのパフォーマンスを自動的に管理することがますます必要になります。

<<:  「中国の新世代人工知能開発報告書2020」:中国はよりオープンな姿勢で人工知能の発展を推進

>>:  2020年の世界コンサルティング会社の新ランキング:AI時代の新たな課題

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

DeepMind のブラック ボックス解読の第一歩: ニューラル ネットワークの認知原理は人間のものと同じであることが判明しました。

人間は、画像内の物体を認識して推論することから、超人的なレベルで Atari ゲームや囲碁をプレイす...

機械学習のケーススタディ: クレジットカード詐欺検出

私は51CTOアカデミー講師の唐玉迪です。51CTOアカデミーの「4.20 ITリチャージフェスティ...

ルーティングアルゴリズムの概念

この記事では主にルーティング アルゴリズムの概念を説明し、ルーティング アルゴリズムの基本的な概念を...

中国におけるAI人材の格差はどれほど大きいのか?教育省の学習基準では高校生にAIを学ぶことを義務付けている

[[220662]] 1956 年、ダートマス大学で開催された会議で、コンピューターの専門家であるジ...

脳コンピューターインターフェースと仮想世界: 頭の後ろにチューブを挿入することは、必ずしもマトリックスのようになるわけではない

人間の脳にチップを埋め込み、脳とコンピューターの統合によってそれを制御するという話は、SFの世界から...

IEEE テクノロジー分野賞発表: ML パイオニアがリストに、中国本土から受賞した唯一の学者は清華大学の学生

[[409353]] IEEE が再び栄誉を授与する時が来ました。 7月2日、米国電気電子学会(IE...

BigDL-LLMを使用して、数百億のパラメータを持つLLM推論を即座に加速します。

私たちは、顧客サービス、仮想アシスタント、コンテンツ作成、プログラミング支援などのさまざまなアプリケ...

人工知能は将来の建築をどのように変えるのでしょうか?

自動化された AI システムは、建物の暖房と冷房を最適化して効率性と持続可能性を向上させるのに役立ち...

AIの安全性:中国のAIに100本の毒

人間がAIを見つめると、AIも人間を見つめる。大規模 AI モデルの大規模な応用と進化において、ネッ...

ビッグバンを証明した男が亡くなった!宇宙背景放射の発見でノーベル賞受賞者が90歳で死去

ノーベル物理学賞を受賞し、宇宙のビッグバン理論を証明したアメリカの物理学者で電波天文学者のアーノ・ア...

AIが将来のスマートマスモビリティソリューションへの道を切り開く

2030年までに人口の60%が都市部に住むようになると推定されています。現在そして将来に必要な条件は...

...

3月にGithubで最も人気のあるデータサイエンスと機械学習のプロジェクト

Analytics Vidhya は最近、3 月の GitHub で上位 5 つのデータ サイエンス...