透明性は、倫理的なビジネス上のジレンマにおいて重要な役割を果たすことがよくあります。情報が多いほど、何が許容できる結果で何が許容できない結果かを判断しやすくなります。財務が不一致の場合、会計上の誤りを犯したのは誰でしょうか?データが侵害された場合、それを保護する責任は誰にありますか? また、その責任は適切に果たされていますか? しかし、バグや問題の明確な原因を探しても、誰も見つからない場合はどうなるでしょうか?ここで、AI は独特の倫理的考慮を生じさせます。 AI は組織において大きな可能性を示していますが、依然として問題解決のためのソリューションに過ぎません。これは誤解されている概念であり、企業内での実際の適用はまだ完全には実現されていません。多くの企業には、AI を真に革新的な方法で適用するための予算、人材、ビジョンが欠けているという事実と相まって、AI は依然として臨界質量に達するには程遠く、悪用される危険性があります。 しかし、AI が日常業務であまり目立たないからといって、組織内のどこかで役割を果たしていないということではありません。ビジネスにおける他の多くの倫理的ジレンマと同様に、AI における倫理的欠陥も影で起こることがよくあります。意図的かどうかに関わらず、AI プロジェクトやアプリケーションが倫理的な境界を破った場合、その結果は悪夢となる可能性があります。 AI における倫理的欠陥を回避する鍵は、プロジェクトに最初からコーポレートガバナンスを適用することです。 透明性と信頼性を備えたAIの構築今では、AI がうまく機能しないというよくある例は誰もが知っています。肌の色が濃い客には正しく機能しない石鹸ディスペンサー、白人にはより正確なパルスオキシメーター、さらには犯罪者が刑務所に戻るかどうかを予測するアルゴリズムなどはすべて、(おそらく意図せずに)偏った AI の例です。 こうした状況は悪い見出しやソーシャルメディアでの反発を招くだけでなく、テクノロジーが不信感を持たれ続ける限り実現不可能となる、より正当な AI の使用事例を損なうことにもなります。たとえば、ヘルスケアの分野だけでも、AI はがんの診断を改善し、再入院のリスクが高い患者を特定して追加サポートを提供できる可能性があります。 AI への信頼を築くことを学ばなければ、これらの強力なソリューションのメリットを十分に享受することはできません。 AIについて同僚やビジネスリーダーと話すとき、私は最初からAIの仕事における透明性とガバナンスの考え方を支持してきました。具体的には、次のことをお勧めします。 1. 倫理的なAIは真空中では生まれないAI アプリケーションは、正しく実装されていない場合、大きな波及効果をもたらす可能性があります。これは、単一の部門または IT チームが監視なしで AI 主導のプロセスの実験を開始した場合によく発生します。チームは、実験が失敗した場合に起こり得る倫理的な影響を認識していますか?展開は、会社の既存のデータ保持およびアクセス ポリシーに準拠していますか?監督なしでは、これらの質問に答えることは困難です。 また、ガバナンスがなければ、倫理違反が発生した場合にそれを是正するために必要な関係者を召集することがより困難になる可能性があります。監視はイノベーションの障壁としてではなく、むしろ AI が一定の倫理的境界内で動作することを保証するのに必要なチェックとして捉えられるべきです。最終的には、それらを所有する組織の最高データ責任者、または CDO の役割が存在しない場合は最高情報責任者が監督を行う必要があります。 2. 常に計画を立てるAI プロジェクトの失敗に関する最悪の見出しには、多くの場合、共通点が 1 つあります。それは、問題が起こったときに、関係する企業が質問に答えたり、決定を説明したりする準備ができていなかったということです。監督によってこの問題は解決できます。組織の最高レベルで AI に関する理解と健全な理念があれば、問題に遭遇する可能性は低くなります。 3. デューデリジェンスとテストは必須ですAI バイアスの典型的な例の多くは、より多くの忍耐とテストによって軽減できます。手指消毒剤ディスペンサーの場合と同様に、企業が自社の新技術を披露することに熱心だったことが、結局は裏目に出てしまった。製品が一般公開される前に、さらにテストを行うことでこの偏りが明らかになる可能性があります。さらに、あらゆる AI アプリケーションは最初から厳密に精査される必要があります。 AI は複雑で潜在能力が不確実なため、戦略的かつ慎重に使用する必要があります。 4. AIによる監督を検討する顧客のプライバシーを保護するために、金融機関は機密文書へのアクセスの管理に多大なリソースを投資しています。同社の記録チームは、資産を慎重に分類し、適切な職務と部門のみが各資産を参照できるようにインフラストラクチャを構築しています。この構造は、組織の AI ガバナンス機能を構築するためのテンプレートとして機能します。専任チームは、AI アプリケーションの潜在的なプラスまたはマイナスの影響を推定し、その結果をレビューする必要がある頻度とレビュー担当者を決定できます。 デジタルによる破壊的変化を求める企業にとって、人工知能の実験は重要な次のステップです。これにより、人間の労働者は日常的な作業から解放され、画像分析などの特定の活動を、これまでは経済的に賢明ではなかった方法で拡張できるようになります。しかし、これは軽視できるものではありません。 AI アプリケーションは、偏見、倫理的に疑問のある決定、ビジネス上の成果の低下を避けるために、適切な監視の下で慎重に開発する必要があります。組織内の AI の取り組みが適切にトレーニングされていることを確認します。最悪の道徳的欠陥は暗闇の中で起こることが多い。 |
<<: Meituanが小サンプル学習リストFewCLUEで1位にランクイン!迅速な学習 + 自己トレーニングの実践
>>: 清華大学・黄敏烈氏:GoogleのAI人格は本当に目覚めたのか?
[[190364]]この記事は、写真付きの 4 つの例を含む 6 時間かけて執筆されました。目的は、...
現在のビッグデータ業界では、アルゴリズムのアップグレード、特に機械学習の導入により、「パターン発見」...
近年、人工知能分野の発展はますます加熱し続けており、現在の人材不足が注目を集めています。国務院が20...
11 日間、11 人、11 人の見込み客。 2018 年が終わるまで残り 11 日となりました。有名...
Jenkins のアクセス制御は、セキュリティ ドメイン (認証) と承認戦略に分かれています。その...
毎日、インテリジェント システムとアルゴリズムが、Uber の運転手、会計士、さらには弁護士などの単...
著者の劉玉樹氏は中国人民大学重陽金融研究所学務委員会委員、マクロ研究部部長、研究者である。本稿は11...
IT ソリューション プロバイダーの Manhattan Associates のマネージング ディ...
IHS Markit は、ハードウェアとソフトウェアを含む AI システムの世界的な収益が 202...
人工知能は間違いなくエンジニアや研究者を変えたが、自社の将来を左右するCEOたちは何をより重視してい...
ビッグモデルが退化する中、トランスフォーマーの地位も次々と脅かされてきました。最近、RWKV は最新...