現在、人工知能 (AI) に関する同様の規制が世界中の複数の地域で施行され始めており、GDPR に関する業界の経験は、企業が AI に対する避けられない規制調査に備える方法を知る手がかりとなります。 企業は現実を直視すべきGDPR の一部は企業にかなりのパニックを引き起こしました。当時の新しい規制では、アルゴリズム分析 (具体的には機械学習モデル) がどのように決定に至ったかについて、正確でわかりやすい説明を企業が提供することが求められたからです。この規制により、個人は自動化された決定について説明を要求し、それを受ける権利が与えられているが、実際にこの分野で権利を行使する消費者はほとんどいない。 しかし、GDPR が施行されてから 6 年が経過しているにもかかわらず、機械学習の解釈可能性に関する業界標準はまだ生まれていません。分析を理解し、制御するための明確なガイドラインをまだ模索している段階であるため、より広範な AI 規制への道も困難なものとなる可能性があります。 実際、AI 技術の開発方法と使用方法に対する政府による規制は避けられません。主な理由の1つは、AIの自己規制には高いリスクが伴うことです。 2021年に実施された調査では、人工知能の分野における自社の責任がどうあるべきかについて、経営幹部の間で合意が得られていないことが示されました。たとえば、調査に参加した企業のうち、社内に倫理委員会を設置している企業はわずか 22% でした。一部の経営者は、AI アプリケーションは倫理規制に準拠する必要はなく、高リスクまたは低リスクとして分類するだけでよいと考えています。他の人々は、「十分に公平」かどうかを判断するためのツールや、偏見を構成するものを定義する基準が不足していることに苦しんでいます。 リスクにさらされること(そして最終的には政府規制との衝突)は、関与を促進し、AI を取締役会レベルのトピックに引き上げる上で重要になります。最高リスク管理責任者 (CRO) が AI リスクを追跡していない場合は、追跡する必要があります。さらに適切なこととして、CRO は、自らがサポートでき、規制当局の監視に耐えられる方法で倫理的な AI 標準とモデル開発手順を定義する包括的なエンタープライズ AI ガバナンス フレームワークを提唱する必要があります。 GDPR は、分析による意思決定の内部の仕組みに関する個々の消費者の懸念の急増を引き起こしたわけではないかもしれませんが、AI の勢いが強いことは決して良い兆候ではないことに専門家も同意しています。 2021年のピュー・リサーチの報告書では次のように述べられています。 多くの(専門家の)回答者は、地政学と経済競争が AI 開発者の主な原動力であり、倫理的問題は二次的な要因であると考えています。専門家の中には、AIツールの作成者はチームで作業しており、倫理的な懸念に対処するシステムを設計する動機はほとんどないか全くないと言う人もいます。 訴訟、消費者の不信、活動家グループからの反発、そして最終的にはより広範な政府規制を回避するために、企業は成長し、AI システムの設計方法と AI リスクへの対処および管理方法を自ら確立する必要があります。 倫理的であるよう努めている人はたくさんいますが、「倫理的な AI」を具体的かつ測定可能で明確な言葉で定義することを支持する人は多くありません。企業が一斉に GDPR の説明可能性セクションに対応しなかった場合、組織が新しい AI 規制にどのように対応するかが示され、新しい規制がどのように適用されるか (どの部分か)、コンプライアンスがどのように測定されるか、合格または不合格の基準はどこになるかを理解するのに苦労することになります。解釈、測定、閾値のこの乱雑な混合は、さらに大きな混乱を招くことになります。 AIのためのルールが必要AI 規制が成功するには、高速道路システムのように、速度制限や違反を客観的に測定して処罰できる必要があります。したがって、企業や業界は分析上の決定や AI モデルの説明方法について合意できないため、専門家を招き入れて難しい決定を下す権限を与える必要があります。つまり、特定のツールやアルゴリズムに何が許容されるかを定義し、業界が測定する合格/不合格の指標を標準化する必要があります。単に「自己申告」基準を設けて、その基準を満たす方法について多くの混乱を招くのではなくする必要があります。 このようにして、AI がどのように発展しているか、その能力は何か、AI は仕事をうまく正しく行っているのか、それとも不十分で間違って行っているのかを客観的に測定できます。 特定の外国産業は、分析モデル、分析決定、違反、罰則の最前線に立っています。住宅ローン業界が良い例です。信用決定は、偏見や差別を排除するために設計されたガイドラインに従います。ルールに従わない銀行(偏ったデータ、意思決定基準、またはモデルを使用する銀行)は、規制当局から厳しい罰則を受け、最終的には消費者の信頼とビジネスを失うことになります。 法律がAIの倫理を推進するAI擁護団体の台頭は、GDPRや関連規制で予想される個人の苦情よりもはるかに大きな影響力を持っています。これらの団体は、AI が消費者の生活に与える影響、そしてもちろん偏った AI による法的責任の可能性について、より一層の認識を求めています。最も重要なのは、リスクにさらされることで、特に AI を使用する革新的な企業が集団訴訟の対象になっている場合、企業は AI の倫理的問題や偏見の問題に取り組むよう促されることが多いということです。 |
実際のシステム開発のシナリオでは、同じ機能を複数のサービスプロバイダーに接続する必要があるというタイ...
数日前、「大規模言語モデルを使用した MIT 数学および EECS カリキュラムの調査」と題された論...
AI システムへの世界的な支出は 2023 年から 2026 年の間に 2 倍になると予想されており...
8月14日、2020年世界人工知能製品応用博覧会(AIExpo2020)が予定通り蘇州国際博覧センタ...
人工知能はさまざまな課題に直面しており、IEEE の専門家は対応する解決策を提案しています。合成現実...
4月13日、TechnologyReviewによると、ロボットが倉庫への特定のルートを取ることを決...
[[412579]] 2016 年には、財務報告書に基づいてプレスリリースを書くという、人間と機械に...
「中東のシリコンバレー」と呼ばれるイスラエルはハイテク産業が発達しており、特にチップ産業や半導体技術...
セリディアンは、無限の労働力を動員する力に焦点を当てた年次経営者調査の結果を発表しました。調査では、...
最近、静かに梅雨の季節が去り、猛烈な台風の季節が勢いよくやって来ています。 [[336317]] 8...
[51CTO.com オリジナル記事] この記事では、現在市場にあるデータサイエンスや機械学習に適し...
[[206431]]クラウドコンピューティングは、電力網、交通網、インターネットと同様の「国家インフ...
研究者らは、軍用無人車両に対する中間者攻撃を検出できる人工知能アルゴリズムを開発した。ロボットオペレ...