あなたの AI は規制に対応できる準備ができていますか?

あなたの AI は規制に対応できる準備ができていますか?

現在、人工知能 (AI) に関する同様の規制が世界中の複数の地域で施行され始めており、GDPR に関する業界の経験は、企業が AI に対する避けられない規制調査に備える方法を知る手がかりとなります。

企業は現実を直視すべき

GDPR の一部は企業にかなりのパニックを引き起こしました。当時の新しい規制では、アルゴリズム分析 (具体的には機械学習モデル) がどのように決定に至ったかについて、正確でわかりやすい説明を企業が提供することが求められたからです。この規制により、個人は自動化された決定について説明を要求し、それを受ける権利が与えられているが、実際にこの分野で権利を行使する消費者はほとんどいない。

しかし、GDPR が施行されてから 6 年が経過しているにもかかわらず、機械学習の解釈可能性に関する業界標準はまだ生まれていません。分析を理解し、制御するための明確なガイドラインをまだ模索している段階であるため、より広範な AI 規制への道も困難なものとなる可能性があります。

実際、AI 技術の開発方法と使用方法に対する政府による規制は避けられません。主な理由の1つは、AIの自己規制には高いリスクが伴うことです。

2021年に実施された調査では、人工知能の分野における自社の責任がどうあるべきかについて、経営幹部の間で合意が得られていないことが示されました。たとえば、調査に参加した企業のうち、社内に倫理委員会を設置している企業はわずか 22% でした。一部の経営者は、AI アプリケーションは倫理規制に準拠する必要はなく、高リスクまたは低リスクとして分類するだけでよいと考えています。他の人々は、「十分に公平」かどうかを判断するためのツールや、偏見を構成するものを定義する基準が不足していることに苦しんでいます。

リスクにさらされること(そして最終的には政府規制との衝突)は、関与を促進し、AI を取締役会レベルのトピックに引き上げる上で重要になります。最高リスク管理責任者 (CRO) が AI リスクを追跡していない場合は、追跡する必要があります。さらに適切なこととして、CRO は、自らがサポートでき、規制当局の監視に耐えられる方法で倫理的な AI 標準とモデル開発手順を定義する包括的なエンタープライズ AI ガバナンス フレームワークを提唱する必要があります。

GDPR は、分析による意思決定の内部の仕組みに関する個々の消費者の懸念の急増を引き起こしたわけではないかもしれませんが、AI の勢いが強いことは決して良い兆候ではないことに専門家も同意しています。 2021年のピュー・リサーチの報告書では次のように述べられています。

多くの(専門家の)回答者は、地政学と経済競争が AI 開発者の主な原動力であり、倫理的問題は二次的な要因であると考えています。専門家の中には、AIツールの作成者はチームで作業しており、倫理的な懸念に対処するシステムを設計する動機はほとんどないか全くないと言う人もいます。

訴訟、消費者の不信、活動家グループからの反発、そして最終的にはより広範な政府規制を回避するために、企業は成長し、AI システムの設計方法と AI リスクへの対処および管理方法を自ら確立する必要があります。

倫理的であるよう努めている人はたくさんいますが、「倫理的な AI」を具体的かつ測定可能で明確な言葉で定義することを支持する人は多くありません。企業が一斉に GDPR の説明可能性セクションに対応しなかった場合、組織が新しい AI 規制にどのように対応するかが示され、新しい規制がどのように適用されるか (どの部分か)、コンプライアンスがどのように測定されるか、合格または不合格の基準はどこになるかを理解するのに苦労することになります。解釈、測定、閾値のこの乱雑な混合は、さらに大きな混乱を招くことになります。

AIのためのルールが必要

AI 規制が成功するには、高速道路システムのように、速度制限や違反を客観的に測定して処罰できる必要があります。したがって、企業や業界は分析上の決定や AI モデルの説明方法について合意できないため、専門家を招き入れて難しい決定を下す権限を与える必要があります。つまり、特定のツールやアルゴリズムに何が許容されるかを定義し、業界が測定する合格/不合格の指標を標準化する必要があります。単に「自己申告」基準を設けて、その基準を満たす方法について多くの混乱を招くのではなくする必要があります。

このようにして、AI がどのように発展しているか、その能力は何か、AI は仕事をうまく正しく行っているのか、それとも不十分で間違って行っているのかを客観的に測定できます。

特定の外国産業は、分析モデル、分析決定、違反、罰則の最前線に立っています。住宅ローン業界が良い例です。信用決定は、偏見や差別を排除するために設計されたガイドラインに従います。ルールに従わない銀行(偏ったデータ、意思決定基準、またはモデルを使用する銀行)は、規制当局から厳しい罰則を受け、最終的には消費者の信頼とビジネスを失うことになります。

法律がAIの倫理を推進する

AI擁護団体の台頭は、GDPRや関連規制で予想される個人の苦情よりもはるかに大きな影響力を持っています。これらの団体は、AI が消費者の生活に与える影響、そしてもちろん偏った AI による法的責任の可能性について、より一層の認識を求めています。最も重要なのは、リスクにさらされることで、特に AI を使用する革新的な企業が集団訴訟の対象になっている場合、企業は AI の倫理的問題や偏見の問題に取り組むよう促されることが多いということです。

<<:  8つの一般的な確率分布の式と視覚化

>>:  サイバー防御にAIを活用する

ブログ    

推薦する

2024 年のデータ テクノロジーのトレンド: 基礎モデルと機密コンピューティング

おそらく、現代のデータ環境を形作る最大の力は、基礎となるモデルの遍在性です。これらのモデルは、外部の...

...

...

一目でわかるアルゴリズム「選択ソート」

「選択ソート」は実際の応用では「挿入ソート」ほど広範囲ではありませんが、ソートアルゴリズムの研究に...

電荷ベースの原子シミュレーションのための事前学習済み汎用ニューラルネットワーク CHGNet

複雑な電子相互作用の大規模シミュレーションは、原子モデル化における最大の課題の 1 つです。古典的な...

GIF 圧縮アルゴリズムの発明者が IEEE の最高栄誉賞を受賞

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

Megvii Technology: 人工知能が携帯電話の「視覚」革命をリード

[51CTO.comより引用] 現在、AIの幕が開き、人類世界は蒸気時代、電気時代、情報化時代に続く...

Yirendai - Yiren Hive Fintech AI 実践: Hive Robot

1. 金融テクノロジー金融テクノロジー: これは業界ではフィンテックと呼ばれています。 Wikip...

ボストンのロボットが話題になった後、別のヒューマノイドロボットがデビューした

10年以上前、テヘラン大学の研究者らは、Surenaと呼ばれる原始的なヒューマノイドロボットを発表し...

...

...

OpenAIは米国で以前に申請していた「GPT-5」の商標を中国で登録申請した。

8月10日、国家知識産権局商標局の公式サイトによると、OPENAI OPCO, LLCは先月末に2...