先週、欧州の議員らは画期的な人工知能規制であるEU AI法案を圧倒的多数で賛成票を投じた。この法案はまだ発効していないが、圧倒的多数が賛成したことから、近いうちにEU全域で発効する見通しだ。他の国では、企業は依然として AI を自由に使用できます。たとえば、これまでのところ、米国では AI がリスクとなるのか、それともチャンスとなるのかに関してコンセンサスが得られていません。 欧州議会議員499名が賛成、28名が反対、93名が棄権し、人工知能法案は大多数で可決された。最終投票は、国会議員、欧州委員会、EU理事会間の交渉を経て、今年後半に行われる可能性がある。 2021年4月に初めて提案されたEU AI法案は、企業が自社製品でAIを使用する方法を制限し、AIを安全、合法、倫理的、透明な方法で実装することを義務付け、特定のAIユースケースについて企業に事前承認を得ることを義務付け、企業にAI製品の監視を義務付けます。 AI法は、AIのさまざまな用途を、それがもたらすリスクに基づいて4つのカテゴリーにランク付けして分類し、顧客がAIを使用する前に企業が対応する安全基準を満たすことを義務付けます。 スパムフィルターやビデオゲームなど、リスクが最も少ない AI の最初のカテゴリは、これまでどおり引き続き使用でき、透明性要件の対象にはなりません。 AI の 2 番目のカテゴリは「限定リスク」と呼ばれ、OpenAI の ChatGPT や Google の Bard などのチャットボットが含まれるカテゴリです。提案されている法律では、EU AI指令に準拠するために、ユーザーはチャットボットと対話していることを知らされる必要がある。 3 番目のカテゴリーは、自動運転車や教育、移民、雇用における意思決定支援システムなど、いわゆる高リスク AI システムの影響評価と監査を組織が実施する必要性です。欧州の中央政府は、リスクの高い人工知能の使用事例を中央データベースで追跡する。 「容認できない」リスクをもたらすとみなされる第4のカテゴリーのAIは、監査や規制があってもEUでは決して許可されないだろう。禁止されている AI の例としては、リアルタイムの生体認証モニタリングやソーシャル スコアリング システムなどがあります。遵守しない場合は、会社の収益の 6% または 7% に相当する罰金が科せられる可能性があります。 法案の投票結果は、人工知能は制御不能であり、制御する必要があるという見解をほとんどの人が支持していることを示した。最近、現代のニューラルネットワークの普及に多大な貢献をしたジェフリー・ヒントン氏やヨシュア・ベンジオ氏など、著名な AI 開発者の中には、AI 研究の禁止または一時停止を求める者もいる。現在、彼らはAIを世界的なリスクとして扱うよう求めるAI安全センターの声明に署名している。 ヒントン氏は、核兵器に例えた人工知能の脅威についてもっと自由に語れるよう、今年初めにグーグルを辞めた。 「私は、これらの生き物が私たちよりも賢いことに突然気づいた科学者に過ぎません」とヒントン氏は5月3日にCNNに語った。「…私たちは、これらの生き物が私たちを支配するのを止めるにはどうしたらよいか真剣に考えるべきです。」 しかし、すべての AI 研究者やコンピューター科学者が同意しているわけではありません。フェイスブックの親会社メタのAI研究責任者で、ヒントン氏、ベンジオ氏とともにニューラルネットワークに関する共同研究で2018年のチューリング賞を受賞したヤン・ルカン氏は、今はAIを規制する適切な時期ではないと声高に主張してきた。 ルカン氏は最近、特にEUの新しいAI法に言及し、「時期尚早な規制はイノベーションを阻害するだろう」とツイートした。 「AIは一般的に、本質的に良いものです。なぜなら、AIは人間をより賢くするからです」とルカン氏は先週、フランスのパリで開催されたVivaTechカンファレンスで述べた。「AIは人間の知能を増幅するものと考えることができます。人間がより賢くなると、さまざまなことが起こります。生産性が高まり、幸福度が高まります。」 「AIは人間の知能を増幅するものと考えることができます」とMetaのAI責任者であるヤン・ルカン氏はVivaTechで語った。 「悪者がそれを悪事に利用することは疑いの余地がない」とルカン氏は続けた。「では、善人の数が悪人より多いかどうかという疑問もある」 EUの一般データ保護規則(GDPR)が他の国やカリフォルニア州などの米国の州の多くのデータプライバシー法の基礎となっているのと同様に、提案されているEU AI法案は世界中のAI規制への道を開くだろうと、ビジネス変革の専門家であるカマレス・ラルディ氏は語る。 「EU法案は世界標準となり、AIが私たちの生活にどのような影響を与え、世界中でどのように規制されるかに影響を与える可能性があります」と彼女は述べた。「しかし、法案には限界もあります…規制は、イノベーションと技術の誤った応用との間で賢明なバランスを取ることに重点を置くべきです。法案はまた柔軟性に欠け、AI開発の急速なペースを考慮していません。AI開発は1、2年後には今とは大きく異なる可能性があります。」 ロンドンを拠点とするAI企業エンコードの共同創業者兼社長ウルリック・スティグ・ハンセン氏は、今はAIを規制する適切な時期ではないと述べた。 「規制するには大きすぎるという話は聞いたことがあるが、時期尚早というのはどうだろうか?」と同氏は言う。「EUの伝統的なやり方では、現時点ではほとんどの企業や消費者が採用しておらず、開発もほとんど行われていない新しい技術を規制しようとしている」。同氏は、AIシステムに内在するリスクをまだしっかりと把握していないため、AIを規制する法律を制定するのは時期尚早だと述べた。 「より賢明なアプローチは、関連業界団体が他のテクノロジーと同様に AI を規制することかもしれません」と彼は述べた。「医療機器としての AI は、FDA の承認または CE マークが必要となるテクノロジーの良い例です。これは、イノベーションを支援するためにより実用的なアプローチを取り、AI アプリケーションの分野で既存の規制当局に責任を委ねてきた英国で見られた状況と一致しています。」 米国では現時点では AI に関する規制は施行されていませんが、組織が AI を倫理的に使用できるよう指導する措置が講じられています。今年 1 月、米国国立標準技術研究所 (NIST) は、人工知能システムの計画、測定、管理、ガバナンスのプロセスを通じて組織をガイドする人工知能リスク管理フレームワーク (RMF) をリリースしました。 RMF には、複数の当事者によって認められる法的標準になる可能性など、いくつかの利点があります。さらに重要なのは、急速に変化する AI テクノロジーに適応する柔軟性が維持されていることです。これは EU AI 指令に欠けているものです。 |
<<: 気候制御の未来: AI が HVAC システムをどのように変えるか
>>: オープンソースの大規模言語モデル (LLM) の概要
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
製造業は、自動車、電子機器、医療機器、機械、その他のシステムの部品を生産する上で重要な役割を果たして...
サイバーセキュリティの状況は毎年、組織が対処する必要のある新たな課題や障害をもたらしており、たとえば...
Transformer モデルは、Google チームが 2017 年に発表した論文「Attent...
[[187490]] 2016 年末、Google DeepMind は機械学習プラットフォームであ...
[[245530]]科学技術の急速な発展は、社会の変化に大きな影響を与えます。第四次産業革命は、人工...
北京科技大学機械工学部物流工学科羅磊、趙寧人工知能(AI)は、人間の知能をシミュレート、拡張、拡大す...
さまざまなスマート電子製品の普及により、ほとんどの人が知能についてある程度理解するようになりました。...
[[282346]]データとは何かデータとは何でしょうか? これは私たちがほとんど無視する質問にな...
[51CTO.com からのオリジナル記事] 2016年、国内投資家のVRへの熱意はまだ薄れていなか...
2024 年が始まると、多くのテクノロジートレンドが形成され始めます。今年は、セキュリティとガバナン...