人工知能は厳しい規制の時代に入る

人工知能は厳しい規制の時代に入る

ChatGPTに代表されるLLM(Large Language Model)に基づく生成AIアプリケーションは世界中で普及が進んでおり、さまざまな業界でフロントエンドやバックエンドのシステムへの組み込みが急ピッチで進められています。一方で、普及の進展に伴い、生成AIが抱えるセキュリティリスクも顕在化しています。

生成 AI 自体は、プロンプト インジェクションなどのさまざまな攻撃に直面しており、企業にデータ漏洩、コンテンツ セキュリティ、著作権侵害などの新たな脅威をもたらす可能性があります。さらに、生成 AI の本質的な「ブラック ボックス」の性質により、「AI 軍拡競争」で急速に成長している自律型 AI システムは、制御がますます困難になり、いつでも制御不能になり、壊滅的な結果をもたらす可能性があります。

ホワイトハウスがAI規制に関する大統領令を発令

2023年10月30日にはバイデン米大統領が「人工知能の安全で信頼性のある開発と利用に関する大統領令」を発令し、2023年5月には主要7か国首脳が「先進的人工知能システム組織のための国際行動規範策定のための広島プロセス」を支持する共同声明を発表した。

ホワイトハウスの大統領令は、ホワイトハウスのこれまでの AI への取り組みを基にしており、業界と政府にガイドラインを提供しています。国家安全保障に関わる組織は、AI 技術の二重使用の可能性に特に注意を払う必要があります。大統領令では、安全性を最優先とする 7 つの重要な問題を指摘しています。

  • 安全を確保します。
  • アメリカ人のプライバシーを保護する。
  • 公平性と公民権を促進します。
  • 消費者と労働者の利益を保護する。
  • イノベーションと競争を促進します。
  • 海外における米国のリーダーシップを強化する。
  • 政府が AI を責任を持って効果的に使用できるようにします。

人工知能を規制するのは誰でしょうか?

AI 規制の第一歩は標準を設定することであり、米国国立標準技術研究所 (NIST) が先頭に立っています。ホワイトハウスの大統領令は、安全で信頼性が高く、信用できる AI の開発と展開を確実にするために、AI ガイドラインとベストプラクティスを開発し、業界のコンセンサス標準を推進するよう NIST に明示的に指示しています。

同時に、ホワイトハウスの国家サイバー長官室はソーシャルメディア上で大統領の大統領令に対する認識を表明した。「本日の大統領令は、AIの安全性、米国人のプライバシーの保護、公平性と公民権の促進に関する新たな基準を設定するものであり、消費者と労働者の利益を守り、イノベーションと競争を促進し、世界における米国のリーダーシップを強化するものである。」

米国国土安全保障省は、大統領令とその責任を説明するファクトシートを発表し、次の3つの主要な措置を強調しました。

  • 「AIの責任ある開発を支援する」ための人工知能安全諮問委員会(AISSB)の設立。委員会には、AIハードウェアおよびソフトウェア企業、主要な研究機関、重要なインフラ組織、米国政府から著名な業界専門家が参加します。
  • 重要なインフラストラクチャの所有者と運営者が使用するための AI セキュリティ ガイダンスの開発に取り組んでいます。
  • AI を使用して米国のサイバー防御を向上できる可能性は、CISA が「脅威の検出、防止、脆弱性評価のために AI と機械学習 (ML) ツールを積極的に活用している」ことを強調しています。

一方、米国サイバーセキュリティ・インフラセキュリティ庁(CISA)は、ソーシャルメディアの投稿で「AIの使用に伴うリスクを評価し、米国のサイバー防衛を改善するAIの可能性について重要なインフラ部門に指針を提供し、生成AIのレッドチームテストに関する推奨事項を策定する」と強調した。

AI企業のための9つのセキュリティポリシー

米大統領の大統領令には、水曜日に開幕し、世界の指導者、テクノロジー企業、AI専門家を集めて「AIに関する重要な対話を促進する」英国AI安全サミットについても言及されている。

AI セキュリティ サミットでは、高度な AI テクノロジーを開発する企業に対し、次の 9 つの AI セキュリティ ポリシーに注意するよう呼びかけました。

  • リスク管理フレームワーク。最先端の AI システムにおける組織の能力を強化するためのリスク管理フレームワークを提供し、企業が将来起こりうるより危険な AI リスクに事前に備えられるようにします。
  • モデル評価とレッドチーム テストは、 AI モデルによってもたらされるリスクを評価し、モデルのトレーニング、セキュリティ保護、展開に関するより適切な意思決定に役立ちます。
  • モデルの報告と情報共有により、最先端の AI 開発と展開に対する政府の可視性が向上し、ユーザーは AI システムを使用するかどうか、またどのように使用するかについて十分な情報に基づいた選択を行うことができます。
  • モデルの重みの保護を含むセキュリティ制御は、 AI システムのセキュリティにとって重要な基盤です。
  • 脆弱性報告メカニズムは、外部の人が AI システムのセキュリティ上の問題を特定して報告するのに役立ちます。
  • AI コンテンツタグ付け。 AI 生成コンテンツには、コンテンツが AI によって生成または変更されたかどうかを識別するための識別子を追加する必要があります。これにより、欺瞞的な AI 生成コンテンツの作成と配布を防ぐことができます。
  • AI がもたらすリスクに関する研究を優先することで、最先端の AI がもたらす新たなリスクを特定し、対処するのに役立ちます。
  • モデルの悪用を防止および監視することは重要です。AI システムは、一度導入されると、意図的に悪用され、有害な結果を引き起こす可能性があるためです。
  • データ入力の制御と監査は、高度な AI システムの危険な機能とリスクを増大させる可能性のあるトレーニング データを特定して削除するのに役立ちます。

CISOが注意すべきこと

人工知能に対する規制が厳しくなっている時代に、CISO は人工知能セキュリティ製品に関連するコンプライアンスの問題を非常に重視する必要があります。CISO はネットワーク セキュリティ製品を厳密にレビューおよび評価し、セキュリティ ベンダーにセキュリティ製品に統合されている AI/ML テクノロジのソースと証明可能なテスト結果を提供するよう要求する必要があります。さらに、世界的な AI 規制政策の流動性を考えると、国境を越えた調整の欠如は現実的な問題であり、地域や国間でガイダンスや規制に違いがある場合、下流のコンプライアンス問題につながる可能性があります。

<<:  人工知能と創造性:人間と機械の境界線が曖昧になる

>>: 

ブログ    
ブログ    

推薦する

マイクロソフトがAI開発に関する無料電子書籍をリリース、インテリジェントなチャットボットの構築方法を教える

最近、Microsoft は、Microsoft AI プラットフォームを使用してインテリジェントな...

CIO が AI を活用して地位を向上させる 3 つの方法

組織内の利害関係者の視点から IT の役割を理解することは、IT がどのように変革する必要があるかを...

彼女はマスクとビットコインへの多額の投資により伝説となった! 2021年のトップ10テクノロジートレンドを発表

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

2023年以降を一変させる5G IoTテクノロジートップ10

IoT 分野の拡大と発展により、多くの変革的テクノロジーがもたらされるでしょう。家庭から自動車、ウ...

...

ライブクイズゲーム「Winning with Ease」は止められない、Baidu AIが150万の現金獲得にあなたを招待します!

「2進数では、1+1=?」答えが2の場合、残念ながら150万を逃してしまいます。これは頭​​の体操...

...

...

個人情報を使って死者をデジタルで蘇らせるロボットを作る

[[378336]]死者を生き返らせるというのは非常に神秘的に聞こえますが、技術の進歩により、科学者...

産業用ロボットはセンサーなしでも動作できますか?

現在、人口ボーナスの減少、人件費の上昇、人材構成の矛盾などの問題が、製造業の発展を阻む困難になりつつ...

機械学習の運用はクラウドコンピューティングの運用には適していない

クラウド コンピューティング サービス チームに機械学習機能を備えたシステムを提供することは間違いで...

...

...

...

LLaVA: GPT-4V(ision) のオープンソース代替品

LLaVA (Large Language and Vision Assistant) は、画像翻訳...