人工知能は厳しい規制の時代に入る

人工知能は厳しい規制の時代に入る

ChatGPTに代表されるLLM(Large Language Model)に基づく生成AIアプリケーションは世界中で普及が進んでおり、さまざまな業界でフロントエンドやバックエンドのシステムへの組み込みが急ピッチで進められています。一方で、普及の進展に伴い、生成AIが抱えるセキュリティリスクも顕在化しています。

生成 AI 自体は、プロンプト インジェクションなどのさまざまな攻撃に直面しており、企業にデータ漏洩、コンテンツ セキュリティ、著作権侵害などの新たな脅威をもたらす可能性があります。さらに、生成 AI の本質的な「ブラック ボックス」の性質により、「AI 軍拡競争」で急速に成長している自律型 AI システムは、制御がますます困難になり、いつでも制御不能になり、壊滅的な結果をもたらす可能性があります。

ホワイトハウスがAI規制に関する大統領令を発令

2023年10月30日にはバイデン米大統領が「人工知能の安全で信頼性のある開発と利用に関する大統領令」を発令し、2023年5月には主要7か国首脳が「先進的人工知能システム組織のための国際行動規範策定のための広島プロセス」を支持する共同声明を発表した。

ホワイトハウスの大統領令は、ホワイトハウスのこれまでの AI への取り組みを基にしており、業界と政府にガイドラインを提供しています。国家安全保障に関わる組織は、AI 技術の二重使用の可能性に特に注意を払う必要があります。大統領令では、安全性を最優先とする 7 つの重要な問題を指摘しています。

  • 安全を確保します。
  • アメリカ人のプライバシーを保護する。
  • 公平性と公民権を促進します。
  • 消費者と労働者の利益を保護する。
  • イノベーションと競争を促進します。
  • 海外における米国のリーダーシップを強化する。
  • 政府が AI を責任を持って効果的に使用できるようにします。

人工知能を規制するのは誰でしょうか?

AI 規制の第一歩は標準を設定することであり、米国国立標準技術研究所 (NIST) が先頭に立っています。ホワイトハウスの大統領令は、安全で信頼性が高く、信用できる AI の開発と展開を確実にするために、AI ガイドラインとベストプラクティスを開発し、業界のコンセンサス標準を推進するよう NIST に明示的に指示しています。

同時に、ホワイトハウスの国家サイバー長官室はソーシャルメディア上で大統領の大統領令に対する認識を表明した。「本日の大統領令は、AIの安全性、米国人のプライバシーの保護、公平性と公民権の促進に関する新たな基準を設定するものであり、消費者と労働者の利益を守り、イノベーションと競争を促進し、世界における米国のリーダーシップを強化するものである。」

米国国土安全保障省は、大統領令とその責任を説明するファクトシートを発表し、次の3つの主要な措置を強調しました。

  • 「AIの責任ある開発を支援する」ための人工知能安全諮問委員会(AISSB)の設立。委員会には、AIハードウェアおよびソフトウェア企業、主要な研究機関、重要なインフラ組織、米国政府から著名な業界専門家が参加します。
  • 重要なインフラストラクチャの所有者と運営者が使用するための AI セキュリティ ガイダンスの開発に取り組んでいます。
  • AI を使用して米国のサイバー防御を向上できる可能性は、CISA が「脅威の検出、防止、脆弱性評価のために AI と機械学習 (ML) ツールを積極的に活用している」ことを強調しています。

一方、米国サイバーセキュリティ・インフラセキュリティ庁(CISA)は、ソーシャルメディアの投稿で「AIの使用に伴うリスクを評価し、米国のサイバー防衛を改善するAIの可能性について重要なインフラ部門に指針を提供し、生成AIのレッドチームテストに関する推奨事項を策定する」と強調した。

AI企業のための9つのセキュリティポリシー

米大統領の大統領令には、水曜日に開幕し、世界の指導者、テクノロジー企業、AI専門家を集めて「AIに関する重要な対話を促進する」英国AI安全サミットについても言及されている。

AI セキュリティ サミットでは、高度な AI テクノロジーを開発する企業に対し、次の 9 つの AI セキュリティ ポリシーに注意するよう呼びかけました。

  • リスク管理フレームワーク。最先端の AI システムにおける組織の能力を強化するためのリスク管理フレームワークを提供し、企業が将来起こりうるより危険な AI リスクに事前に備えられるようにします。
  • モデル評価とレッドチーム テストは、 AI モデルによってもたらされるリスクを評価し、モデルのトレーニング、セキュリティ保護、展開に関するより適切な意思決定に役立ちます。
  • モデルの報告と情報共有により、最先端の AI 開発と展開に対する政府の可視性が向上し、ユーザーは AI システムを使用するかどうか、またどのように使用するかについて十分な情報に基づいた選択を行うことができます。
  • モデルの重みの保護を含むセキュリティ制御は、 AI システムのセキュリティにとって重要な基盤です。
  • 脆弱性報告メカニズムは、外部の人が AI システムのセキュリティ上の問題を特定して報告するのに役立ちます。
  • AI コンテンツタグ付け。 AI 生成コンテンツには、コンテンツが AI によって生成または変更されたかどうかを識別するための識別子を追加する必要があります。これにより、欺瞞的な AI 生成コンテンツの作成と配布を防ぐことができます。
  • AI がもたらすリスクに関する研究を優先することで、最先端の AI がもたらす新たなリスクを特定し、対処するのに役立ちます。
  • モデルの悪用を防止および監視することは重要です。AI システムは、一度導入されると、意図的に悪用され、有害な結果を引き起こす可能性があるためです。
  • データ入力の制御と監査は、高度な AI システムの危険な機能とリスクを増大させる可能性のあるトレーニング データを特定して削除するのに役立ちます。

CISOが注意すべきこと

人工知能に対する規制が厳しくなっている時代に、CISO は人工知能セキュリティ製品に関連するコンプライアンスの問題を非常に重視する必要があります。CISO はネットワーク セキュリティ製品を厳密にレビューおよび評価し、セキュリティ ベンダーにセキュリティ製品に統合されている AI/ML テクノロジのソースと証明可能なテスト結果を提供するよう要求する必要があります。さらに、世界的な AI 規制政策の流動性を考えると、国境を越えた調整の欠如は現実的な問題であり、地域や国間でガイダンスや規制に違いがある場合、下流のコンプライアンス問題につながる可能性があります。

<<:  人工知能と創造性:人間と機械の境界線が曖昧になる

>>: 

ブログ    

推薦する

AIを活用して大気汚染と戦う方法

大気汚染はほぼあらゆる場所で依然として問題となっており、地球温暖化、生物多様性の喪失、土壌劣化、淡水...

...

...

生成AIビッグモデルが人類の進化に与える影響

日々の仕事は ChatGPT などの言語生成モデルと切り離せないものだと思いますか? Midjour...

人工知能システムにおける不確実性の定量化

翻訳者 | 朱 仙中校正 | 梁哲、孫淑娟まとめ人工知能 (AI) ベースのシステムは大きな可能性を...

ビジネスインテリジェンスをビジネスに活用する 10 のメリット

[[434146]]ビジネス インテリジェンス テクノロジーが推進する市場において、人工知能は企業に...

...

...

人工知能オンライン機能システムのデータアクセス技術

1. オンライン機能システム主流のインターネット製品では、古典的な計算広告、検索、推奨から、垂直分野...

サイバーセキュリティにおける人工知能の動向

[[429763]]今日の世界はデータ主導であり、手動のプロセスだけではすべてのデータを監視または保...

AI投資は2025年までに2,320億ドルに達する

KPMGが最近発表したレポートによると、2025年までに人工知能(AI)、機械学習、ロボティック・プ...

トランスフォーマー6周年:その年にNeurIPS Oralを受賞しなかった8人の著者が、いくつかのAIユニコーンを創設した

ChatGPTからAI描画技術まで、人工知能分野における最近の進歩はTransformerのおかげか...

機械学習アルゴリズムを使用して配信リンクを最適化する方法

【51CTO.comオリジナル記事】 1. 背景紹介---VODソース配信の問題点オンデマンドビデオ...

データ分析 VS アルゴリズムモデル、どのように作業を分割し、効率的に連携するか?

[[438791]]この記事はWeChat公式アカウント「地道学院」から転載したもので、著者は地道...

この記事を読んで人工知能を始めましょう!

今、テクノロジーの世界で最もホットなものは何ですか?答えはおそらく人工知能、機械学習、ディープラーニ...