RealAIは、業界の信頼できる発展を促進するために人工知能セキュリティ技術ツールを作成します。

RealAIは、業界の信頼できる発展を促進するために人工知能セキュリティ技術ツールを作成します。

4月26日、中国サイバースペース管理局の主催で「人工知能-社会実験の観点から見た社会ガバナンス」をテーマに人工知能サブフォーラムが開催された。各業界関連分野の専門家の代表が、人工知能の発展によって生じる可能性のあるリスクや問題、人工知能が社会統治を強化する法律や経験などについて議論し、人工知能業界の健全な発展を共同で促進しました。フォーラム期間中、中国中央サイバースペース管理局情報開発局が企画・選定した「人工知能企業の典型的応用事例」が正式に発表されました。この事例選定は、人工知能業界の最新シナリオと優れた企業を発見・探求し、我が国の人工知能の健全で安定した発展をさらに促進することを目的としています。人工知能社会実験専門家グループの評価を経て、RealAIの「人工知能セキュリティとディープフェイクガバナンス応用事例」が、Huawei、Baidu、Megvii、SenseTime、Yituなどの企業とともに、見事に選定されました。

RealAIのCEOである田田氏は、現在の人工知能はまだ初期段階にあるため、アルゴリズム自体に不安定さや説明不能性などの構造的欠陥があると述べた。これは、技術的な抜け穴が悪意のある攻撃に利用され、敵対的なデータ汚染、アルゴリズムの改変、悪意のあるサンプルなどの方法を通じてアルゴリズムに深い攻撃が行われ、人工知能システムが「精神的に混乱」し、高い確信を持って誤った出力を出す可能性があることを意味する。その結果、人間の財産と生命の安全が脅かされる可能性があります。例えば、攻撃に耐える能力を持つ特別に設計されたメガネなどの物理的な物体を身に着けることで、携帯電話のロック解除、オンラインでのID認証、オフラインのセキュリティなどの分野でAIシステムに侵入することが可能になり、セキュリティ検証を無意味にすることができます。交通分野でも、車両の支援運転や自動運転システムは、AIアルゴリズムの欠陥により正常な視覚認識能力を失い、交通標識を誤認したり、大きな障害物を「見落とし」たりする可能性があり、人身や財産の安全に重大な脅威をもたらします。

このフォーラムのテーマは、実際に人工知能の発展から生じる可能性のあるリスクと問題について議論したものです。「人工知能企業の典型的な応用事例」に選ばれた企業の一つとして、RealAIの「人工知能セキュリティとディープフェイクガバナンスの応用事例」は、ガバナンス業務に効果的な技術的ソリューションを提案しました。報道によると、北京瑞来智能科技有限公司は清華大学人工知能研究所が育成した公式の産学研機構である。瑞来智能は自社の「産学研」の統合優位性に依拠し、「攻守のダイナミックバランス」メカニズムを革新的に提案し、敵の槍で敵の盾を攻撃し、攻防対決の継続的なアップグレードを通じて、標的防御技術を実践してきた。敵対的アルゴリズムの研究を通じて、ハッカーよりも先に脆弱性を発見して修正し、潜在的な攻撃を回避することができます。また、よりリアルなディープフェイク動画を生成することで、より高度な検出アルゴリズムをトレーニングすることができます。

これを基に、RealAI は人工知能のセキュリティ問題の解決に役立つ完全かつ効果的な技術ツールのセットを作成しました。たとえば、業界初の人工知能セキュリティプラットフォームであるRealSafeは、主要な攻撃および防御アルゴリズムを統合することで、AIシステムの自動セキュリティテストと防御強化をサポートし、敵対的サンプルなどの攻撃方法を識別するAIシステムの能力を向上させます。悪用への対処に関しては、瑞来知能はディープフェイク検出ツールとオールインワンマシン「DeepReal」を発売しました。これにより、動画や画像などのコンテンツがAIによって偽造されたかどうかを効率的かつ正確に判定し、世論や警告による悪用を効果的に回避できます。今回選定された「人工知能セキュリティとディープフェイクガバナンス応用事例」も、これら2つの主要な技術プラットフォームに基づいて構築されており、人工知能の応用過程で直面する潜在的なセキュリティリスクを効果的に回避することができます。

現在、人工知能の研究は高度にオープン化されており、人工知能技術の悪用リスクも急増し、リスクの抜け穴の出現を直接引き起こしています。さらに、人工知能は多分野にわたる統合と高度の複雑性という特徴を持ち、当然技術的な障壁も抱えており、規制当局の監督管理とリスク防止に大きな課題をもたらしています。

同時に、一部の専門家は、AI設計者の価値観や行動の好みは、意図的か否かにかかわらずアルゴリズムやデータに容易に反映され、機械学習を通じてAIに継承され、アルゴリズムによる差別化へと進化する可能性があるとも述べている。しかし、具体的な適用プロセスでは、敵対的なサンプルによって干渉または汚染されやすく、ユーザーによって再形成され、元の設計意図から逸脱した誤った決定につながる可能性があります。専門家は、人工知能の急速な発展に伴い、セキュリティ問題がますます顕著になっており、潜在的なリスクの研究と予防を強化し、我々の利益と安全を効果的に守り、人工知能が安全で信頼性が高く、制御可能であることを保証する必要があると強調した。

田田氏は、人工知能ガバナンスは長期的な課題であり、「技術」と「システム」を同時に推進する必要があると述べた。前者は技術の不安や脆弱性を解決し、後者は応用レベルから規範とガイダンスを提供する。

<<:  2021年4月の自動運転分野における重要な進展の概要

>>:  2021年から2030年までのドローン産業のトップ10の発展トレンド

ブログ    
ブログ    
ブログ    

推薦する

ウクライナ国防省がAI認識技術を採用、Clearview AIが再び疑問視される

イベント紹介ロイター通信によると、ウクライナ政府省庁は土曜日、クリアビューAIの顔認識技術の使用を開...

Playgroundで数値アルゴリズムを学ぶ

中学校では、数学の描画ほど恐ろしいものはありませんでした。多くの問題にはすぐに利用できる解析的解法が...

機械学習プロジェクト用の Python インターフェースを設計する方法

序文機械学習プロジェクトを実行するには、まずモデルを(ほとんどの場合は予測 API として)デプロイ...

GitHub トップ プロジェクト: 30 万語の図解アルゴリズム問題辞書、超実用的なリソース、6,000 個のスター

[[336071]]貴重なリソースをまとめましたので、ぜひご覧ください。アルゴリズムはコンピュータサ...

...

生成AIスタートアップにとっての大きな問題は、資金不足ではなくトレーニングデータの不足だ

6月16日、生成型人工知能のスタートアップ企業数社が数十億ドルの資金を調達したが、適切なデータを入手...

1 文でビデオ クリップを正確に見つけます。清華大学の新しい手法がSOTAを達成 | オープンソース

たった 1 文の説明で、長いビデオ内の対応するクリップを見つけることができます。たとえば、人が階段を...

2023 年までにデータセンターで注目される AI と ML の 10 大アプリケーション

人工知能 (AI) と機械学習 (ML) は、データセンター分野の重要なテクノロジーとなっています。...

RedditユーザーがAppleのCSAMツールをリバースエンジニアリングし、アルゴリズムがすでに存在していることを発見

[[418306]]今月初め、アップルはエコシステム全体に新たな子どもの安全機能を導入すると発表し...

Google Bardは「防御を突破」し、自然言語を使ってロックを解除、インジェクションによるデータ漏洩のリスクを示唆

大規模言語モデルは、テキストを生成する際にプロンプ​​トワードに大きく依存します。この攻撃技は、プロ...

ヤン・ルカン氏ら専門家が2019年のAIの発展動向を予測

[[256869]]左から右へ: Cloudera ML ゼネラルマネージャーの Hilary Ma...

...

デジタルヒューマンがアジア競技大会の聖火を灯す:ICCV 論文から見る Ant の生成 AI テクノロジーの新たな一面

9月23日夜、杭州アジア競技大会の開会式でメイントーチに火が灯されると、数億人のオンラインデジタル聖...

Pythonでグラフを描いてニューラルネットワークを理解する

Python 中国語コミュニティ (ID: python-china)人工ニューラル ネットワーク ...

人工知能はリモートセンシングデータの大きな可能性を解き放ち、国勢調査の手作業が置き換えられるかもしれない

畳み込みニューラルネットワーク(CNN)と衛星画像データを使用して地域の所得レベルを予測する手法がま...