機密コンピューティングが生成型AIの導入を確実にする方法

機密コンピューティングが生成型AIの導入を確実にする方法

生成 AI は、新しい製品、ビジネス、業界、さらには新しい経済に情報を提供することができます。しかし、従来の AI とは異なる点があり、それが危険につながる可能性もあります。そのユニークな創造力は、まったく新しい一連のセキュリティとプライバシーの問題を引き起こします。

企業は突然、トレーニング データに対する権利があるか、システム自体が将来作成するデータに対する権利を持っているか、システムの権利はどのように保護されているか、生成 AI を使用してモデル内のデータ プライバシーをどのように管理するかなど、多くの問題を考慮する必要があります。

これにより、多くの企業が慎重になるようになりました。セキュリティとプライバシーの明らかなギャップと、既存の暫定的なソリューションに頼ることへの躊躇が相まって、多くの企業がこれらのツールを全面的に禁止するようになりました。しかし、まだ希望はあります。

機密コンピューティングは、データを保護し、使用中のコードの整合性を確保するデータ セキュリティに対する新しいアプローチであり、大規模言語モデル (LLM) のより複雑で深刻なセキュリティ問題を解決するための答えです。セキュリティを損なうことなく、企業が生成 AI のパワーを活用できるよう支援します。説明する前に、まずは生成 AI が特に脆弱になる理由を見てみましょう。

生成 AI には、企業全体からのデータ、または知識が豊富なサブセットさえも、クエリ可能なインテリジェント モデルに組み込む力があり、いつでも新しいアイデアを提供できます。これは非常に魅力的ですが、企業が独自のデータの管理を維持し、絶えず変化する規制要件に準拠し続けることが難しくなります。

適切なデータ セキュリティと信頼管理がなければ、知識の集中とそれに続く生成結果により、生成 AI が意図せずして悪用、盗難、違法使用の武器として利用される可能性があります。

実際、機密のビジネス文書、顧客データ、ソース コード、その他の規制対象情報を LLM に提出する従業員が増えています。これらのモデルは部分的に新しい入力に基づいてトレーニングされるため、侵害が発生すると知的財産の重大な漏洩につながる可能性があります。

モデル自体が侵害された場合、企業が法的または契約上保護する義務があるすべてのものも侵害される可能性があります。最悪のシナリオでは、モデルとそのデータが盗まれ、競合他社や国家主体がすべてをコピーしてそのデータを盗むことが可能になり、大きなリスクが生じます。

さらに、企業は生成 AI に投資する際に、変化するプライバシー規制に対応する必要があります。業界全体において、データ要件に準拠する大きな責任と意欲が存在します。たとえば、ヘルスケアの分野では、AI を活用した個別化医療が患者の治療成果と全体的な効率性を向上させる大きな可能性を秘めています。しかし、医療提供者や研究者が規制遵守を維持しながら大量の機密性の高い患者データにアクセスして処理する必要性は、新たなジレンマを生み出しています。

これらの課題や必然的に生じるその他の課題に対処するには、生成 AI に新しいセキュリティ基盤が必要です。トレーニング データとモデルの保護は最優先事項である必要があります。データベース内のフィールドやフォームの行を暗号化するだけではもはや十分ではありません。

生成 AI の結果が重要な意思決定に使用されるシナリオでは、コードとデータの整合性、およびそれらが伝える信頼性の証拠は、規制遵守と潜在的な法的責任の管理にとって非常に重要です。計算全体とその実行状態を厳重に保護する方法が必要です。

機密生成AIの出現

機密コンピューティングは、一見解決が困難な問題を解決するためのシンプルでありながら非常に強力なアプローチを提供します。機密コンピューティングでは、データと IP はインフラストラクチャ所有者から完全に分離され、信頼できる CPU 上で実行される信頼できるアプリケーションのみがアクセスできます。実行中も暗号化によりデータのプライバシーが確保されます。

データのセキュリティとプライバシーはクラウド コンピューティングの固有の特性となり、悪意のある攻撃者がインフラストラクチャ データを侵害したとしても、IP とコードは完全に見えなくなります。これは生成 AI に最適であり、セキュリティ、プライバシー、攻撃のリスクを軽減します。

機密コンピューティングは、セキュリティのゲームチェンジャーとして注目を集めています。すべての主要なクラウド プロバイダーとチップ メーカーがこれに投資しており、クラウド コンピューティングに最も頑固に反対する人たちに力を与えているのと同じテクノロジーが、AI の安全な立ち上げを支援するソリューションになり得るのです。リーダーたちはこれを真剣に受け止め、その広範囲にわたる影響を理解しなければならない。

機密コンピューティングを使用すると、企業は生成 AI モデルが使用を意図したデータのみから学習し、他のデータからは学習しないことを保証できます。クラウド内の信頼できるソースのネットワーク全体にわたるプライベート データセットのトレーニングにより、完全な制御と安心が得られます。入力情報であろうと出力情報であろうと、すべての情報は企業の内部で完全に保護されます。

<<:  人工知能に対する期待と不安

>>:  マイクロソフトは、ユーザーが好みの商品を選択できるように、Bing および Edge ブラウザでのオンライン ショッピング サービスを拡張します。

ブログ    

推薦する

AMU-Botロボット:作物の間を移動しながら除草する

手作業による除草は時間がかかり、労力もかかりますが、除草剤を散布するのは決して環境に優しくありません...

NVIDIA が Tensor RT-LLM を発表、RTX 搭載 PC プラットフォームで大規模言語モデルを 4 倍高速化

10月18日、NVIDIAはハードウェア分野における生成型人工知能の王者となった。同社のGPUは、M...

ドローンレースが人間のトッププレイヤーを上回り、強化学習が再びネイチャーの表紙を飾る

最近、自律型ドローンがドローン競技会で人間のトッププレイヤーに勝利しました。この自律型ドローンは、チ...

...

あなたはまだこれらの仕事をしていますか?マシンビジョンと人工知能により、今後10年間で失業することになるかもしれません

[[216406]]新しい技術の出現は、それに関わる人々の仕事を常に変えていきます。メインフレームコ...

新しいマルチモーダル大型モデルがリストを独占!画像とテキストの混合入力をサポートしているので、知識がわからなくても学習できます

マルチモーダル大型モデルファミリーに新しいメンバーが加わりました!複数の画像とテキストを組み合わせて...

Zhiyuan が世界最大の中国語と英語のベクトルモデルトレーニングデータセットをリリースしました。最大3億のテキストペアまで拡張可能

9月15日、北京人工知能産業サミットおよび中関村科学城科学技術イノベーションコンテスト授賞式において...

北京大学と智遠は、大規模モデルが自律的にオープンワールドを探索できるようにするトレーニングフレームワークLLaMA-Riderを提案した。

大規模言語モデルは、強力で普遍的な言語生成および理解機能を備えているため、汎用的なインテリジェントエ...

線形ネットワークに基づく音声合成のための話者適応

[51CTO.com からのオリジナル記事] 話者適応アルゴリズムは、少量の話者データを使用して、満...

十八龍掌:トランスフォーマーのメモリ使用量を最適化するこのスキルの組み合わせは、収集する価値があります

ビジョントランスフォーマーや LLM などのディープラーニングモデルをトレーニングする場合、ピーク時...

...

企業は2024年に台頭するテクノロジーの波にどのように対応すべきでしょうか?

2023年は科学技術にとって重要な年と言えます。AI、モノのインターネット、ビッグデータ、クラウド...

ロボットの時代が来ます。私たちは全員失業してしまうのでしょうか?

[[415590]]ボストン・ダイナミクス社が開発したヒューマノイドロボット「アトラス」、ロボット...

完全なルーティングアルゴリズムの設計目標の分析

ルーティング アルゴリズムには通常、次の 1 つ以上の設計目標があります。最適化最適化とは、メトリッ...