ChatGPTを運営するOpenAIのCEOサム・アルトマン氏は最近、議会公聴会で政府によるAIの規制を求め、大きな騒動を巻き起こした。 「ますます強力になるAIモデルのリスクを軽減するには、政府による規制介入が重要になると考えています」とアルトマン氏は述べた。 ChatGPT は、大量のトレーニング データに埋め込まれたパターンを学習することで、テキスト、画像、音楽などの新しいオリジナル コンテンツを自律的に作成できるテクノロジーである AIGC の一例です。 AIGC は、他の現在の機械学習技術とは多くの点で異なります。 まず、AIGC モデル (GPT や安定拡散など) の出力はオープンエンドです。これらのモデルはテキストと画像データをゼロから生成しますが、他の一般的に使用される識別 ML モデル (分類モデルや回帰モデルなど) は、明確に定義された値のセット (はい/いいえ、0 ~ 1 の数値など) に属する出力を作成します。感情分析モデルは、入力テキストに基づいて肯定的または否定的な感情を生成し、GPT 自体はさまざまな種類の入力テキストを生成できます。 さらに、現在使用されているほとんどのモデルとは対照的に、現在の AIGC モデルは膨大なデータセットでトレーニングされています。たとえば、OpenAI は 5,000 億のトークンで GPT-3 をトレーニングしました。 GPT-4、Stable Diffusion、Codex などの最新バージョンの AIGC モデルを開発している組織は、モデルのトレーニングに使用された正確なトレーニング データを公開していません。これにより、プライバシー侵害や著作権侵害の可能性についての懸念が生じています。 これらのモデルの純粋なパワーもまた、他とは一線を画しています。現在市場に出回っている AIGC モデルは過去のどのモデルよりも強力であり、特に再現するように訓練されていない「新たな特性」を示し始めています。実用的な観点から言えば、これは、ある機能に使用されたモデルを再利用して他のタスクに使用できることを意味します。 最後に、これらのモデルは本質的に不透明です。 1,750 億のパラメータを持つモデルの結果を解釈したり、特定の決定がどのように行われたかを理解したりすることは、ほぼ不可能です。同時に、この技術はまだ初期段階にあり、現在の AIGC モデルには幻覚 (明らかに誤った情報を生成する) などのよく知られた限界があり、これが新たなリスクを生み出す可能性があります。 AIGCの6つの主なリスクAIGC モデルの独自の特性により、他のタイプのモデルには見られない一連のリスクが伴います。 AIGC プロジェクトを検討する際にビジネス リーダーが注意しなければならない 6 つのリスクを以下に示します。 出力品質の問題: まず、AIGC モデルによって生成される出力の品質を確保することは、その予測不可能な性質のため、非常に困難です。マーケティング GPT モデルの結果の 1 つはブランド ガイドラインと一致しているかもしれませんが、別の結果は一致していない可能性があります。モデルが作成した広告は、ある文化的背景では適切であっても、別の文化的背景では不快に感じられる場合があります。人間であればこれらの違いをすぐに見分けることができるかもしれませんが、モデルは文化的なニュアンスを認識できず、不注意で不適切なコンテンツを生成する可能性があります。したがって、出力品質を評価するには人間によるレビューが不可欠です。 捏造された「事実」と幻想: 第二に、AIGC モデルは急速に発展しましたが、依然として明らかな限界があります。最も重要なのは、モデルが「事実」を捏造するときに生じる前述の「幻想」かもしれません。その結果は、無害なもの(綿繰り機を発明したのは誰かという虚偽の報告)になる場合もあれば、訴訟問題になるもの(でっちあげの刑事告発)になる場合もあります。エンタープライズ アプリケーションでは、モデルの幻覚が発生する可能性があるため、検索などの正確な情報が必要な状況でこれらのツールを使用する前に、重要な安全対策を講じる必要があります。 著作権およびその他の法的リスク: 3 番目に、AIGC には潜在的に重大な法的および規制上のリスクがあります。たとえば、AIGC ツールは著作権で保護された素材をクリエイターの許可なく使用します。さらに、AIGC アプリケーションの利用規約には、モデルの改善のためのユーザー インタラクション データの使用に関する明確な規定が欠けていることが多く、企業のソース コードに関連するインシデントで発生したように、プライバシーとセキュリティの問題が発生する可能性があります。さらに、AIGC モデルのトレーニング データの透明性の欠如は、プライバシー、出力の精度、年齢確認に関する懸念からイタリアが ChatGPT を一時的に禁止したことからもわかるように、規制上の影響を及ぼす可能性があります。 偏った出力: 4 番目に、AIGC モデルは、モデルのトレーニングに使用されるデータの偏りに基づいて、他のモデルと同様に偏った出力のリスクの影響を受けます。たとえば、安定拡散は「会社の CEO」の画像を表示するように指示され、白人男性の画像のみを生成する可能性があります。従来の機械学習モデルは、同様の公平性とバイアスのリスクをもたらしますが、新しい AI モデルの生成的な性質により、AIGC が顧客と直接やり取りする場合のリスクが増大します。 簡単に悪用できる: 第 5 に、AIGC の強力なパワーにより、「ジェイルブレイク」が容易になります。 GPT のトレーニングは単語予測に重点を置いていましたが、その推論機能は予想外の結果でした。 AIGC モデルの開発が進むにつれて、ユーザーはモデルの本来の機能を回避し、まったく異なる目的に使用する方法を発見する可能性があります。たとえば、メンタルヘルス チャットボットが GPT を使用して開発されている場合、悪意のある人物がチャットボットをハッキングして、不適切な応答をトリガーしたり、機密データを漏洩したりする可能性があります。 GPT 上に構築されたほぼすべてのチャット インターフェースは、リリース後すぐに「ジェイルブレイク」される可能性があります。 専門知識とコンピューティング コスト: 6 番目で最後の、AIGC 開発アプリケーションに関連する追加の具体的なビジネス リスクは、専門知識とコンピューティング リソースの可用性が限られていることです。現在、このテクノロジーを使用して回復力のあるアプリケーションを構築するためのリソースを集めることができる著名なテクノロジー企業はほんの一握りです。クラウド プロバイダーがコンピューティング能力を提供したり、組織が OpenAI や Azure の API を使用したりすることはできますが、この分野の専門知識は依然として少数の組織に集中しています。 これは、ビジネスリーダーが AIGC プロジェクトを推進すべきではないと言っているわけではありません。しかし、AIGC の取り組み中は、このテクノロジーの潜在的なリスクに常に注意を払い、必要に応じてリスクを軽減する措置を講じる必要があります。 |
<<: フォレスター:生成型AIと会話型AIが2023年のトップ10新興テクノロジーを独占
>>: 自動運転マシンビジョンの4つの基本タスクを理解するための1万語
私たちはほぼ毎日、人工知能と医療業界におけるその応用に関する最新の記事を読んでおり、医療機関などのク...
[51CTO.com からのオリジナル記事] 人工知能アルゴリズムに関しては、ディープラーニングが現...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
最近、IDCは「IDC中国AIパブリッククラウドサービス市場シェア、2022」レポートを発表しました...
[[437909]] Visual Transformer (ViT) は、パッチ単位の画像トーク...
原題: Radocc: レンダリング支援蒸留によるクロスモダリティ占有知識の学習論文リンク: htt...
この記事では機械学習入門、ディープラーニング、自然言語処理などを網羅した関連講座10選を紹介します。...
[[233398]] 「人気商品」は受験者や保護者を惹きつけ、専門職の入学基準が引き上げられている大...
柔らかくてかわいい猫は、いつも私たちに「猫を撫でたい」「猫を抱きしめたい」という衝動を掻き立てます。...
実行している機械学習の種類に応じて、モデルのパフォーマンスを測定するために使用できるメトリックは多数...
[[436278]]背景情報インターネットの急速な発展に伴い、金融業界は情報セキュリティにますます注...
モノのインターネットは、いくつかの自動化ツールを通じて確立された指示に従って対象オブジェクトを接続し...
イスラエルとパレスチナの紛争が続く中、関連ニュースが次々と報道され、中には虚偽の内容も混じり始め、真...