生成型人工知能 (GenAI) は技術革新の最前線にあり、さまざまな業界の変革と発展に新たな可能性をもたらします。ただし、これらのテクノロジが引き続き適用および統合されるにつれて、企業組織は、責任を持って持続可能な方法で GenAI テクノロジの価値を実現するために、アプリケーションのセキュリティと規制コンプライアンスにも注意を払う必要があります。最近、専門メディアHelpnetsecurityは、2023年にいくつかの研究機関が実施したGenAI技術応用調査を収集・整理し、主な予測観点をまとめました。これらの視点をまとめ、観察することで、企業組織は 2024 年に GenAI テクノロジーをより適切に適用できるようになります。 1. 中小企業はGenAIの導入には積極的だが、セキュリティ対策を無視することが多いZscaler は今年、世界中の 900 人以上の IT 意思決定者を対象に調査を実施しました。そのデータによると、ChatGPT などの GenAI ツールは潜在的なセキュリティ リスクをもたらすと組織の 89% が考えている一方で、調査対象組織の 95% がすでに何らかの形でこれらのテクノロジーを業務で使用していることがわかりました。 心配なことに、ユーザーの 23% は GenAI の使用状況をまったく監視しておらず、33% は GenAI アプリケーションに対して追加のセキュリティ対策を講じていません。これは特に小規模企業(従業員 500 ~ 999 人)に当てはまります。回答者の 51% が、2024 年には組織の GenAI ツールへの関心がさらに高まると予想しており、GenAI の導入とセキュリティのギャップを埋めるには迅速な行動が必要です。 2. ほとんどの企業はGenAIアプリケーションのリスクにどう対処すればよいかわからないISG の調査データによると、調査対象企業の 85% が、今後 24 か月以内に GenAI への投資が重要または極めて重要になると考えています。ただし、ほとんどの企業は「白紙」のアプローチを取っているわけではなく、サービス プロバイダーに GenAI アプリケーションを既存のサービスに統合することを要求したり、サービス プロバイダーを通じて作業したりしています。 生成 AI に関する最大の懸念の 1 つは、偏見と誤解です。生成AIが質問に対して正しい答えを生成できない場合、「AI幻覚」が発生します。さらに、AI を適用する場合、企業はデータの品質や、モデルが破損したり汚染されたりする可能性についても懸念する必要があります。多くの企業組織が GenAI の可能性を認識していますが、AI テクノロジーを適用する際のリスクに対処する方法を知っている組織はほとんどありません。 ISGの報告書は、企業がAI技術で飛躍的な進歩を遂げるためには、セキュリティ、著作権の問題、倫理的配慮、法的問題などの障害を克服する必要があると指摘している。 3. ChatGPTの人気が世界的なGenAI投資の急増を引き起こした人工知能は新しい技術ではなく、多くのテクノロジー企業が長年にわたって予測可能で説明可能な AI に多額の投資を行ってきました。しかし、調査会社IDCは、OpenAIがリリースしたGPT-3.5シリーズのアプリケーションが世界的な注目を集め、GenAIへの投資急増を引き起こしたと述べた。 IDC は、AI ソリューションへの世界的な支出が 2027 年までに 5,000 億ドル以上に増加すると予測しています。ほとんどの組織は、AI 強化製品/サービスへの移行プロセスを経ています。 4. 企業のテクノロジーリーダーはAIの進化に追いつくのに苦労しているハーベイ・ナッシュの最新レポートでは、AI技術が組織の伝統的な開発モデルに全面的に挑戦していると指摘されているが、GenAIの応用に備えていると答えた企業の技術リーダーはわずか15%で、回答者の88%がAI技術の応用に対する監督を強化することが重要だと答えている。研究者らは、AI の爆発的な成長が予測されているにもかかわらず、大規模に AI を実装している組織はわずか 10% であり、さらに多くの組織がまだ試験段階または小規模実装段階にあることを発見しました。 AI の効果的な適用に関する懸念は大きく、企業の技術リーダーの約 45% が、AI 技術は現在自社でスキル不足の領域であり、スキル不足により自社が技術変化のペースに追いつけなくなると述べています。 5. 企業がGenAIアプリケーションのセキュリティを懸念するのは当然であるPortal26が発表した調査データによると、回答者の3分の2が過去1年間にGenAIのセキュリティまたは不正使用の事件が発生したことを認めた。回答者の 73% がすでに GenAI 関連のセキュリティ インシデントを経験しており、そのうち 67% は 2023 年に発生しました。研究者は、企業組織の GenAI アプリケーションに関するセキュリティ上の懸念が高まっており、アプリケーションのリスクはまだ効果的に対処されていないと考えています。具体的な懸念としては、シャドー AI アプリケーション (58%)、データ プライバシー (56%)、コンプライアンス ガバナンス (63%)、知的財産保護 (62%)、トレーニングの偏り (55%)、データ セキュリティ (60%)、従業員トレーニング (58%) などが挙げられます。 6. CISOはAI技術によるサイバー攻撃に備える必要があるAbnormal Security が提供する監視データによると、2023 年に企業が経験した電子メール攻撃の数と複雑さは大幅に増加しており、その主な理由は攻撃者による GenAI テクノロジーの広範な使用であると考えられます。 セキュリティ研究者が最も懸念しているのは、GenAI が電子メール攻撃をますます巧妙化させるだけでなく、公開されている情報に基づいて攻撃者が高度に標的を絞ったパーソナライズされた詐欺メールを作成するのにも役立つことです。 2023 年にはすでに多くの人がこれらの脅威を経験しており、回答者の 80.3% が組織が AI 生成の電子メール攻撃を受けたことを確認しています。しかし、セキュリティリーダーの大多数は、AI が生成した電子メール攻撃に対する防御に十分な準備ができていません。従来のセキュリティ保護方法では AI が生成したサイバー攻撃に対処することが難しく、その結果、回答者の 46% が AI が生成した攻撃の検出と防止に自信が持てません。 7. GenAI機能を構築してビジネスの成長を促進するIDC の研究者は、現代の企業組織がビジネスで成功するためには、できるだけ早く GenAI テクノロジの導入に着手する必要があると述べています。そのためには、GenAI への投資に関連する継続的な基礎活動、ユースケースの優先順位付けに関するガイダンス、成功するプログラムの構築と実装に必要な主要な関係者の特定が必要です。 GenAI モデルの構築と使用には、GenAI システムのプロンプトを作成してテストする「プロンプト エンジニア」などの新しい機能が必要になります。すべての組織は、組織全体に GenAI を大規模に導入するために、コア AI テクノロジーとビジネス機能の新しいスキル マップを作成する必要があります。組織は、主要な役割に対して個別のトレーニング プログラムを確立する必要もあります。 8. GenAIはDevOpsとSecOpsを危険な領域に追い込む可能性があるSonatype の調査によると、エンタープライズ アプリケーションのセキュリティ リーダーとソフトウェア開発リーダーは、GenAI テクノロジーによってソフトウェア開発におけるセキュリティの脆弱性がさらに増加し、DevOps と SecOps が危険な領域に陥る可能性があると常に考えていました。 調査によると、調査対象となった DevOps および SecOps リーダーの 97% が現在 GenAI テクノロジーを使用しています。しかし、ほとんどの回答者は、この技術の適用に関してセキュリティリスクが最大の懸念事項であると考えています。しかし、DevOps と SecOps の回答者は GenAI のリスクを高く認識しているものの、採用率には大きな違いがあります。 SecOps リーダーの 45% がソフトウェア開発プロセスに GenAI を実装していますが、DevOps リーダーの場合は 31% です。 SecOps の回答者の 57% は GenAI によって少なくとも週 6 時間の時間を節約できると回答しましたが、DevOps の回答者で同じ回答をしたのはわずか 31% でした。 9. 企業はGenAIのSaaSサービスのセキュリティへの影響を懸念しているSnow Software によると、企業の IT リーダーは GenAI アプリケーションのリスク課題に取り組んでおり、回答者の 96% が組織の SaaS セキュリティ対策に「自信がある、または非常に自信がある」と回答しているものの、IT リーダーは GenAI のリスク影響を全体的な SaaS セキュリティ アプローチに組み込む必要があるとのことです。回答者の 23% は、GenAI アプリケーションが SaaS セキュリティの最大の懸念事項であると回答しました。回答者の 57% は、SaaS ベンダーが知らないうちに GenAI を使用した場合、警戒し不安を感じると答えています。 参考リンク: https://www.helpnetsecurity.com/2023/12/22/genai-cybersecurity-surveys/ |
>>: Huawei NoahのPangu Agentは、インテリジェントエージェントが構造化推論を学習するのを支援します
現在の AI ブームと展望に基づいて、2023 年の AI に関して専門家が予測する 6 つの点を紹...
生成AIについて議論するインタビューでは、懸念から驚きまでさまざまな反応がありました。そしてベンチャ...
新型コロナウイルスによる肺炎の発生以来、全国の人々が不安に思っています。世界をリードするスケーラブル...
本日、Google TensorFlow は、ニューラル グラフ学習手法を使用してグラフと構造化デー...
[[205069]] 1. 数学的な定義順序保存回帰は回帰アルゴリズムの一種です。基本的な考え方は、...
このニッチ産業には大きな発展の可能性があり、特にドアロック業界は従来のドアロックからスマートドアロッ...
ニューラル ネットワークは機械学習におけるモデルの一種です。ニューラル ネットワークは、機械学習の分...
人間と四足歩行ロボットのシンプルで効果的な相互作用は、有能なインテリジェントアシスタントロボットを生...
突然、花形「超高速鉄道」企業ハイパーループ・ワンが倒産し、従業員の大半を解雇し、12月31日に完全に...
データセンターのワークロードが急増するにつれ、効率性の向上と経費削減を図りながら IT チームの管理...
ChatGPT モデルは今年人気となり、予想外に化学の分野全体を覆しました。まず、Google De...