BlackBerry が発表した新しい調査によると、世界中の組織の 75% が現在、職場での ChatGPT やその他の生成 AI アプリケーションの使用禁止を実施または検討しており、そのうち 61% がそのような措置は長期的または恒久的なものになると回答しています。 回答者の 67% は、データ セキュリティと潜在的なプライバシー リスクが ChatGPT や同様の生成 AI ツールの使用を禁止する主な理由であると回答し、次いで企業の評判リスク (57%) が続きました。 さらに 83% の回答者は、安全でないアプリケーションが IT 環境にセキュリティ上の脅威をもたらす可能性があることを懸念しています。 このデータは、米国、カナダ、英国、フランス、ドイツ、オランダ、日本、オーストラリアの 2,000 人の IT 意思決定者を対象とした調査に基づいています。調査結果によると、組織内の技術リーダーシップがこうした禁止を推進する最前線に立っており、組織のほぼ半数で CEO も主導的な役割を果たしています。
この新興技術の広範な使用を阻止する傾向があるにもかかわらず、調査に参加した IT 意思決定者の大多数は、生成 AI アプリケーションがもたらす可能性のあるプラスの影響を認識しています。そのうち、55% は効率性が向上すると考えており、52% はテクノロジーがイノベーションを推進すると考えており、51% は創造性を高めると考えています。回答者の約 81% は、サイバーセキュリティ防御のための AI ツールの使用も強く支持しています (81%)。 ブラックベリーのサイバーセキュリティ担当最高技術責任者、シシル・シン氏は「職場で生成AIアプリケーションを禁止することは、多くの潜在的なビジネス上の利益が相殺されることを意味する可能性がある」と述べた。同氏は、企業は「エンタープライズグレード」の生成AIにおけるイノベーションを追求し、誇大宣伝ではなく価値に焦点を当て、安全でない消費者向け生成AIツールを扱う際には慎重なアプローチを取るべきだと指摘した。 また、この調査では、IT 意思決定者の 80% が、従業員が業務で使用するアプリを管理する権利が組織にあると考えている一方で、74% が、企業所有デバイスや BYO デバイスを全面的に禁止することは「管理が行き過ぎ」であると考えていることも明らかになりました。 ガートナーは最近、2023年第2四半期の調査レポートを発表し、生成AIが2番目に頻繁に言及されるリスクとなり、初めてトップ10にランクインしたことを指摘しました。生成 AI (OpenAI の ChatGPT や Google Bard など) の大規模な利用可能性は、2023 年第 2 四半期に企業のリスク管理者にとって最大の懸念事項となりました。 |
>>: 一枚の写真で「踊り続ける」ことができ、SHERFは人間の神経放射場を駆動できる新しい方法を一般化することができます
この記事の結論から始めましょう。AI と機械学習は、ビデオ信号を 24 時間 365 日リアルタイム...
データセットをトレーニング セットに分割すると、モデルを理解するのに役立ちます。これは、モデルが新し...
人類は最初の AGI の出現にますます近づいています。最近のインタビューで、DeepMindの共同設...
会議と聞いて、どんなイメージが思い浮かびますか? 真剣で緊張した雰囲気でしょうか? それとも退屈で眠...
専門家や業界関係者は、人工知能がさまざまな業界や分野に広く浸透するにつれ、現場の応用に重点を置き基礎...
マルウェア、ランサムウェア、ウイルス、サービス拒否攻撃など、これらの脅威は回復が困難なため、企業を窮...
9月21日、ByteDanceは「TikTokに関する特定の虚偽の噂についての声明」を発表した。バイ...