この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 ガートナーの調査によると、世界中の CIO の 48% が 2020 年末までに AI を導入する予定です。 AI と ML に対する楽観的な見方にもかかわらず、私は依然として懐疑的です。近い将来、生産性や生活水準に大きな変化をもたらすような発明は起こらないと思います。 AI/ML 環境の大きな変化を待つ企業は、小さな進歩を逃すことになります。
現時点では目立たないかもしれませんが、長期的には大きな影響を与えるいくつかの傾向を以下に示します。 1. 専用ハードウェアとクラウドサービスプロバイダーが状況を変えている 企業にとって、オンプレミスとクラウド コンピューティングに関する白熱した議論の時代は終わりました。今日では、保守的な企業でさえクラウドとオープンソースについて語っています。クラウド プラットフォームが AI/ML サービスを含むようにサービスを進化させているのも不思議ではありません。 ML ソリューションの要求が厳しくなるにつれ、CPU と RAM の数はもはや加速やスケーリングの唯一の手段ではなくなりました。 GPU、TPU、あるいは「ウェーハスケールエンジン」など、アルゴリズムに最適化された特殊なハードウェアがこれまで以上に多く存在します。 AI/ML の問題を解決するために、よりカスタマイズされたハードウェアを使用するという業界のシフトも加速するでしょう。同社のCPUは主に最も基本的な問題を解決するために使用される予定だ。 ML/AI を使用する汎用コンピューティング インフラストラクチャは時代遅れになるリスクがあり、この理由だけでも企業がクラウドに切り替える十分な理由となります。 専用チップとハードウェアの増加は、これらのハードウェアに基づくアルゴリズムの改善にもつながります。新しいハードウェア/チップにより、以前は遅い、または不可能だと考えられていた AI/ML ソリューションの使用が可能になる可能性がありますが、現在汎用ハードウェアを動かしているオープンソース ツールの多くは、新しいチップのメリットを享受するために書き直す必要があります。アルゴリズムの改善に関する最近の例としては、トレーニング手順を並列化することで DL トレーニングを高速化する Sideways や、メモリ使用量と計算能力を最適化する Reformer などがあります。 2. プライバシーに関する革新的なソリューション また、データ プライバシーへの焦点が徐々に ML モデル プライバシーへと移行していくことも予測しています。今日の AI プライバシーに関する焦点は、データがどのように収集され、どのように使用されるかにあります。しかし、ML モデルは真のブラック ボックスではありません。モデル入力は時間の経過に伴う出力に基づいて推測される可能性があり、プライバシー漏洩につながります。データとモデルのプライバシーに関する課題により、企業はフェデレーテッド ラーニング ソリューションの導入を余儀なくされるでしょう。 昨年、Google は差分プライバシーの原理に基づいて動作し、入力を難読化するためにノイズを追加するフレームワークである TensorFlow Privacy をリリースしました。フェデレーテッド ラーニングでは、ユーザーのデータはデバイス/マシンから外に出ることはありません。これらの機械学習モデルは十分にスマートであり、スマートフォン上で実行してローカルデータから学習するのに必要なメモリはごくわずかです。 通常、ユーザーが提供するデータは、よりパーソナライズされたエクスペリエンスを提供するために使用されます。たとえば、Google メールは、ユーザーの入力動作に基づいて自動的に候補を表示します。データとモデルは、個人の体験だけでなく、より広い人口全体の体験を向上させるためにどのように役立つのでしょうか?人々は、他の人の利益のために、トレーニング済みのモデル(データではなく)を共有する意思があるでしょうか? ここには興味深いビジネスチャンスがあります。それは、ローカルのデバイス上のデータでトレーニングして得られたモデルパラメータに対してユーザーに支払いを行い、ローカルのコンピューティング能力を使用してモデルをトレーニングすることです(たとえば、電話が比較的アイドル状態のとき)。 3. 堅牢なモデルの展開が重要になる 現在、企業はスケーラブルで信頼性の高いモデルの作成に苦労しています。モデルを作成する人は、必ずしもモデルのセキュリティとパフォーマンスを考慮しているわけではなく、モデルの展開の専門家でもない可能性があります。機械学習モデルが主流かつ重要なアプリケーションの不可欠な部分になると、必然的に主流のアプリケーションにサービスを提供するモデルに対する攻撃につながります。 テスラを減速させるのではなく加速させたり、車線を変更したり、急停止させたり、適切なトリガーなしにワイパーをオンにしたりするなど、ローテクな例をいくつか見てきました。このような攻撃が、AI/ML に大きく依存する金融システムや医療機器などにどのような影響を与えるか想像してみてください。 現在、モデルの影響をより深く理解するために、敵対的攻撃は学術分野に限定されています。しかし、近い将来、モデルに対する攻撃は、パフォーマンスが向上したことを示す競合他社や、脅迫しようとする悪意のあるハッカーによって「利益」を目的として行われるようになるでしょう。たとえば、今日の新しいサイバーセキュリティ ツールは、ネットワーク侵入やウイルスなどの脅威を識別するために AI/ML に依存しています。誤った脅威アラートをトリガーできる場合はどうなりますか?真の警報と誤警報を識別するのにかかるコストはいくらですか? このような脅威に対抗するために、企業はモデルの堅牢性を確保するためにモデルの検証にさらに注意を払う必要があります。一部の企業はすでに敵対的ネットワークを使用してディープニューラルネットワークをテストしています。現在、当社ではネットワークセキュリティ、物理セキュリティなどのレビューを外部の専門家に依頼しています。同様に、モデルのテストと認証を行い、モデルの故障に対して何らかの責任を負う可能性のある、モデルテストとモデル安全性の専門家という新しい市場が出現するでしょう。 次に何が起こるでしょうか? AI 投資を通じて成長を実現したい企業は、データへの影響を再考する必要があります。上記で概説した傾向は、企業が運用中の AI/ML ソリューションに関して強力なガバナンスを実装する必要性を強調しています。ただし、AI/ML モデルが堅牢であると想定することは、特にプラットフォーム プロバイダーに任せている場合はリスクを伴う可能性があることにも注意してください。したがって、モデルが機能している理由や機能していない理由を理解するために社内に専門家を配置することが今求められています。これは今後も継続する必要がある傾向です。 |
<<: 顧客エンゲージメントにおける 5 つの主要な AI トレンド
>>: Facebook、機械が人間のように音楽を聴けるようにするDemucsプロジェクトをオープンソース化
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
10月12日、世界をリードするインテリジェントオペレーティングシステム製品およびテクノロジープロバイ...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
通信ネットワークは人工知能の爆発的な発展の基盤であり、人工知能は通信ネットワークの機能を大幅に強化し...
線形回帰は、多くの場合、機械学習やデータサイエンスで最初に学ぶアルゴリズムです。シンプルでわかりやす...
海外メディアの報道によると、有名な未来学者イアン・ピアソン博士は最近、今後数十年以内に、人間は思考と...
組織が新型コロナウイルス感染症のパンデミックを乗り越えていく中で、データ分析と AI の ROI を...
2021年5月20日、北京中良プロトンネットワーク情報技術有限公司傘下の企業向けデジタルサービスプラ...
TensorFlow 2.0 プレビューが利用可能になりました。最近、Google AI チームのメ...
これはすべて悪意のある計画ですか? ツイッター株を7000万株以上購入した後、マスク氏は取締役会への...
人工知能 (AI) とモノのインターネット (IoT) の融合により、イノベーションの新しい時代が到...
ハルビンで開催された2019年中国科学技術協会年次大会において、情報技術分野のハイエンドシンクタンク...
[[197317]] [51CTO.com からのオリジナル記事]今週の金曜日 (2017 年 7...