マイクロソフトがOpenAIを救わなければならない理由

マイクロソフトがOpenAIを救わなければならない理由

CEO を雇い、チームを雇い、CEO を復帰させ、取締役会に加わらせる - Microsoft はOpenAI を運営し続けるためにあらゆる手段を講じるつもりです。

「Microsoft が OpenAI を救わなければならない理由」より翻訳。

スター生成AI企業であるOpenAIの混乱した崩壊は、最初は些細なことに思えたが、非常に激しくなった感謝祭前の家族の口論のようなものだ。おそらく、マイクロソフトの、大人らしい、断固として、しかし友好的な介入が、すべてのもつれに終止符を打ったのであり、おそらく、さらなる紆余曲折があるだろう。しかし、こうした浮き沈みを経て、OpenAI 自体ではなくとも、Microsoft が介入して同社の技術を安定させることが不可欠になった。

お金だけではない

マイクロソフトが最近 OpenAI に 100 億ドルを投資したことは決して小さな金額ではない (ただし、その一部は大規模な全社的なレイオフで賄われ、CEO のサティア ナデラが同社にもたらした印象的な企業文化の変革を台無しにしている)。しかし、これは一種の資金スパイラルであることが証明されており、マイクロソフトの OpenAI への数年にわたる投資のかなりの部分が、OpenAI の大規模言語モデルを実行するための (Azure) クラウド コンピューティングにすでに費やされているようだ。

決して実現しないかもしれない、汎用人工知能を作成するという遠い計画については忘れてください。マイクロソフトは、自社を「Windows企業」ではなく「AI企業」、特に「Copilot企業」として認識してもらいたいと考えており、2021年にNuanceに支払った金額の約半分、つまり2019年にGitHubに費やした75億ドル(インフレ調整済み​​)よりわずかに少ない金額でChatGPTの技術基盤を取得する予定だ。この資金のすべてがクラウドに費やされたわけではないが、マイクロソフトの設備投資は2023年第1四半期だけで78億ドルに達した。

マイクロソフトは、自社に優秀な AI 研究者の名簿と極めて大規模なモデル基盤を擁しているにもかかわらず、それらのモデルを動かすクラウド コンピューターのハードウェアとソフトウェアに多額の投資をしており、ほぼすべての部門と製品ラインで OpenAI のテクノロジに依存しているため、OpenAI の ChatGPT 言語モデルを非常に重視しています。

ナデラ氏は、Ignite カンファレンスのオープニング基調講演で、GPT-4 Turbo モデルのプレビューを含め、OpenAI について繰り返し言及しました。 Microsoft 独自の製品にも OpenAI テクノロジが満載されており、多くの Copilot の中核には OpenAI テクノロジが採用されています。

基礎モデルの経済的実現可能性の達成

大規模な言語モデルやその他の基本モデルをトレーニングするには、大量のデータ、時間、計算能力が必要です。 Microsoft の解決策は、それらをプラットフォームとして扱い、一度にいくつかのモデルを構築し、それらをカスタマイズして特化した方法で繰り返し再利用することです。

Microsoft は、低レベルのインフラストラクチャやデータ センターの設計 (2023 年には 3 日ごとに新しいデータ センターが稼働予定) からソフトウェア開発環境まで、5 年間にわたって Copilot のテクノロジ スタックを構築してきました。これにより、効率を最適化することですべてが変わりました。

GitHub Copilot皮切りに、ほぼすべての Microsoft 製品ラインに Copilot 機能が搭載されるようになりました。これは、Microsoft 365 Copilot、Windows Copilot、Teams、Dynamics、新しく命名された Bing Chat などの消費者やオフィス ユーザー向けの生成 AI だけでなく、Power BI にインテリジェントなサポートを提供する GPT ツールも含まれます。Copilot は、セキュリティ製品の Microsoft Defender 365 から Azure インフラストラクチャ、Microsoft が新たにリリースしたインフラストラクチャ製品まで、あらゆるところに浸透しています。

Microsoft の顧客も、同じテクノロジー スタック上に独自のカスタム Copilot を構築しています。ナデラ氏は、AirbnbやBTからNVidiaやChevronまで、いくつかの例を挙げた。新しいCopilot Studioは、企業が独自のデータとJIRA、SAP ServiceNow、Trelloなどの一般的なツールのプラグインを使用してカスタムCopilotを簡単に構築できるようにするローコードプラットフォームであり、OpenAIを普及させる可能性がある。

この目標を達成するために、Microsoft は、OpenAI から新しい基本モデルを取得し、Power Platform や Bing などの小規模なサービスでテストし、そこから得た教訓を活用して、開発者が利用できるより専門的な AI サービスにそれらのモデルを組み込む社内パイプラインを構築しました。セマンティック カーネルとプロンプト プロセスを標準化し、Python や C# などの従来のプログラミング言語を使用して AI サービスを調整できます (開発者向けに使いやすい新しいフロントエンド Azure AI Studio ツールを構築しました)。これらのツールは、開発者が大規模な言語モデルを理解していなくても、大規模な言語モデルに基づくアプリケーションを構築および理解するのに役立ちますが、その基盤となる OpenAI モデルに関する Microsoft の専門知識に依存しています。

ハードウェアは真の約束

もちろん、Microsoft は OpenAI が依存する主要なハードウェアである Nvidia および AMD GPU に多額の投資を行っており、またノード間の高帯域幅 InfiniBand ネットワークや、昨年の Lumensity 買収を通じて獲得した低遅延中空繊維 (HFC) 製造技術にも投資しています。これらはすべて、AI システムを構築するために不可欠なコンポーネントです。

マイクロソフトは、Top500 スーパーコンピュータ リストに定期的に登場する Nvidia 搭載 AI スーパーコンピュータでのコラボレーションだけでなく、Maia 100 の最適化の一部にも貢献したとして OpenAI の功績を高く評価しています。 Microsoft はこれらの Azure スーパーコンピューターを OpenAI に販売しただけでなく、他の顧客が同様のインフラストラクチャを購入する (またはその上で実行されるサービスを購入する) ための強力な口実としてそれらを利用しました。今日のほぼすべての Microsoft 製品とサービスは、このインフラストラクチャに依存しています。

これまで、マイクロソフトは AI を加速する主な手段として FPGA を利用してきました。これは、FPGA が非常に柔軟性が高いためです。当初 Azure ネットワークを高速化するために使用されていたハードウェアは、後に Bing 検索の AI 推論エンジンとなり、その後、開発者が独自のディープ ニューラル ネットワークを AKS に拡張できるサービスへと進化しました。新しい AI モデルや手法が登場すると、Microsoft は、すぐに時代遅れになる新しいハードウェア アクセラレータを構築するのではなく、FPGA をより迅速に再プログラムしてソフト カスタム プロセッサを作成することで、それらを加速できます。

FPGA を使用すると、Microsoft は今後数年間、AI のシステム アーキテクチャ、データ タイプ、演算子を選択する必要がなくなります。必要なときにいつでもソフトウェア アクセラレータの機能を更新でき、タスクの実行中に FPGA 回路の一部を再ロードすることもできます。

しかし先週、マイクロソフトは初のカスタム シリコン チップである Azure Maia AI アクセラレータを発表しました。これは、特に「大規模言語モデルのトレーニングと推論」用にカスタム チップ レベルの液体冷却システムとラックが組み込まれており、Bing、GitHub Copilot、ChatGPT、Azure OpenAI サービス用の OpenAI モデルを実行します。これは、OpenAI モデルのトレーニングと実行にかかるコスト (および水の使用量) を大幅に削減する重要な投資です。また、こうしたコスト削減は、OpenAI モデルのトレーニングと実行が引き続き主要なワークロードである場合にのみ達成されます。

本質的に、Microsoft は OpenAI 用のカスタム ハードウェア アクセラレータを構築したばかりで、これは来年までデータ センターでは利用できませんが、将来の設計はすでに計画されています。緊密なパートナーである OpenAI にとって、今は分裂したり衰退したりするには良い時期ではないことは確かだ。

車輪を回し続ける

マイクロソフトは長年にわたりこのアイデアをほのめかしていたものの、当初はOpenAIを買収するつもりはなかった。同社は、構築中の AI トレーニングおよび推論プラットフォームが自社のニーズだけでなくそれ以上のものも考慮に入れるように、意図的に社外のチームと協力することを選択しました。

しかし、OpenAI のモデルが競合他社を上回り続けるにつれて、マイクロソフトの賭けは拡大している。 ChatGPT は発売からわずか 1 年で週あたり 1 億人のユーザーを獲得したと主張しましたが、新規ユーザー数がシステム容量を超えたため、OpenAI は ChatGPT Plus のユーザー登録を停止しなければなりませんでした。これには、Microsoft の直接顧客による OpenAI の使用は含まれていません。

OpenAI の ChatGPT を使用する場合でも、Microsoft 製品に組み込まれた OpenAI モデルを使用する場合でも、それらはすべて Azure 上で実行されます。 Microsoft の「ファーストパーティ サービス」(自社コード) と「サードパーティ サービス」(外部コード) の区別も曖昧になってきています。

理論的には、主要な競合他社のインフラストラクチャ モデルのほとんどがすでに Azure 上で実行されているため、Microsoft は撤退して別のインフラストラクチャ モデルに移行する可能性があります。しかし、途中で変更することは混乱を招き、費用がかかるだけでなく、リーダーシップの喪失につながり、株式市場や顧客の間での会社の評判を損なう可能性も高くなります。 OpenAI テクノロジーが今後も存続し、繁栄し続けるためには、確かにこれがより良い選択です。

OpenAI の開発者リレーション チームは、ビジネスは継続しており、システムは稼働しており、エンジニアリング チームは待機していると顧客に安心させているが、OpenAI の顧客は競合他社の Anthropic や Google に連絡を取り始めていると報じられている。これらの顧客には、Microsoft が失いたくない Azure OpenAI の顧客も含まれる可能性がある。 Azure OpenAI サービスと緊密に統合された LLM ベースのアプリケーションを作成するためのフレームワークを構築しているスタートアップの LangChain が、Azure OpenAI サービスとの主要な統合を発表しました。同社は開発者にアドバイスを提供し、別の LLM に切り替えるには大幅なヒント エンジニアリングの変更が必要になることを指摘しています (ほとんどの例は現在 OpenAI モデルを対象としています)。

ほぼすべての部門と製品ラインにまたがるマイクロソフトの顧客が同様の社内会話を行っている場合、OpenAI の専門知識を可能な限り社内に取り込むことで、OpenAI 自体が分裂したり衰退したりした場合に必要となる移行を容易にするのに役立つだろう。

確かに、マイクロソフトは、AGI(もし実現すれば)まで、そしてたとえOpenAIとの提携が終了したとしても、CFOのエイミー・フッド氏が言うところの「OpenAIの知的財産に対する広範かつ永続的なライセンス」を保有しているが、生成AIは急速に進歩しており、現在のモデルを稼働させ続けるだけでは十分ではないだろう。 Microsoft は、GPT-5 のような将来の言語モデルにアクセスできるようにする必要があります。

名前に「オープン」という言葉が含まれているにもかかわらず、OpenAI は主にオープンソース組織ではなく、個別のリリースのみを行っており、その中核となる大規模言語モデルはオープンソースではありませんでした。これは、Microsoft が段階的にオープンソースを採用してきたことと比較する価値があります。PowerShell や VS Code などのコア プロジェクトをオープンソースとしてリリースしたのはほんの始まりに過ぎませんでしたが、本当の鍵は、Windows Server と Azure 向けの Docker や Kubernetes などのオープンソース プロジェクトに依存し始めたことです。

対照的に、OpenAIへの依存はさらに深く、予想以上に不安定で管理が弱い依存であることが判明した。いずれにしても、マイクロソフトは OpenAI の重要な貢献が継続されることを保証します。

<<:  LLM の 3 つの大きな欠点のうちどれをご存知ですか?

>>:  オーディオ品質評価方法の簡単な分析

ブログ    
ブログ    

推薦する

...

Googleは報道機関向けにAIツールを展開

Google は、ジャーナリストの記事作成を「支援」すると主張し、新しい人工知能ツール Genesi...

機械が人間に取って代わるというのは空想ではありません。最初に影響を受けるのは 3 つの職業です。油断しないでください。

科学技術の継続的な発展により、多くの業界で「ロボット」が使用され、効率が向上するだけでなく、人件費も...

インテリジェントビルにおける人工知能技術の応用の展望

現在の人工知能技術と製品の実用レベルによると、インテリジェントビルの分野では、建物の自己調節型「呼吸...

...

AIを活用して都市の建物の特性を識別し、地震などの災害に対するリスクを予測する

ビッグデータダイジェスト制作出典: サイエンスデイリー編集者: ジェーン人工知能は、ビジネスから工業...

...

ビル・ゲイツ氏:AIはリスクがあるが管理可能であり、PCの出現に匹敵する「最も変革的なイノベーション」である

ビル・ゲイツ氏は7月12日、米国現地時間7月11日に自身のブログに記事を掲載し、人工知能の現在の発展...

...

自動運転車に「道路を認識」させる方法

人間が歩くのと同じように、自動運転車も移動プロセスを完了するためには、交通環境について自主的に考え、...

海外の科学者が「AI漢方」を開発:舌診断システムの精度は最大94%

10月23日、中国医学では2000年以上もの間、人の舌の色や形を観察して病気を診断してきたと報じら...

研究者は人工知能を使って交通事故を事前に予測する

研究者らは、過去の衝突データ、道路地図、衛星画像、GPS に基づいてディープ モデルをトレーニングし...

ブースティング原理に基づく深層残差ニューラルネットワークのトレーニング

1. 背景1.1 ブースティングブースティング[1]は、アンサンブルモデルを訓練するための古典的な手...

ディープラーニングフレームワークの簡単な歴史: TFとPyTorchは二大勢力であり、次の10年は黄金時代を迎える

過去 10 年間で、機械学習 (特にディープラーニング) の分野では多数のアルゴリズムとアプリケーシ...