良いニュースです。生成 AI アプリケーションの敷居が大幅に下がりました。 先ほど、Amazon Web Services は年次イベント re:Invent で公式に次のことを発表しました。
たとえば、Meta の Llama 2 70B、Antropic の Claude 2.1 など: これほど多くの大規模モデルを「パッケージ化」できるインテグレーターが、Amazon Web Services の AI 大規模モデルサービスであるAmazon Bedrockです。 もちろん、最新のアップグレードされた大型モデルTitanも含まれています。
Amazon Web Services の AI 担当副社長である Swami Sivasubramanian 氏も、その場で Titan Iamge Generator の機能をデモンストレーションしました。 たとえば、Photoshop を一切使わずに、たった 1 つの文で緑のトカゲをオレンジ色に変えることができます。 たとえば、画像を回転させたい場合は、次の 1 つの文だけが必要です。 便利ですよ、本当に便利ですよ。 しかし、記者会見全体を見ると、これらの機能とアップグレードは、Amazon Web Services が敷居を下げる取り組みのほんの一部に過ぎません。 さらに多くの新機能がリリースされ、生成 AI アプリケーションの開発がはるかに簡単になりました。 SageMaker 新着SageMaker は、Amazon Web Services が長年注力してきたプロジェクトです。主な機能は、機械学習モデルの構築、トレーニング、デプロイです。 スワミ氏は本日のカンファレンスで、顧客が生成 AI モデルをより簡単に構築、トレーニング、展開できるようにするいくつかの新機能を発表しました。 まず、 SageMaker HyperPod機能があります。 ご存知のように、これまでは基本モデルは単一の AI チップを使用してトレーニングするには複雑すぎることが多く、複数のプロセッサに分割する必要がありましたが、これは技術的に複雑な作業でした。 SageMaker HyperPod はオンデマンドの AI トレーニング クラスターへのアクセスを提供し、開発者はポイント アンド クリック コマンドと比較的単純なスクリプトの組み合わせによってクラスターを構成できるため、インフラストラクチャを手動で構成するよりもはるかに高速です。 スワミ氏はイベントで次のように述べた。
SageMaker HyperPod は、AI トレーニング クラスターのセットアップ プロセスを自動化するだけでなく、そのメンテナンスも自動化します。 顧客クラスター内のインスタンスがオフラインになると、組み込みの自動化ソフトウェアが自動的に修復を試行します。トラブルシューティングの試行が成功しない場合は、SageMaker HyperPod が障害が発生したノードを新しいノードに交換します。 場合によっては、基本モデルのトレーニングに数週間または数か月かかることがあります。障害により基盤となる AI インフラストラクチャがオフラインになった場合、開発者はトレーニングを最初からやり直す必要があり、プロジェクトに大幅な遅延が生じる可能性があります。 これを回避するために、SageMaker HyperPod はトレーニング中に AI モデルを定期的に保存し、最新のスナップショットからトレーニングを再開する機能を提供します。 それだけでなく、各 SageMaker HyperPod クラスターは、Amazon Web Services によって開発された一連の分散トレーニング ライブラリで事前構成されています。 これらのライブラリは、開発者のモデルをクラスター内のチップ全体に自動的に分散し、そのモデルのトレーニングに使用されるデータをより小さく管理しやすい部分に分割します。 次に、推論の面では、Amazon Web Services がSageMaker Inference機能を開始しました。 その登場により、モデルの導入コストとレイテンシの削減に役立ちます。新しい推論機能により、顧客は単一のエンドポイントに 1 つ以上の基本モデルを導入し、それらに割り当てられるメモリとアクセラレータの量を制御できるようになります。 Amazon Web Services はイベントで、コスト削減と効率改善の具体的な成果も紹介しました。
機械学習モデルを構築するためのノーコードインターフェースであるSageMaker Canvasも更新されました。 自然言語で直接処理できるようになりました。 チャット インターフェイスでは、SageMaker Canvas は、使用しているデータベースに関連するガイド付きプロンプトをいくつか提供します。また、独自のプロンプトを作成することもできます。 たとえば、「データ品質レポートを準備する」、「特定の条件に基づいて行を削除する」などと言って、必要な操作を実行するように依頼できます。 … 全体として、今日の SageMaker の多くの機能アップデートにより、モデルの構築、トレーニング、およびデプロイメントが大幅に簡素化されました。 データも取得されている生成 AI を最大限に活用するには、強力なデータ基盤が不可欠です。 スワミ氏はその場で、強力なデータ基盤は包括的、統合的、そして管理されたという3つの点を満たす必要があると述べた。 これらの機能に関して、Amazon Web Services も本日のカンファレンスで対応する新機能を発表しました。 1 つ目は、より効率的な検索とプロセスを実現できるベクター エンジン用のOpenSearch Serverlessです。 。 第二に、 DocumentDBとDynamoDBにはベクトル関数も追加され、ユーザーは複数の種類のデータを一緒に保存できるようになりました。 さらに、 MemoryDB for Redisも更新され、ベクトル検索がサポートされるようになり、応答時間が短縮され、1 秒あたり数万件のクエリを処理できるようになりました。 分析データベースに関しては、Amazon Web Services がAmazon Neptune Analyticsをリリースしました。これにより、開発者は膨大な量のグラフデータを数秒で調べることができ、より高速なベクトル検索もサポートされます。 データの「統合」特性に関して、Amazon Web Services は依然として「ゼロ ETL」アプローチ、つまり Amazon S3 を活用した OpenSearch Service ゼロ ETL 統合に準拠しており、1 つのツールのみを使用して S3 内のすべての運用データを分析できます。 最後に、「ガバナンス」の面では、Amazon Web Services の新機能としてClean Rooms MLがあります。 これにより、ユーザーは基礎となるデータを共有することなく、顧客と機械学習モデルを適用できるようになります。 もう一つビッグモデルの開発を推進する上で、Amazon Web Servicesは独自の「遊び方」を持っていると言えるでしょう。 独自の大規模モデルを開発するだけでなく、他の大規模モデルにも AI インフラストラクチャと AI ツールを提供し、それらのモデルもより優れた開発が行えるようにしています。 それで、両者の間には対立や競争が起こるのでしょうか? Qubit と Amazon Web Services のデータベースおよび移行サービス担当副社長 Jeff Carter 氏とのやり取りの中で、彼は次のような見解を述べました。
|
<<: 脳コンピューターインターフェースにおける重要な進歩!国内チームが「フルスペクトル中国語解読」に成功:トップ3の正解率は100%に迫る
[[154315]]決定木分類アルゴリズム決定木誘導は古典的な分類アルゴリズムです。これは、トップダ...
光ファイバーを光子のメモリとして使用し、光子メモリを使用してフォールトトレラント量子コンピューティン...
1月25日、人工知能のスタートアップ企業OpenAIは設立以来、常にオープン性と透明性の原則を堅持し...
[[281456]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
[[337082]]最近、グラスゴー大学コンピューティング科学学部のデータサイエンス研究者であるアレ...
ビッグデータと高性能コンピューティング リソースにアクセスすることで、企業は新しい人工知能ツールと機...
RFID 技術は、識別距離が長く、速度が速く、干渉に対する耐性が強く、複数のターゲットを同時に識別で...
[[431488]]テルネットTelnet プログラムの目的は、ネットワーク経由でリモート ログイン...
IBM は、ガートナー社の 2021 年版クラウド AI 開発者サービス マジック クアドラントお...
いろいろ検索してみたところ、インターネット上にはまだ人工知能に関する本のリストがないので、自分で作っ...
Amazon Kendra は、自然言語処理やその他の機械学習技術を使用してエンタープライズ検索を...