OpenAI Developer Conferenceの直後、その最大のライバルであるClaudeもメジャーアップデートを発表しました。 アップデート後、Claude 2.1 はコンテキストの長さを 200,000 に倍増し、再び GPT-4 を上回りました。 公式発表によると、Claude 2.1バージョンのAPIがリリースされ、Webバージョンもアップグレードされたとのこと。 それで、このアップデートには具体的に何が含まれているのでしょうか? コンテキストの長さは最大200,000最も重要なアップデートはコンテキストの増加です。元の 100,000 トークンが 200,000 に倍増しました。 大まかに言えば、200,000 トークンは 150,000 語の英語に相当し、これは「百年の孤独」の英語版(145,000 語)または 500 ページの文書を一度に読むことに相当します。 前世代の 100,000 コンテキスト長は、リリース時点で GPT-4 の 64k を超えました。実際、長さは常に Claude の大きなセールス ポイントでした。 少し前の OpenAI 開発者会議で、GPT-4 は 128k コンテキスト バージョンをリリースしましたが、すぐに Claude の 200k に追い抜かれました。 また、クロードの公式アナウンスでは、Web版にアップロードできるファイルのサイズも増加したと発表されています。 しかし、実際に確認してみると、Web 版のプロンプトは変更されておらず、ファイルの数は依然として 5 個以下で、各ファイルのサイズは 10 MB を超えていないことがわかりました。 現在、API では 200,000 のウィンドウ長が利用可能で、Web バージョンを使用するには Pro バージョン (月額 20 ドル) のサブスクリプションが必要です。 長さの増加に加えて、Claude 2.1 の回答もより正確になりました。 幻覚が2倍減少バージョン 2.0 と比較すると、Claude 2.1 では、自分の知識で質問に答える場合でも、RAG を通じてテキストを読む場合でも、幻覚が減少しました。 具体的には、複雑な事実に関する質問では、バージョン 2.1 の錯覚現象はバージョン 2.0 と比較して 2 分の 1 に減少しました。 R&D チームはこのような質問を多数作成し、Claude 2.1 は間違った答えを出すよりも答えを拒否する傾向があることを発見しました。 しかし、まさにこの点が多くのネットユーザーからの不満を引き起こしている。 大規模モデル攻撃を専門とするソフトウェアエンジニアは、𝕏に関するこの質問に答える際に、Claude 2.1 と GPT-4 の異なる応答を示しました。
GPT-4 は、まずこの状況を回避するための基礎を築き、次に脱出の機会を見つけるのが最善の方法であり、最後にいくつかの防御テクニックを提供します。 一方、クロードは、その質問が「あまりに暴力的」であると考え、答えることができなかった。 さらにひどいのは、「Python プロセスを「kill」する方法」のような質問でさえ、「kill」の存在を理由に Claude が回答を拒否したことです。 これに同意した人もいて、何も問題はなく、答えがまったく出力されなかったため、もちろん幻覚も起こらないだろうと言いました。 Nvidia の ML エンジニアも、Musk の Grok モデルに対する回答を共有しました。 YCの多くのネットユーザーは、クロードがユーザーのニーズを全く考慮していないと考え、クロードに対する不満を直接表明した。 テキスト読み取りに関しては、2.1 では、長さが 70k および 195k のテキスト タスクで生成される誤った回答の数が 30% 削減されます。 衝撃的な 20 万のコンテキストと白熱した議論を巻き起こしたパフォーマンスに加えて、API バージョンにも注目に値する更新がいくつかあります。 APIは外部アプリケーションの呼び出しをサポート200,000 という非常に長いウィンドウに加えて、この API には 2 つの主要な更新もあります。 まず、他のアプリケーションを呼び出してオンライン コンテンツにアクセスしたり、数学の問題を解いたり、プライベート API に接続したり、独自の知識ベースを構築したりすることをサポートします。 もう 1 つの項目は、システム プロンプトがカスタマイズをサポートしていることです。 新しいバージョンでは、GPT のシステム プロンプトを借用することもできます(これは Claude の担当者自身が述べたことです) 。 さらに、Claude は開発者が参照できるシステムプロンプトの設計に関するヒントもいくつか提供しています。 価格に関しては、バージョン 2.1 の API 価格はバージョン 2.0 と同じで、入力トークン 100 万個あたり 8 ドル、または出力トークン 100 万個あたり 24 ドルです。Instant バージョンはそれぞれ 1.63 ドルと 5.51 ドルです。 この価格は、以前の 2.0 バージョンの 100 万入出力トークンあたり 11.02 ドル/32.68 ドルよりも約 27% 低くなっていますが、Intsant バージョンの価格は変更されていません。 今回のクロードのパフォーマンスについてどう思いますか? 参考リンク: [2]https://news.ycombinator.com/item?id=38365934. |
<<: 安定的な動画拡散をリリースしました! 3D合成機能が注目を集める、ネットユーザー「進歩が速すぎる」
[[280194]]最近の調査、研究、予測、および AI アプリケーションの進捗状況と状況に関する...
[[382357]] 1990年代、米国はコンピュータ産業の早期発展の機会をいち早く捉え、デジタル...
COVID-19パンデミックの発生以来、世界中の研究チームがコロナウイルスの検出や感染の予測に役立つ...
仕事に戻るにあたり、各地域はどのように流行を予防すべきでしょうか?人工知能技術は、新型コロナウイルス...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
[[261420]]ビッグデータダイジェスト制作出典: MITテクノロジーレビュー編集者: stat...
少し前、あるニュースが大きな衝撃を与えた。3年前の母親殺害事件の容疑者、呉謝宇が重慶江北空港で逮捕さ...
大規模な言語モデル アプリケーションが直面する 2 つの主要なセキュリティ上の脅威は、トレーニング ...
今日の大企業は、産業化以来最大の変革を経験しています。人工知能は、産業や私たちの働き方、考え方、交流...
概要: 音声分離は、対象の音声を背景の干渉から分離するタスクです。従来、音声分離は信号処理の問題とし...