OpenAI の謎の Q* プロジェクトに関する新たな情報があります。 今朝早く、54ページに及ぶGoogle文書がインターネット上で出回り始め、OpenAIが「2027年までに完全なAGIを実現する計画」であることが明らかになった。 内部告発者は、マスク氏に「危害を加え続ける」ことを望まなかったため、この文書を公開することにしたと述べた。彼は、マスク氏が起こした訴訟がAGIの遅延を引き起こしたと考えている。 写真 △文書の表紙はOpenAIの公式ではなく内部告発者によって作成されたこのニュースが発表されるやいなや、ネット上では騒然となり、AGIの実現にはそれほど時間はかからないのではないかと考える人もいたほどだ… 写真 もちろん、文書の出所が不明であり、その信憑性を検証することはできないと考え、その信憑性を疑問視する人もいます。 写真 それで、この激しく議論されている衝撃的な文書には何が書かれているのでしょうか? シリーズのリリース計画を再調整この文書では、OpenAI が 125T (兆) 個のパラメータを持つ大規模なマルチモーダル モデルをトレーニングし、Q* がモデルの第一段階であることを示しています。 このモデルは、もともと2025年に発売が予定されていたGPT-5だそうだ。2023年12月にトレーニングが完了し、IQは48に達した。 後続のQ* 2024とQ* 2025(それぞれ2026年と2027年に発売予定)のIQは96と145になると考えられています。 IQ 96 はすでに平均的な人間のレベルですが、145 は天才レベルです。 しかし残念なことに、推論にかかるコストの高さとマスク氏の訴訟の影響により、この一連の計画は延期され、対応するモデルの名前が変更された。 写真 内部告発者によると、GPT-4がトレーニングを完了した2022年8月には、AGIはすでに兆候を見せ始めていたという。 GPT4 では AGI はすでに存在するのでしょうか?内部告発者は、ニューラル ネットワークのパラメーターは生物のシナプスのようなものだと述べました。パラメーターが大きいほど (シナプスが多いほど)、パフォーマンスはよりスマートになります。 GPT-2 には 15 億の接続があり、これはマウスの脳 (約 100 億のシナプス) よりも少ないです。一方、GPT-3 には 1750 億の接続があり、これは猫の脳に近いです。 2020年にGPT-3がリリースされた後、このパラメータの数が人間の脳のシナプスの数に近いことから、約600倍の大きさで1兆個のパラメータを持つモデルの性能について多くの人が推測し始めました。 文書の著者は、ブリティッシュ・オープン・フィランソロピーの学者、ルーカス・フィンヴェデン(ランレイン)氏の見解を引用し、モデルのパラメータの数に基づいて、AIのパフォーマンスを予測できるようになると述べた。 写真 人間の脳には約 2×10^14 (200 兆) 個のシナプスがあり、これはニューラル ネットワークのパラメータ数 (緑の線) とほぼ同等です。 Lanrian が提示した推定予測によれば、AI のパフォーマンスはパラメータの数とともに人間のレベルに達するようです。 写真 AI のパフォーマンスは実際にパラメータの数に基づいて予測でき、約 100 兆個のパラメータがあれば人間レベルのパフォーマンスを発揮するのに十分であると仮定すると、AGI がいつ登場するかという問題は、エクサスケール AI モデルがいつ登場するかという問題になります。 OpenAIが1兆パラメータのモデルを開発しているという噂が最初に浮上したのは2021年夏。これはアルトマン氏が投資する企業、セレブラスのCEOアンドリュー・フェルドマン氏がWired誌のインタビューで明らかにした。 写真 同年9月、ウルトラマンはAC10のオンライン集会と質疑応答セッションでこの計画の存在を認めた。 その後すぐに、GPT-4がモデルであるという噂がインターネット上で浮上し、Ultramanを含むOpenAIの従業員が急いでその噂を反論した。 OpenAI の公式見解は、GPT-4 に 1 兆個のパラメータがあるという主張はまったくのナンセンスであるというものですが、文書の著者は、これは完全に真実ではないと考えています。著者の見解では、GPT-4 はこの 1 兆個のパラメータ モデルのサブセットです。 写真 内部告発者はまた、OpenAIはGPT-4が2022年8月に「トレーニングを完了した」と主張したが、8月から10月にかけて「巨大な」マルチモーダルモデルのトレーニングが行われていたと考えられていると述べた。 彼は、OpenAI が嘘をついたか、GPT-4 が最初のトレーニング ラウンドを完了した後、8 月から 10 月の間に追加のトレーニングを受けたかのどちらかであると推測しました。重要なのは、この期間が 1 兆ドルのモデルをトレーニングするのに必要な時間に非常に近いことです。 しかし、DeepMindが2022年に発表したChinchillaは、比較的小さなパラメータでより大きなパラメータを持つモデルを打ち負かしており、パラメータの数だけに基づいてモデルの性能を予測する方法は精度が十分ではないことが示されています。 これに対して、OpenAIのグレッグ・ブロックマン社長は、これまで信じていたスケーリングの法則に欠陥があることに気づき、適応するための対策を講じたと述べた。 さらに、内部告発者は、新たな追加により、この兆レベルのモデルは人間と同じレベルに到達できるようになると考えています... この暴露の信憑性については、一方では、その中で引用されている人々の中には、OpenAI の行動について正確な予測をした人もいます。 しかし一方で、このニュースを報じたツイッターブロガーは、ツイートを合計2回しか投稿しておらず、しかもそれらは同じ日に投稿されたものだった。 写真 したがって、読者はこの文書の内容の信頼性について合理的に考える必要があります。 ドキュメントアドレス: https://drive.google.com/file/d/1xlRDbMUDE41XPzwStAGyAVEP8qA9Tna7 |
>>: 7BモデルはGPT4-Vを超えます! HKUST などが「グラフ推論質問回答」データセットを公開 GITQA: 視覚的なグラフは推論能力を向上させることができます
マスク氏の世界で「脳コンピューターインターフェース」を開発している企業、Neuralink は本日、...
公開されたばかりの Logjam 脆弱性 (FREAK 脆弱性のバリエーション) に関する情報はブラ...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
この「横歩き」マイクロロボットはとってもかわいいです!サイエンス・ロボティクス誌5月号に、サブミリメ...
爆発的な人気を博している大規模モデルは、「汎用ロボットエージェント」に関する研究を再構築しています。...
OpenAIのドラマはまだ終わっておらず、多くのとんでもない行為が暴露されている。アルトマン氏を解雇...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
本日、Xiaomi は、弾性探索 (マクロ + ミクロ) に基づく超解像で驚くべき結果を達成した新し...
人工知能における画像処理人工知能には画像処理のためのさまざまなタスクがあります。この記事では、物体検...
昨日、第3回世界人工知能大会が予定通り開催され、ジャック・マー氏、ロビン・リー氏、任宇新氏など国内の...
近年、ロボット産業は急速に発展しており、工業、農業、サービスなど多くの分野でロボットが見られるように...
人工知能技術の発展に伴い、人工知能はあらゆる分野で広く利用されるようになり、人類社会に広範かつ深遠な...
大規模モデルの時代では、視覚言語モデル (VLM) のパラメータは数百億、さらには数千億にまで拡大し...