9月7日、スタンフォード大学の新たな研究により、人気の生成型人工知能(AI)チャットボット「ChatGPT」の機能が数か月にわたって変動していることが判明した。 スタンフォード大学のチームは、数か月にわたって ChatGPT がさまざまなタスクをどのように処理するかを評価しました。彼らは、ChatGPT の機能が時間の経過とともに一貫性を失っていることを発見しました。現在、ChatGPT には、無料の GPT-3.5 モデルと、よりスマートで高速な有料の GPT-4 バージョンの 2 つのバージョンがあります。 研究者らは3月にGPT-4が97.6%の精度で素数を識別し、数学の問題を効果的に解くことができることを発見した。 3か月後、その精度は2.4パーセントに低下しました。一方、GPT-3.5 は精度が 7.4% から 86.8% に向上し、大幅に改善しました。 研究者たちは、コードの記述と視覚的推論においても同様の変動があることに気づきました。スタンフォード大学のコンピューターサイエンス教授、ジェームズ・ゾウ氏は次のように述べている。「大規模な言語モデルを調整して、一部のタスクでのパフォーマンスを向上させると、他のタスクでのモデルのパフォーマンスに悪影響を与える予期しない結果が多数発生する可能性があります。モデルが質問に答える方法にはあらゆる種類の相互依存性があり、それが私たちが観察しているような動作の低下につながる可能性があります。」 研究者たちは、この結果はChatGPTのパフォーマンスの正確さを真に反映したものではなく、むしろモデルを微調整したことによる意図しない結果を示していると考えています。基本的に、 1 つのタスクを改善するためにモデルの一部を変更すると、他のタスクに影響が出る可能性があります。 ChatGPT がどのように動作するのか誰も知らず、そのコードはオープンソースではないため、なぜそうなるのかを突き止めるのは困難です。 時間が経つにつれて、研究者たちはChatGPTの応答の精度が低下するだけでなく、その理由を説明しなくなることに気づいた。 ChatGPT の動作方法により、そのパフォーマンスを調査して測定することが困難な場合があり、この研究では、ChatGPT のようなツールを駆動する大規模言語モデル (LLM) のパフォーマンスの変化を観察し評価する必要性を強調しています。この研究はarXivで公開されており、査読待ちです。こちらがリンクです。 |
<<: ユネスコは世界初の生成型AI教育ガイドを発行し、各国に関連法規制の策定、教師研修の実施を要請
機械知能、現実と仮想の境界線の曖昧化、そしてインターネットの継続的な進化は、私たちの生活に根本的な影...
先ほど、Lvs ロード バランシングの状態監視とトラブルシューティングについて紹介しましたが、Lvs...
[[353503]]画像ソース: https://pixabay.com/images/id-575...
2023 年は、大規模言語モデル (LLM) の台頭により、オープンソース分野にとって極めて重要な年...
執筆者 | Yun Zhao制作:51CTO テクノロジースタック(WeChat ID:blog)と...
人工知能技術の発展に伴い、携帯電話の翻訳ソフトを使って自分の言語をリアルタイムで翻訳したり、画像認識...
機械学習は、リアルタイムの需要予測、持続可能な物流、高度な予測分析など、大きなメリットをもたらします...
大規模モデルの「幻覚」問題は解決されつつあるのでしょうか?ウィスコンシン大学マディソン校とグーグルの...
人工知能は、特にソフトウェア開発の効率性の向上において、ソフトウェア開発を改善・加速し、プロジェクト...
現在、人類社会が直面している人工知能のセキュリティ問題は、人工知能のアルゴリズムとシステムの特性によ...
8月29日、国家発展改革委員会、科学技術部、工業情報化部、中国サイバースペース管理局、中国科学院、...