8月27日、OpenAIのチャットボットChatGPTは世界中で人気となっているものの、重要な分野で人間の専門家に取って代わるにはまだまだ遠いことが新たな研究で明らかになった。ハーバード大学医学部付属のブリガム・アンド・ウィメンズ病院の研究者らは、ChatGPTによって生成されたがん治療計画には間違いがたくさんあることを発見した。 JAMA Oncology誌に掲載されたこの研究では、ChatGPTにさまざまな癌症例の治療オプションについて質問したところ、回答の3分の1に誤った情報が含まれていたことが判明した。この調査では、ChatGPT は真実の情報と虚偽の情報を混在させる傾向があり、どの情報が正確であるかを識別するのが困難であることも指摘されています。 研究の共著者であるダニエル・ビターマン博士は、「正しい情報に誤情報が混じり、専門家でさえ間違いを見つけるのが困難だったことに驚いた」と述べている。また、「大規模な言語モデルは、非常に説得力のある応答を提供するように訓練されているが、正確な医学的アドバイスを提供するようには設計されていない。応答の誤り率と不安定性は、臨床現場で対処する必要がある重要な安全性の問題である」と付け加えた。 ChatGPTは2022年11月のローンチ後、一夜にして大ヒットとなり、2か月後にはアクティブユーザー数1億人に到達しました。 ChatGPT の成功にもかかわらず、生成 AI モデルは依然として「幻覚」を起こしやすく、誤解を招くような情報や完全に誤った情報を自信を持って提供してしまいます。 IT Homeは、主に管理業務の簡素化を目的として、人工知能を医療分野に統合する取り組みがすでに進行中であると指摘した。今月初め、大規模な研究により、乳がんの検査に人工知能を使用することは安全であり、放射線科医の作業負荷をほぼ半分に削減できる可能性があることが判明した。ハーバード大学のコンピューター科学者は最近、このモデルの最新バージョンであるGPT-4が米国の医師免許試験に簡単に合格できることを発見した。これは、GPT-4が一部の医師よりも優れた臨床判断力を持っていることを示唆している。 それでも、ChatGPT のような生成モデルには精度の問題があるため、近い将来に医師に取って代わることはなさそうです。 JAMA Oncology誌の研究では、ChatGPTの回答の12.5%が「錯覚」であり、進行した病気に対する局所治療や免疫療法について尋ねられたときに誤った情報を与える可能性が最も高いことが判明しました。 OpenAIはChatGPTが信頼できない可能性があることを認めており、同社の利用規約では、同社のモデルは医療情報を提供することを目的としたものではなく、「深刻な病状の診断や治療サービスを提供する」ために使用すべきではないと警告している。 |
<<: GPT-4 よりも優れており、クローズドソース モデルよりも優れています。コードラマの謎のバージョンが公開
[51CTO.com クイック翻訳] 人工知能が私たちの日常生活に入り込んでいることに気づいています...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[353997]]人工知能は誕生以来、成功と失敗の時期を経験し、技術の進歩も限界と放棄に直面してき...
ロボティック・プロセス・オートメーション (RPA) はもはや目新しいものではなく、進化し成熟しつつ...
スマート車両ネットワーキング、インテリジェンス、アーキテクチャ技術の発展に伴い、自動車ではファームウ...
今日では、盗作された記事や作品が出版され、盗作者がそれを無料で使用したり、利益を得たりすることは珍し...
今日、多くの人がスマートホームが提供するものを活用したいと考えています。スマートホームは、快適で便利...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
新しくオープンしたGPTストアが「混沌」していることで有名になるとは思ってもいませんでした。見てくだ...
企業は、AI を搭載し、AI 向けに構築されたデータベースを検討する必要があります。最適化と使いやす...
インタビューゲスト | アンジー・チュー、ロージー・チャン編集者 | ユン・チャオ海を観察する人は、...