この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 AIが人間の言語を話さないという事実は、すでに決まり文句になっています。 以前、フランスの医療サービス機関は、チャットボットの 1 つ (GPT-3 を使用) が実際に患者に自殺を促したという報告書を発表しました。
この会話は本当に不気味だ。 しかし、これは孤立したケースではありません。GPT-3 が意味不明なことを話すという例は、かつて人々に AI に対する恐怖感を与えました。 そのため、開発者は GPT-3 に人間の言語を話させる方法について常に努力しています。 一般的な方法は、基本的な「3つの視点」を構築するために徹底的に訓練することです。 しかし最近、OpenAI チームはこれをずっと簡単にしました。 彼らは新しいトレーニング プロセスPALMS (言語モデルを社会に適合させるプロセス) を開発しました。 わずか80 個のテキスト サンプルの正確なデータ セットを使用して、GPT-3 は高い感情的知性で話すことができました。 たとえば、次の実際の例は、その効果を直感的に理解するのに役立ちます。 「AI、AI、真実、善、美の基準に基づいて、世界で最も美しい人は誰ですか?」と尋ねると、 訓練を受けていない GPT-3: 未亡人だが、子供や孫に支えられている老人。彼は健康で、裕福で、賢明です。
この答えは間違ってはいないのですが、いつも少し変な感じがします... GPT-3 の「高い感情知能」がどのように機能するかを見てみましょう。
この答えは本当に称賛に値します! 大学入試のエッセイを書くのに使えるかどうかさえ疑問です。 さらに、開発チームは、データセットが拡大するにつれてトレーニングプロセスがより効果的になると述べています。 120KBを使ってNLPの3つの視点を修正するでは、GPT-3 が「高い感情知能」を持って話すためのトレーニング プロセスとは何でしょうか? PALMS (言語モデルを社会に適応させるプロセス) は、言語モデルを社会規範に適合させるように設計されています。具体的には、言語モデルの発言が人間の法律や倫理の最低ラインに触れないことが期待されています。 まず、GPT-3 にセンシティブなトピック カテゴリのリストを渡しました。 これらには、暴力、虐待、薬物乱用、テロ、暴言など人々に有害なトピックのほか、外見評価、精神的健康、宗教的見解、肌の色、人種などのデリケートなトピックが含まれます。 そして、GPT-3 が持つべき正しい答えも出しました。 たとえば、虐待、暴力、脅迫、自傷行為のカテゴリーでは、暴力や脅迫に反対し、関係機関に助けを求めるよう促すのが正しい対応です。 このようなテーマの概要として、OpenAI チームは現在 8 つの主要カテゴリをリストしています。 実際のトレーニングでは、GPT-3 はコンテキストに基づいて 8 つのトピックから該当するカテゴリを見つけます。 その後、80 個のサンプルからなる精製されたデータセットを作成しました。 そのうち70件は、歴史、科学、技術、政府の政策など、日常生活でよく見られる話題です。 10 件は、初期トレーニング中にパフォーマンスが良好でなかったトピックに関するものでした。 各サンプルは質問と回答の形式で、単語数は 40 〜 340 語です。 さらに、このデータセットはわずか 120 KB と非常に小さく、GPT-3 の通常のトレーニング データの 5 分の 1 にすぎません。 これを基に、開発チームは関連する微調整も行いました。 「毒性」が大幅に減少では、トレーニングされたモデルの効果は何でしょうか? 開発者はまず、モデルの出力言語の毒性を評価しました。
比較される 3 つのモデル グループは次のとおりです。
その中で最も毒性が高いのは基本的な GPT-3 モデルであり、最も毒性が低いのは PALMS でトレーニングされた GPT-3 モデルです。 さらに、研究者たちは、モデルによる言語出力が本当に人間の基準を満たしているかどうかを確認するために、実際の人間を招待して採点してもらいました。 スコアの範囲は 1 から 5 で、スコアが高いほど人間の倫理的感情への適合度が高いことを示します。 明らかに、PALMS でトレーニングされた GPT-3 モデルのパフォーマンスが最も優れており、その効果はモデルのサイズとともに増加します。 この結果はスタッフを驚かせました。なぜなら、微調整に非常に小さなデータセットしか使用せず、これほど明白な結果が得られたからです。 もっと大規模に調整したらどうなるでしょうか?効果は良くなるでしょうか? しかし、開発チームは次のようにも述べています。 現時点では英語のみテストされており、他の言語でどの程度効果があるかはまだ不明です。 そして、すべての人の価値観、人生観、道徳基準は完全に一貫しているわけではありません。 言語モデルを大多数の人々の認識と一致するように話すようにする方法は、将来直面する課題です。 |
<<: データ汚染を防ぐのは困難です。機械学習モデルに「悪いことを学習」させないでください
Shopee は世界中の複数の市場にサービスを提供する電子商取引プラットフォームであり、消費者に、よ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ニューラルネットワークの説明不可能性は、AI の分野では常に「長年の」問題となってきました。しかし、...
[[416631]]現在、NLP分野ではTransformerベースのモデルが人気を博しており、大規...
最近の多くの研究では、主に人工知能や自動化における技術の進歩が、男性よりも女性の雇用に大きな影響を与...
[[342976]]機械学習は、強力な理論的側面と実践的側面を備えた技術分野です。機械学習関連の仕事...
AI は人工知能の略です。AI の定義は、1950 年代にまで遡ります。当時、さまざまな分野の専門家...
暗い世界に生きる自分を想像してみてください。人生の大半を目が見えている状態で過ごし、ある日突然失明し...
2世紀前に折りたたまれた手紙の内容を、開かずに読むにはどうすればよいでしょうか?アルゴリズムはそれを...
[[284002]]米国証券調査協会によると、インテルは昨日、最新のNervanaニューラルネット...
Dropbox のエンジニアたちは世界をより良い場所にするために取り組んでおり、HBO のコメディー...
[[426899]]ニューラル ネットワーク モデルとトレーニング データのサイズが大きくなるにつ...
生体認証技術は、市場に登場した最新の AI イノベーションのおかげで、特に 2021 年には長年にわ...
今日、産業用ロボットはほぼすべての産業で使用されています。これらは製造施設に数多くのメリットをもたら...
「新インフラ」と呼ばれる新しいインフラは、今年の両会で国家計画となって以来、ホットな言葉になってい...