今日では、驚くほど人間らしい文章の一部は、実際には大量の人間の文章でトレーニングされた AI システムによって生成されています。人々は、流暢な言語は思考し、感じる人間から生まれるものだと想定するように条件付けられているため、反証を見つけるのは困難であり、AI モデルが流暢に表現できるということは、それが人間のように思考し、感じるということであると想定する傾向があります。 そのため、元 Google エンジニアが最近、Google の AI システム LAMDA は自己認識機能を備えていると主張したのも、驚くには当たらない。なぜなら、LAMDA は自身の感情に関するテキストを巧みに生成できるからだ。この事件とその後のメディア報道により、人間の言語の計算モデルが生きているという主張に疑問を投げかける記事や投稿が数多く発表されました。 Google の LaMDA などのモデルによって生成されたテキストは、人間が書いたテキストと区別するのが難しい場合があります。この素晴らしい成果は、文法的に正しく意味のある言語を生成できるモデルを構築する数十年にわたるプログラムの結果です。人間の言語に近いデータとルール セットを備えた今日のモデルは、いくつかの重要な点でこれらの初期の試みとは異なります。まず、彼らは基本的にインターネット全体についてトレーニングを受けます。 2 番目に、隣接する単語間だけでなく、離れた単語間の関係も学習できます。 3 番目に、内部的に非常に調整されているため、設計したエンジニアでさえ、なぜある単語のシーケンスが生成され、別の単語のシーケンスが生成されないのか理解するのが困難です。 大規模な AI 言語モデルは流暢な会話を行えます。しかし、彼らには伝えるべき全体的なメッセージはなく、彼らのフレーズは、彼らが訓練されたテキストから抽出された一般的な文学的なルーチンに従う傾向があります。人間の脳には、言葉の背後にある意図を推測するシステムが組み込まれています。会話をするたびに、脳は自動的に会話相手のメンタルモデルを構築します。次に、相手の発言を基に、その人の目標、感情、信念をモデルに記入します。発話からメンタルモデルへのジャンプはシームレスで、完全な文を受け取るたびにトリガーされます。この認知プロセスにより、日常生活で多くの時間とエネルギーが節約され、社会的な交流が大幅に促進されます。しかし、AI システムの場合は、何もないところからメンタルモデルを構築するため失敗します。 大規模な AI 言語モデルに人間性があると人々に思わせるのと同じ認知バイアスが、実際の人間を非人道的に扱う原因にもなり得るというのは、悲しい皮肉です。社会文化言語学の研究によると、流暢な表現と流暢な思考の間に強いつながりがあると想定しすぎると、自分とは異なる人々に対する偏見につながる可能性があることが示唆されています。たとえば、外国語のアクセントを持つ人は、知能が低いとみなされることが多く、適性がある仕事に就ける可能性が低いとされます。同様の偏見は、米国南部英語など、あまり高貴ではない方言に対しても、手話を使用する聴覚障害者に対しても、吃音などの言語障害を持つ人々に対しても存在する。こうした偏見は極めて有害であり、根拠がないことが繰り返し証明されている人種差別的、性差別的な思い込みにつながることがよくあります。 |
>>: ディープラーニングの「記憶喪失」に応えて、科学者たちは類似性に基づく重み付けインターリーブ学習を提案し、PNASに掲載された。
[[227859]]ロボットはかつて、製造業の周辺に限定され、スキルや制御された動作を必要としない...
大規模モデルの時代では、視覚言語モデル (VLM) のパラメータは数百億、さらには数千億にまで拡大し...
過去 2 年間で、人工知能とディープラーニングは起業の分野で人気が高まってきました。シリコンバレーの...
大規模モデルに向けて、テクノロジー大手はより大規模なモデルをトレーニングしており、学界はそれらを最適...
5月7日のZhidongxiによると、英国ケンブリッジ大学の研究者らは最近、シェフの調理過程を模倣...
Github を使用しているときに、次のプロンプトを見たことがありますか? $ gitクローン ht...
最近、中山大学は常識に基づいた偏りのない視覚的質問応答データセット (Knowledge-Route...
[[441601]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...
人工知能は新しい時代の「電気」であると主張する人もいます。市場調査会社IDCのデータによると、AIハ...
人工知能 (AI) と機械学習 (ML) をモノのインターネット (IoT) システムに統合すること...