今日では、驚くほど人間らしい文章の一部は、実際には大量の人間の文章でトレーニングされた AI システムによって生成されています。人々は、流暢な言語は思考し、感じる人間から生まれるものだと想定するように条件付けられているため、反証を見つけるのは困難であり、AI モデルが流暢に表現できるということは、それが人間のように思考し、感じるということであると想定する傾向があります。 そのため、元 Google エンジニアが最近、Google の AI システム LAMDA は自己認識機能を備えていると主張したのも、驚くには当たらない。なぜなら、LAMDA は自身の感情に関するテキストを巧みに生成できるからだ。この事件とその後のメディア報道により、人間の言語の計算モデルが生きているという主張に疑問を投げかける記事や投稿が数多く発表されました。 Google の LaMDA などのモデルによって生成されたテキストは、人間が書いたテキストと区別するのが難しい場合があります。この素晴らしい成果は、文法的に正しく意味のある言語を生成できるモデルを構築する数十年にわたるプログラムの結果です。人間の言語に近いデータとルール セットを備えた今日のモデルは、いくつかの重要な点でこれらの初期の試みとは異なります。まず、彼らは基本的にインターネット全体についてトレーニングを受けます。 2 番目に、隣接する単語間だけでなく、離れた単語間の関係も学習できます。 3 番目に、内部的に非常に調整されているため、設計したエンジニアでさえ、なぜある単語のシーケンスが生成され、別の単語のシーケンスが生成されないのか理解するのが困難です。 大規模な AI 言語モデルは流暢な会話を行えます。しかし、彼らには伝えるべき全体的なメッセージはなく、彼らのフレーズは、彼らが訓練されたテキストから抽出された一般的な文学的なルーチンに従う傾向があります。人間の脳には、言葉の背後にある意図を推測するシステムが組み込まれています。会話をするたびに、脳は自動的に会話相手のメンタルモデルを構築します。次に、相手の発言を基に、その人の目標、感情、信念をモデルに記入します。発話からメンタルモデルへのジャンプはシームレスで、完全な文を受け取るたびにトリガーされます。この認知プロセスにより、日常生活で多くの時間とエネルギーが節約され、社会的な交流が大幅に促進されます。しかし、AI システムの場合は、何もないところからメンタルモデルを構築するため失敗します。 大規模な AI 言語モデルに人間性があると人々に思わせるのと同じ認知バイアスが、実際の人間を非人道的に扱う原因にもなり得るというのは、悲しい皮肉です。社会文化言語学の研究によると、流暢な表現と流暢な思考の間に強いつながりがあると想定しすぎると、自分とは異なる人々に対する偏見につながる可能性があることが示唆されています。たとえば、外国語のアクセントを持つ人は、知能が低いとみなされることが多く、適性がある仕事に就ける可能性が低いとされます。同様の偏見は、米国南部英語など、あまり高貴ではない方言に対しても、手話を使用する聴覚障害者に対しても、吃音などの言語障害を持つ人々に対しても存在する。こうした偏見は極めて有害であり、根拠がないことが繰り返し証明されている人種差別的、性差別的な思い込みにつながることがよくあります。 |
>>: ディープラーニングの「記憶喪失」に応えて、科学者たちは類似性に基づく重み付けインターリーブ学習を提案し、PNASに掲載された。
[[414411]]近年、顔認識技術は、身元認証からコミュニティのアクセス制御まで幅広く使用され、多...
[[254687]]少し前に同時通訳者がiFlytekを「AI同時通訳詐欺」と非難し、ネット上で騒...
2月6日、崑崙万為はMoE大規模言語モデルの新バージョン「天宮2.0」と「天宮AIスマートアシスタン...
現在、中国で人工知能の分野で最も多くの投資を受けている5つのサブセクターは、コンピュータービジョン(...
[[399107]]ウー・ウェイ UiPath Greater China 社長前回 UiPath...
人間の言語を習得することはコンピューターにとって依然として課題だが、グーグルのエンジニアは人工知能(...
米国の民主党と共和党は常に深刻な対立関係にあるが、両党は中国との対決という一つの問題において稀な一致...
最適化はあらゆる分野で重要です。一部の最適化は初期化から始まり、その後ソリューションを繰り返し更新し...
世界初の試験管ベビーは1978年に英国で誕生した。それ以来、人工生殖技術は継続的に改良されてきました...