この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 人工ニューラルネットワーク(ANN)の学習方法は人間の脳の学習方法と非常に似ています。 おっしゃる通り、少なくとも言語処理に関しては、機械は人間に似ているようです。 まず次の図を見てください。 写真 青は人間の脳波信号を表し、赤は人工ニューラルネットワーク信号を表します。 人間の脳と機械は同じ音声を聞いたときにこのように反応します。 とても似ていませんか?驚きましたか? 実際、この写真は最近の研究によるもので、関連論文はネイチャーの関連誌であるサイエンティフィック・リポーツに掲載されています。 写真 これまで、人間の脳と機械の脳がどのように学習するかは常に謎でした。 「ニューラルネットワークは人間と同じように学習するかどうか」というテーマは常に議論の的となってきました。 では、人間と機械が「同様の方法で言語を処理する可能性が高い」という証拠は何でしょうか? 人工ニューラルネットワーク信号は人間の脳波信号とほぼ一致している人工ニューラルネットワークがどのように学習するかという謎を解明するために、カリフォルニア大学バークレー校の計算言語学者ガスパー・ベグシュ氏は、ジョンズ・ホプキンス大学の博士課程の学生アラン・ゾウ氏、ワシントン大学の神経科学者クリスティーナ・ジャオ氏とともに研究を行った。 この研究では、人間に簡単な音を聞かせ、その音を聞いた後に人間が発する脳波を収集しました。同時に、同じ音がニューラルネットワークに入力され、ニューラルネットワークによって生成された信号が分析されます。 両者を比較すると、結果は驚くほど似ています。 重要なのは、研究者らがさまざまなタスクに適した汎用ニューロンのネットワークをテストしたところ、非常に一般的なネットワーク(音声やその他の音に偏りがない)でも人間の神経コードとの対応が示されたことです。 それで、この研究は具体的にどのように行われたのでしょうか? まず、人間の脳と人工ニューラルネットワークの反応をよりよく比較するために、研究者らは英語を話す人14人とスペイン語を話す人15人を募集した。 その後、被験者には「バー」という単音節の音声が8分間ずつ再生され、2回繰り返された。 再生中、研究者らは各リスナーの脳幹(音を最初に処理する脳の部分)のニューロンの平均的な電気活動の変動を記録した。 研究者らは別に、同じ「バー」という音を2つの異なるニューラルネットワークセットに入力した。 1 セットのニューラル ネットワークは英語でトレーニングされ、もう 1 セットはスペイン語でトレーニングされました。 研究者が選択したニューラル ネットワーク構造は、Generative Adversarial Network (GAN) です。 GAN は、画像生成のために 2014 年に初めて提案されました。 GAN は、識別器とジェネレーターの 2 つのモジュールで構成されており、互いに学習してより良い出力を生成します。 具体的には、ジェネレーターが画像または音声のサンプルを作成し、識別器がそれがトレーニング サンプルにどれだけ近いかを判断してフィードバックを提供し、ジェネレーターが再び反応する、という動作を GAN が目的の結果を出力できるようになるまで繰り返します。 写真 この研究では、識別器は最初に英語またはスペイン語の音のセットでトレーニングされました。 次に、これらの音についてトレーニングされたことのないジェネレーターは、それらの音を生成する方法を見つけなければなりません。最初はランダムな音を発していましたが、識別器との約 40,000 回のやり取りを経て、ジェネレーターは徐々に正しい音を発するようになりました。このトレーニングの後、識別器は実際の音と生成された音をより正確に区別できるようになります。 識別器が訓練された後、研究者は「バー」という音を再生しました。研究者らは、音声の分析(脳幹の読み取りをシミュレートするため)に使用されたネットワーク内の人工ニューロン層に焦点を当て、ニューラル ネットワークの処理活動を記録し、識別人工ニューロンの平均活動レベルの変動を測定しました。 収集された人間の脳波信号と人工ニューラル ネットワーク信号を比較すると、次の図のような結果が得られます。 △英語を使った実験結果:青は人間の脳波、赤は人工ニューラルネットワーク信号 △スペイン語を使った実験結果:青は人間の脳波、赤は人工ニューラルネットワーク信号 これらの人工ニューラル ネットワーク信号は、人間の脳波信号と非常に一致していることがわかります。 これは、2 つのシステムが同様のアクティビティを実行していることも示しています。 この実験では、人間と機械の間にもう一つの興味深い類似点も明らかになった。脳波から、英語を話す被験者とスペイン語を話す被験者は「bah」音の聴覚認識が異なっていることがわかった(スペイン語を話す被験者は「pah」音をより多く聞いた)。 GAN 信号は、英語でトレーニングされたネットワークがスペイン語でトレーニングされたネットワークとは異なる方法で音を処理することも示しました。 「そして、これらの違いは同じ方向を向いています」とベグシュ氏は説明する。 英語話者の脳幹は、スペイン語話者よりもわずかに早く「bah」音に反応し、英語でトレーニングされた GAN も、スペイン語でトレーニングされたモデルよりもわずかに早く同じ音に反応しました。 人間と機械の反応時間の差はほぼ同じで、約1000分の1秒です。 これはまた、人間と人工ネットワークが「おそらく同様の方法で言語を処理している」というさらなる証拠をベグシュ氏に提供する。 チョムスキーは間違っているのか?この研究の結論は、実は1950年代に言語学者ノーム・チョムスキーが提唱した「人間は言語を理解する能力を持って生まれ、この能力は人間の脳に組み込まれている」という見解と矛盾している。 さらに、チョムスキーは普遍文法の概念も提唱しました。これは、人間の脳には一般的に言語習得メカニズムがあり、それによって言語の使い方を学習できるというものです。 チョムスキーの見解は間違っているのでしょうか? これに関して、一部のネットユーザーは次のように述べた。 ChatGPT は、言語を学習して理解するのに文法は必要ないということを実証しました。 写真 一部のネットユーザーも懐疑的だ。 人間の脳とニューラル ネットワークは同じものではありません。ニューラル ネットワークの計算時間を研究することで人間の脳を研究することには懐疑的であるべきです。 さらに、ニューラル ネットワークは人間の言語でトレーニングされていたため、この発言は観測されたタイミングから推測することはできません。 ベグシュ氏は「議論はまだ終わっていない」と述べた。 彼は、人間の脳とニューラルネットワークの類似点をさらに探究していくと述べている。例えば、脳幹が聴覚処理の一部を完了した後に大脳皮質から発せられる脳波が、GAN のより深い層で生成される信号と一致するかどうかをテストしている。 彼らは最終的に、機械と人間がどのように言語を学習するかを説明する信頼性の高い言語習得モデルを開発し、人間を被験者にした場合は不可能な実験を実施できるようにしたいと考えています。 ワシントン大学の神経科学者でベグシュ氏の研究チームの一員であるクリスティーナ・ジャオ氏は次のように述べた。
さらに、ベグシュ氏は、この道をどこまで進めることができるか、そして普遍的なニューロンが人間の言語にどれだけ近づくことができるかを調べようとしていると述べた。
人間の脳と人工ニューラルネットワークについてどう思いますか? ポータル: |
<<: Minglue TechnologyのCTO、Hao Jie氏との独占インタビュー:ビッグモデルも破壊され、製品の臨界点を見つける必要がある!
>>: 話題の論文「14行のコードがBERTを打ち負かす」に逆転の兆し!バグを修正すると、パフォーマンスは数秒で最悪になります
IDCはこのほど、2019年および今後10年間の中国の情報通信分野と技術応用に関するトップ10予測を...
編集者注:この記事はWeChatパブリックアカウント「脑极体」(ID:unity007)からのもので...
[[429170]]最近、外国メディアの報道によると、有名になる前のパブロ・ピカソは、必ずしも画材を...
7月4日、OpenAIのチャットボットChatGPTは先週、「Browse with Bing」とい...
[[388190]] • 食糧需要が増加するにつれて、世界は水の使用を管理する必要があります。 • ...
1. 畳み込みニューラルネットワーク畳み込みニューラル ネットワーク (CNN) は、人工ニューロン...
HVAC システムにおける AI の最も有望な側面の 1 つは、建物とその居住者の固有のニーズを学習...
1. AIフレームワークの重要性AIフレームワークは、人工知能のオペレーティングシステムであり、基本...
ビッグデータはクラウドコンピューティングを採用PaaS レイヤーの複雑な汎用アプリケーションは、ビッ...
「1セット100元で、身分証明書の表裏の写真、身分証明書を持っている写真、うなずいたり首を振ったり口...
最近、第7回ビジョンと学習セミナー(VALSE)が厦門大学で成功裏に終了しました。 VALSE は ...
ディープラーニング モデルを本番環境に導入することは、優れたパフォーマンスのモデルをトレーニングする...