この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 信じられないかもしれませんが、AI が脳と不思議なほどよく似た方法で音声を処理できることが証明されました。 構造的にも互いに対応している—— 科学者たちはAIにおける「視覚野」を直接的に特定した。 Meta AIや他の機関によるこの研究が投稿されると、すぐにソーシャルメディアで騒動が起こりました。多くの神経科学者やAI研究者が観戦に訪れました。 LeCun 氏はこれを「素晴らしい研究」と称賛しました。自己教師ありの Transformer レイヤーの活動と人間の聴覚皮質の活動の間には、確かに密接な相関関係があるからです。 一部のネットユーザーもこの機会を利用して冗談を言った。「マーカス、申し訳ないけど、AGIは本当にもうすぐ登場するよ。」 しかし、この研究は一部の学者の好奇心も呼び起こした。 例えば、マギル大学で神経科学の博士課程に在籍するパトリック・ミノー氏は次のように質問した。
では、これはどのような研究であり、どのようにして「この AI は脳のように機能する」という結論に至ったのでしょうか? AIは人間の脳のように働くことを学ぶつまり、この研究では、研究者らは音声処理の問題に焦点を当て、自己教師ありモデルWav2Vec 2.0と412 人のボランティアの脳活動を比較しました。 412人のボランティアのうち、351人が英語を話し、28人がフランス語を話し、33人が中国語を話しました。研究者らは被験者に約1時間オーディオブックを聞かせ、その間にfMRIを使用して脳の活動を記録しました。 モデル側では、研究者は 600 時間を超えるラベルなし音声を使用して Wav2Vec 2.0 をトレーニングしました。 ボランティアの母国語に対応して、モデルは英語、フランス語、中国語の 3 種類に分かれています。また、非音声音響シーン データセットでトレーニングされた別のモデルもあります。 その後、モデルたちはボランティアと同じオーディオブックを聴きました。研究者たちはそこからモデルの活性化を抽出した。 関連性の評価基準は次の式に従います。 このうち、X はモデルの活性化、Y は人間の脳の活動、W は標準的なエンコード モデルです。 結果から判断すると、自己教師学習により、Wav2Vec 2.0 は脳のような音声表現を生成できるようになります。 上の図からわかるように、一次聴覚皮質と二次聴覚皮質では、AI はほぼすべての皮質領域における脳活動を明確に予測しました。 研究者らはさらに、AIの「聴覚皮質」と「前頭前野」がどの層に位置しているかも発見した。 この図は、聴覚皮質がトランスフォーマーの最初の層(青)に最もよく一致し、前頭前野がトランスフォーマーの最も深い層(赤)に最もよく一致していることを示しています。 さらに、研究者らは、ネイティブ音素と非ネイティブ音素を認識する人間の能力の違いを定量化し、それを Wav2Vec 2.0 モデルと比較しました。 研究者たちは、AI は人間と同様に、その「母国語」を区別する能力が強いことを発見しました。たとえば、フランス語モデルは英語モデルよりもフランス語からの刺激を認識する可能性が高くなります。 上記の結果は、Wav2Vec 2.0 が特定の言語表現を学習するには600 時間の自己教師学習で十分であることを証明しています。これは、赤ちゃんが話すことを学ぶときにさらされる「データ量」に相当します。 以前の DeepSpeech2 論文では、優れた音声テキスト変換(STT)システムを構築するには、少なくとも10,000 時間の音声データ(ラベル付き)が必要であると考えられていたことを知っておく必要があります。 神経科学とAIコミュニティで再び議論を巻き起こすこの研究に関して、一部の学者は、確かに新たな進歩を遂げたと考えています。 たとえば、Google Brain の Jesse Engel 氏は、この研究により視覚化フィルターが新たなレベルに引き上げられると述べています。 これで、「ピクセル空間」でどのように見えるかを確認できるだけでなく、「脳のような空間」でどのように見えるかをシミュレートすることもできます。 たとえば、元MILAおよびGoogle研究者のジョセフ・ビビアーノ氏は、この研究はfMRIの安静時画像データが有意義であることも証明していると考えています。 しかし、議論の中では疑問の声も上がった。 例えば、神経科学の博士号を持つパトリック・ミノー氏は、同様の研究を行ったが結論には至らなかったと指摘しただけでなく、自らも疑問をいくつか提起した。 彼は、この研究が「音声処理」のプロセスを測定していることを実際に証明するものではないと考えている。 人が話すスピードに比べると、fMRI が信号を測定するスピードは実は非常に遅いため、「Wav2vec 2.0 が脳の行動を学習した」と早急に結論付けるのは非科学的です。 もちろん、パトリック・ミノー氏は、この研究の観点を否定しているわけではなく、自身も「著者のファンの一人」であると述べたが、この研究はより説得力のあるデータを提供するはずだ。 さらに、一部のネットユーザーは、Wav2vecと人間の脳の入力も異なると考えています。一方は処理された波形ですが、もう一方は元の波形です。 この点に関して、著者の一人であるMeta AI研究者のJean-Rémi King氏は次のように要約しています。
あなたが思うこと? 論文の宛先: |
<<: 世界初の「サイボーグ」が死んだ!さようなら、ピーター 2.0
>>: TensorFlow、危険です! Google自身が放棄している
[[414878]]私たちは、あらゆるものが感知され、接続され、インテリジェントになる世界に突入して...
[[263741]]自動運転は短期間で実現できるのか?数年前なら、大手各社はおそらく肯定的な答えを...
データ品質の低さは、人工知能 (AI) および機械学習 (ML) テクノロジの実際のパフォーマンスを...
[[264714]]最近、5G携帯電話や5G商用利用に関するニュースが多く出ています。国内外の多...
[[249335]] VentureBeatによると、Googleの人工知能研究部門は音声認識におい...
機械学習は、あらゆる業界、特に雇用と求人市場に変革をもたらし、エントリーレベルの職からトップレベルの...
[[258853]]人工知能は今年の全国人民代表大会で注目の話題の一つとなった。多くの代表者や議員は...
IBM Granite ファミリーの基礎モデルは、生成 AI を自然言語およびコーディング タスクに...
テンセントのRobticsXロボティクス研究所の第一社員が始めたバイオニックロボットプロジェクトがつ...
まとめTaobao や Tmall などの電子商取引プラットフォームでは、検索エンジン最適化 (SE...
誰もが歩くディスプレイ画面であり、これは単なる SF のワンシーンではありません。羅吉が最も感動した...
サイバーセキュリティ分野の仕事は需要が高く、有能な従業員が求められています。アメリカ国立標準技術研究...