Baiduの新しい論文はGram-CTCを提案:単一システムの音声転写が最高レベルに到達

Baiduの新しい論文はGram-CTCを提案:単一システムの音声転写が最高レベルに到達

[[188128]]

最近、百度シリコンバレーAI研究所の劉海栄氏、李翔剛氏らは、音声認識の速度と精度を大幅に向上させる新しい音声認識モデルGram-CTCを提案する論文を発表しました。研究者によると、この新しい方法により、モデルのトレーニングと推論時間を大幅に短縮できるという。同じタスクにおいて、新しいモデルのパフォーマンスは、単一モデルの比較において Microsoft および他の企業による研究を上回りました。クリックすると原文が読め、この論文をダウンロードできます。

Baidu の研究が発表される前に、Microsoft は 2016 年 10 月に、同社のマルチシステム アプローチにより、Switchboard と呼ばれる 2,000 時間の音声言語データベースで 5.9% のエラー率を達成したと発表しました。後者はマルチシステムアプローチの可能性を探るものと考えられているが、今回Baiduが提案した単一システムアプローチの方が実装が容易である。

CTC エンドツーエンド学習では、通常はディープニューラルネットワークを使用して、入力と出力をリンクするアルゴリズムを使用します。このアプローチでは、人工的な機能設計を減らし、中間ユニットを減らすことを推奨します。エンドツーエンドの学習システムには、CTC ベースの音声認識と注意ベースの機械翻訳が含まれます。CTC は、業界の多くの製品に使用されています。

Fisher-Switchboard ベンチマークでは、Baidu の研究者がドメイン内データを使用して、以前に公開された結果と比較しました。表には、1 つのモデルの結果のみが記載されています。

Deep Speech は、複数の言語での音声認識に CTC 損失を使用するエンドツーエンドのニューラル アーキテクチャを提供します。 Baidu が実証した Gram CTC は、CTC 損失関数を拡張して、文字ではなくフィールドを自動的に検出して予測できるようにします。

Gram-CTC を使用するモデルは、単一のモデルで Fisher-Swbd ベンチマークの他のどの以前のモデルよりも優れたパフォーマンスを達成できます。これは、Gram-CTC を使用したエンドツーエンドの学習がコンテキストと関連する音素に基づくシステムよりも優れていること、また同じトレーニング データを使用してトレーニングを 2 倍高速化できることを示しています。

同じオーディオ クリップの次の可能な転写を検討してください。これらはすべて、音声転写に適しています。

  • 常識を使って会話を認識する
  • 素敵なビーチを破壊して、穏やかなお香を歌う

CTC は、入力オブジェクトが互いに独立していると仮定して、一度に 1 文字しか予測できません。 2 つの転写が類似するようにするには、CTC は以下に示すように、空白を埋めるために 2 つの文字を選択する必要があります。

オプション 2 の候補のみを使用して空欄を埋めると、最初の目標である「音声を認識する...」を達成できます。オプション 1 の候補を使用すると、「素敵なビーチを破壊...」という結果が得られます。さらに、オプション 1 と 2 を一緒に選択すると、意味のないステートメントが多くなります。

フィールドとは、「ing」、「euax」、「sch」など、文字と単語の間の単位です (接辞を含みますが、これに限定されません)。同じフィールドでも単語や文脈によって発音が異なる場合がありますが、英語では一般的にフィールドは同じ発音になる傾向があります。私たちの場合、予測のためにフィールドを使用することもできます。

上の図に示すように、この方法により、意味のない予測の組み合わせを大幅に削減できます。また、予測接辞には次のような利点があります。

  • フィールドは発音に関連する個々の文字よりも広範囲にわたるため、モデル化が容易になります。
  • フィールドは文字よりも長い範囲の音を反映するため、このアプローチにより、アルゴリズムが予測を行うために必要なステップ数を大幅に削減できます。私たちのモデルは時間ステップを半分に短縮し、トレーニングと推論の速度が大幅に向上します。同じハードウェア環境で、2000 時間のデータセットのトレーニング時間が 9 時間から 5 時間に短縮されました。
  • モデルは同じ発音の一般的なスペルを認識することを学習できます。上記の例では、「alm」と「omm」の発音は非常に似ています。 CTC ではこの識別は困難ですが、Gram-CTC でははるかに簡単です。

論文: Gram-CTC: シーケンスラベリングのための自動ユニット選択とターゲット分解

既存のシーケンス ラベリング モデルのほとんどは、ターゲット シーケンスを基本単位シーケンスに固定的に分解することに依存しています。しかし、これらの方法には 2 つの大きな欠点があります。1) 音声認識における単語、文字、音素のセットなど、基本単位のセットが固定されている。 2) 対象シーケンスの分解が固定されます。これらの欠点により、シーケンスをモデリングするときにパフォーマンスが最適でなくなることがよくあります。本稿では、これらの制限を軽減するために一般的な CTC 損失基準を拡張し、Gram-CTC という新しい損失関数を提案します。 Gram-CTC は、CTC の利点を維持しながら、最適な基本単位 (グラム) のセットと、ターゲット シーケンスを分解する最も適切な方法を自動的に学習できます。 CTC とは異なり、Gram-CTC ではモデルが各タイム ステップで文字の変数値を出力できるため、モデルはより長期的な依存関係をキャプチャし、計算効率を向上させることができます。提案された Gram-CTC は、さまざまなデータ サイズの大語彙音声認識タスクにおける CTC のパフォーマンスだけでなく効率も向上することを実証します。さらに、Gram-CTC を使用して、標準的な音声ベンチマークにおける現在の最先端技術を上回る結果を達成します。

<<:  ゲームプログラミングにおける人工知能

>>:  機械学習の発展の歴史と啓蒙

推薦する

トランスフォーマー+強化学習、Google DeepMindは世界を知覚するロボットの脳となる大きなモデルを作る

ロボットの学習方法を開発する際に、大規模で多様なデータセットを統合し、強力で表現力豊かなモデル (T...

他の人たちが赤い封筒を掴んでいる間、プログラマーたちは赤い封筒のアルゴリズムを研究している

羊年春節期間中のWeChat紅包の人気は明らかで、広告主は現金紅包に5億円を投入し、CCTVの羊年春...

Google: 大規模モデルは出現する能力だけでなく、長いトレーニング時間を経て「理解」する能力も備えている

2021年、研究者たちは一連のマイクロモデルを訓練しているときに驚くべき発見をしました。それは、長期...

...

...

...

英国の消費者団体が警告:AIチャットボットがオンライン詐欺をよりプロフェッショナル化

10月28日、英国の消費者団体Which?が現地時間金曜日に発表した最新の調査結果によると、犯罪者は...

パンデミック後、アメリカ人の半数がスマートデバイスの音声制御が不可欠だと考えている

Syntiantが最近実施したユーザー調査によると、COVID-19パンデミックの影響により、アメリ...

AIとIoTがサプライチェーンにもたらす効果

サプライ チェーン管理は経済の生命線であり、コストを最適化し、無駄を最小限に抑えながら、適切な製品を...

ロボットセンサー市場は2026年までに40億ドルを超える

AIとIoTをロボットシステムに統合することで、その応用範囲が大幅に拡大すると期待されています。市場...

ニューラルネットワークにおけるさまざまな損失関数の紹介

目的に応じて異なる損失関数を使用できます。この記事では、いくつかの例を挙げながら、非常によく使用され...

...

AES暗号化アルゴリズムのハードウェア設計方法の簡単な分析

[[356976]]情報セキュリティの分野では、米国は集積回路IPコアの分野で常に独占的地位を占めて...