翻訳者 | 李睿 校正 | 梁哲、孫淑娟 人工知能 (AI) テクノロジーはここ数年で急速に発展し、ビジネス プロフェッショナルにディープラーニング モデルを提供しています。 AI がオーディオの世界で大きなインパクトを与えるには、まだ時間がかかるでしょうが、ビデオや画像処理の分野ではすでに AI の台頭が見られます。 人工知能の一部として、機械学習は吹き替え技術の使用方法を変えました。 Cortana、Siri、Alexa などのよく知られている音声アシスタントの多くは、ダビング技術を使用しています。また、人工知能技術の進歩により、AI によって生成される音声はこれまで以上にリアルになり、自然な音声処理も向上しました。 この記事では、機械学習と人工知能の進歩と、それが音声技術の進歩にどのような影響を与えるかについて説明します。 1. 機械学習が音声技術をどのように改善するか(1)よりスマートなオーディオ音声テクノロジーの需要が高まり始めるにつれて、自動音声認識 (ASR) プロバイダーは、より多くの人々のニーズを満たすために音声認識製品の革新を強化しています。 音声認識技術のユーザー数は増加しており、市場規模も拡大しています。ある調査によると、世界の音声認識市場は2026年までに220億ドルに成長するだろう。この大きな変化は自動音声認識 (ASR) に挑戦し、その革新を推進し、異なる国や地域 (オーストラリア、イングランド、スコットランド、米国など) の英語を母国語とする人々が使用する異なる方言など、同じ言語の異なる方言にうまく対処することを可能にします。 自動音声認識 (ASR) は、機械学習 (ML) と人工知能 (AI) の両方の機能によって駆動される場合にのみ、同じ言語の異なる方言で話された単語をテキストに変換できます。さらに、言語からより多くの方言やアクセントを認識することができます。つまり、いつの日か、世界中で使用されているあらゆる音声技術で、リアルな AI 音声ジェネレータが使用されるようになるのです。 オーディオ技術における機械学習の実際の例には、次のようなものがあります。
(2)データが原動力コンピュータによる音波の処理は音声認識の最初のステップであり、ここで音声がデータに変換されます。したがって、音声認識ソーシャル エンジニアリングを成功させるには、プロセスに次の内容を含める必要があります。
最後に、ディープラーニングは音声認識技術に適用可能であり、あらゆる環境での日常使用において正確性を維持するため、音声認識システムは特定の環境でスムーズに動作することができます。 実際には、音声認識システムを作成したい開発者には、大量のトレーニング データが必要です。経済的に意味があるなら、正しい転写データを収集するには数百万ドルの費用がかかる可能性があります。この方法でのみ、音声認識システムは転写されたデータに基づいて適切にトレーニングされます。 (3)人工知能と機械学習におけるデジタル信号処理オーディオ処理における人工知能と機械学習の応用はまだ初期段階ですが、ディープラーニング手法により、現在オーディオ業界の大多数のユーザーに無視されている信号処理の問題を別の角度から取り組むことができます。一般的なサウンドと信号処理を理解することは複雑であり、言葉で説明するのは困難です。 たとえば、2 人以上の人が話しているのを聞いた場合、2 人の間の会話のパラメータはどのように説明されるでしょうか。考慮すべき要素は多数ありますが、その一部を以下に示します。
ご覧のとおり、ダビングの測定は多くのパラメータから導き出すことができ、それらに注意を払う必要があります。この文脈において、AI は人々が学習に必要な条件を作り出すための実用的な方法を提供することができます。 ディープ ニューラル ネットワークによるオーディオ処理は進歩していますが、解決すべき問題がまだ多く残っています。
(4)吹替アーティストディープラーニング(機械学習)を使用して自然なサウンドを作成するための重要なステップは、プロセスにオリジナルのオーディオを用意することです。相対的に言えば、世界中の多くの企業がナレーションアーティストと協力して吹き替え製品を制作しています。ほとんどの声優は、AI 音声が使用されるたびにロイヤリティを受け取ることで、十分な報酬を得ています。 しかし、ナレーターも騙されるという問題に遭遇する可能性があります。ナレーションは録音されていたものの、ユーザーが誰なのか詳しくは分かりませんでした。たとえば、Siriのオリジナルの声を担当したスーザン・ベネットはスキャンソフト社と契約していたが、彼女は自分の録音が実際にはApple社向けに行われたことを知らなかった。彼女はナレーションの録音に対して一度だけ報酬を支払われただけで、継続的な収入は得られなかった。 さらに、ナレーションアーティストが直面している他の問題としては、現在の技術を考慮すると、業界内の契約や料金があまり改善されていないことが挙げられます。さらに、吹き替えは悪用される可能性があり、吹き替えアーティストの評判を損なう可能性さえあると考える人もいます。例えば、一緒に仕事をしたくない企業や下品な言葉に対しても使えます。 (5)ユースケースの増加人工知能と機械学習により、カスタマイズされたエクスペリエンスを追加したり、ソリューションを見つけたり、サービスにアクセスしたり、最も自然な方法で製品を返品したりできるようになるため、音声テクノロジーは業界全体で成長を続けています。機械学習と AI が自然言語処理のユースケースをどのように変えているのか、いくつかの例を次に示します。
(6)音声認識技術は未来か?音声認識技術は将来必ず輝くでしょう。 AI や機械学習の技術が進歩するにつれ、それらが活用されるシナリオも増えていくでしょう。さらに、声優陣にも枠が与えられる。これらは音声認識技術の向上に寄与するため、音声技術は人と話すときにさまざまな感情を伝えられるレベルまで発展する可能性があります。 2. 結論これらは、機械学習と人工知能が過去数年間に音声技術にもたらした改善であり、これらの改善が今後も発展し続ける理由です。いつの日か、音声技術が進歩し、人間と話すのと同じように音声アシスタントと話せるようになるかもしれません。 企業側としては、音声テクノロジーをビジネス戦略に組み込む方法を検討する必要があります。結局のところ、世界は新たな出発点と技術的な道へと移行しており、音声認識技術をビジネスに統合すれば、目立つ存在となるでしょう。 オリジナルリンク: https://www.smartdatacollective.com/machine-learning-advances-are-improving-voice-over-audio-technology/ |
<<: アリババDAMOアカデミーが新しいオープンソースフレームワークを開設:プライバシー保護コンピューティングの分野に参入し、フェデレーテッドラーニングが大手プレーヤーを迎える
>>: トランスフォーマーの層が 2 層未満で、注意ブロックのみの場合、GPT-3: 問題を起こそうとしていますか?
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
機械学習、ディープラーニング、人工知能の台頭は議論の余地のない事実となり、コンピュータサイエンスの分...
見て!今、あなたの前で踊っているのは 4 人の若い女性です。ショート動画プラットフォームで何人かのキ...
AIOps は人工知能と IT 管理を組み合わせた技術として、近年大企業から大きな注目を集めていま...
コア要約:はじめに: この AI + 医療研究の範囲は、CDSS、スマート医療記録、AI + 検査、...
科学技術の発展に伴い、人々は次第にプライバシーに気を配るようになり、「顔認識」という新興技術に対して...
オラクルの株価は現地時間9月12日に13.5%急落し、20年以上で最大の下落を記録した。その理由は、...
ビッグデータとは、従来のソフトウェアツールでは一定期間内に収集、管理、処理できないデータの集合を指し...
テクノロジートラベラー北京ニュース 1 月 3 日:ケネス・リブブレヒトは、この寒い冬に暖かく快適な...
1. シーン分類 顔認識:セキュリティ監視認識、顔アクセス制御、有名人の顔、VIP ID認識など。人...
深層強化学習は最近大きな成功を収めていますが、安定性の欠如や再現性の低さといった限界もあります。 M...