GoogleはAIを使って「ヘッドフォンケーブル」をトレーニングし、タッチスクリーンのほとんどの機能を実現

GoogleはAIを使って「ヘッドフォンケーブル」をトレーニングし、タッチスクリーンのほとんどの機能を実現

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

Google は、Levi's と共同で発売したスマート ジャケット Commuter Trucker など、ウェアラブル デバイスの開発を止めたことはありません。

衣服の袖口にセンサーが追加され、ユーザーは Bluetooth リンクを介してセンサーと対話できます。

ダブルクリックやスライドなどで曲の切り替えなどの操作が行えます。

Google は、引き続き努力することで、デバイスをより小型化し、より機能的にしたいと考えています。

その後、Google はヘッドフォン ケーブルに目を向けました。

GoogleのAIエンジニアは、つまむ、こする、持つ、叩くなどのジェスチャーを通じて、従来のタッチスクリーンの機能のほとんどを実現できる電子インタラクティブファブリック(E-Textile)を開発しました。

音量調節、曲の切り替えなどの操作もまったく問題ありません。Google の新機能は、私たちの手を自由にするという究極の目標を掲げ、知覚的インタラクションの次のステップを示しています。

ジェスチャーデータセットのトレーニングプロセス

Google が開発したこのデバイスは、機械学習アルゴリズムとセンサー ハードウェアを組み合わせたもので、ヘッドホン ケーブルは単なるキャリアに過ぎません。

実際、このケーブルは普通のヘッドホンケーブルではなく、センサーが織り込まれた柔軟な電子素材なので、人間とコンピューターの相互作用が可能です。

パーカーもお好みに応じて変形できます。

まず、Google はデータ収集のために 12 人の参加者を募集しました。各参加者は8 つのジェスチャーを 9 回繰り返し、合計 864 個の実験サンプルを作成しました。

サンプルサイズが小さすぎる問題を解決するために、研究者は線形補間を使用して各ジェスチャの時系列を再サンプリングしました。

各サンプルに対して16 個の特徴が抽出され、最終的に80 個の観測値が得られました。

トレーニングされたジェスチャ認識により、ユーザーごとに8 つの新しい個別のジェスチャが可能になります。

研究者たちは、定量的な数字だけでなく参加者の個人的な感情も考慮した、人間中心のインタラクティブな体験を提供したいと考えています。

参加者はランキングやコメントを通じて定性的なフィードバックも提供し、スワイプ、フリック、押す、つまむ、引っ張る、握るなど、さまざまなインタラクション方法を提案しました。

定量分析の結果、インタラクティブ ファブリックは既存のヘッドフォン ボタン コントロールよりも速く認識され、タッチ スクリーンと同等の速度であることが示されました。

定性的なフィードバックからも、電子テキスタイルインタラクションの方がヘッドフォンワイヤーコントロールよりも人気があることが分かります。

研究者はさまざまな使用シナリオを考慮して、さまざまな使用シナリオに合わせてさまざまなデバイスを開発しました。

携帯電話でのメディア再生を制御する電子テキスタイルUSB-C イヤホン、衣服に目に見えない形で音楽コントロールを追加するパーカーの引き紐。

アルゴリズムがジェスチャーを正確に認識

Google にとって電子ファブリックを作る上での難しさは、機械学習アルゴリズムではなく、ヘッドホンコード上のジェスチャーをキャプチャして操作する方法にあります。

サイズ上の理由から、ヘッドフォンケーブルなどの織り素材には、大型で多数のセンサーを装備することができず、その認識能力と解像度は大幅に制限されます。

第二に、人間の手のジェスチャーの曖昧さと不明確さがあります。たとえば、つまむこととつかむことをどのように区別するのでしょうか。また、叩くことと引っ張ることをどのように区別するのでしょうか。

Google のエンジニアは8 つの電極を使用してセンサー マトリックスを形成し、データセットをトレーニング データ用に 8 回、テスト データ用に 1 回に分割し、9 つのジェスチャー変換を取得しました。

彼らは、センサーマトリックスには機械学習分類アルゴリズムに非常に適した固有の関係があることを発見しました。これにより、分類アルゴリズムは限られたデータセットを使用してトレーニングされ、約30秒ジェスチャー認識を実現できます。

最終的な精度は 93.8% で、データセットのサイズと使用したトレーニング時間を考慮すると、日常使用には十分でした。

ヘッドフォンコントロールの次のステップ

今回 Google がヘッドフォン ケーブルに施したトレーニングには、ジェスチャー認識とマイクロインタラクションという 2 つの側面が含まれています。

タッチ スクリーン デバイスでは、画面の下のスペースに、Apple の 3D Touch 認識モジュールなどの多数のセンサーを配置できます。

しかし、ヘッドフォンケーブルなどの外部デバイスの場合、センサーの数とサイズが制限されているため、それほど簡単ではない可能性があります。

実験中、エンジニアは、複数のジェスチャーには複数のトレーニングが必要であり、異なる個々のジェスチャーを複数回キャプチャする必要があることを発見しました。

この研究は、コンパクトなフォームファクターで精密な小規模動作を実現できることを示しており、スマートでインタラクティブなファブリックの開発が期待できます。

ある日。ウェアラブル インターフェースとスマート ファブリックのマイクロ インタラクションは任意に使用できるため、最終的には体外デバイスがどこにでも私たちと一緒に移動し、いつでもインタラクトできるようになり、私たちの手が自由になります。

この日を楽しみにしていますか?

<<:  このおもちゃからヒントを得たアクチュエータは、ソフトロボットにジャンプする能力を与える可能性がある。

>>:  世界初の3D AI合成キャスターがデビューし、2つのセッションの取材にも参加。ネットユーザー:キャスターは失業中

ブログ    

推薦する

テスラが自社開発したスーパーコンピュータDojo!日本の「富岳」に代わる世界初の

[[406953]]自動車メーカー、自動運転企業、バッテリーおよびエネルギー貯蔵企業として、テスラは...

クンペンが離陸、ソフトコムが道路を建設、ソフトコム・ウィズダムがファーウェイと手を組み、済南を科学技術革新の高原に築く

10月21日、「泉城の知能、万里の昇り」をテーマにした2020年中国人工知能産業サミットと昇りコンピ...

エッジAIとは何ですか?

エッジ AI は、今日のデジタル変革の時代に台頭している 2 つのテクノロジー、エッジ コンピューテ...

人工知能をゼロから学ぶのは難しくない

「人工知能」という用語は、1956年にダートマス協会で初めて提案されました。それ以来、研究者は多くの...

AI の知覚を人間の知覚と直接比較できないのはなぜですか?

人間レベルのパフォーマンス、人間レベルの精度…顔認識、物体検出、問題解決など、AI システムを開発す...

.Net Framework ガベージ コレクション固有のアルゴリズムの詳細な説明

.Net Framework は、Microsoft が提供する .NET 開発に基づいた基本環境で...

機械学習研究開発プラットフォームの選択

機械学習は現在隆盛を極めていますが、機械学習を学習・研究し、実稼働環境で活用したい場合には、プラット...

...

人工知能とサイバーセキュリティは諸刃の剣

[[379153]] [51CTO.com クイック翻訳] 研究によると、人工知能技術はさまざまな業...

AIの4つのタイプについてお話しましょう

人工知能が流行するにつれ、人々はそれがどのように機能し、何ができるのかについて多くの疑問を抱いていま...

科学者らが自己再生材料に使える3Dプリント「生きたインク」を開発

[[437285]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

GPT-3 がプログラミングを支配: AI はコーディングの仕事を殺すのか?

[[338796]] 2017年に研究者たちは「2040年までにAIがほとんどのコードを書くように...

AIイノベーションの解放:自然言語処理技術とアプリケーション

1. はじめに自然言語処理(NLP)技術は人工知能の分野で重要な部分を占めており、その開発と応用は私...