アンドリュー・ン:AIはビッグデータから「スモールデータ」に移行する時が来た

アンドリュー・ン:AIはビッグデータから「スモールデータ」に移行する時が来た

AI界の巨匠アンドリュー・ン氏が最近、新型コロナウイルスの検査で陽性反応を示し、多くのネットユーザーが彼の早期回復を願う声を上げた。

現在、彼は自身の会社である Landing AI に注力しています。

製造業のデジタル変革に特化したスタートアップ企業です。製造業が人工知能システムをより迅速かつ容易に構築、導入できるよう支援することを目標としています。

従来の企業にとって、事前トレーニング済みのモデルは公開データに基づいており、実際には役に立ちません。

しかし、結局のところ、それは伝統的な企業です。トレーニングをサポートするために大量の特定のデータをどこで収集できるのでしょうか?

それで、Landing AI はこの困難をどのように克服したのでしょうか?

最近、IEEE Spectrumとの独占インタビューで、アンドリュー・ン氏は今後10年間の人工知能分野の方向性について議論し、「ビッグデータからスモールデータと高品質データに移行する時期が来ている」との見解を表明した。

おそらくここからこの質問の答えが見つかるかもしれません。

以下は、若干の削除を加えた元のインタビューの要約です。

IEEE Spectrum: ディープラーニングは、モデルとデータセットの大規模化により、過去 10 年間で驚異的な進歩を遂げました。これを持続不可能な軌道だと考える人もいる。同意しますか?

ウー:これは確かに考える価値のある質問です。 NLP 分野はすでに基礎モデルが存在し、規模拡大を続けています。コンピュータビジョンの分野にも基本的なモデルを構築する可能性がありますが、コンピューティング帯域幅(コンピューティング能力)と処理コストの制限により、ビデオ分野ではまだ開発されていません。ディープラーニング アルゴリズムをスケーリングするためのエンジンは約 15 年間稼働していますが、依然として勢いを増しています。ただし、これは特定の問題にのみ機能し、小規模なデータ ソリューションを必要とするシナリオが多数あります。

注: ベースモデルは、Percy Liang とスタンフォード大学の Wu の友人数名によって造られた用語で、GPT-3 などの特定のアプリケーションに合わせて調整できる非常に大規模なデータセットでトレーニングされた巨大なモデルを指します。

過去 10 年間で、消費者向け企業は、大規模なユーザーベース (場合によっては数十億人) のおかげで、ディープラーニング用の非常に大規模なデータセットにアクセスできるようになりました。これは彼らに多大な経済的価値をもたらしますが、この法則は他の産業には当てはまらないと思います。

IEEE Spectrum: このような会社で働いていたというのは興味深いですね。

ウー:そうです。しかし、10年以上前に私がGoogle Brainプロジェクトを立ち上げ、Googleのコンピューティング インフラストラクチャを使用して大規模なネットワークを構築することを提案したとき、それは論争を巻き起こしました。かなり年上の人が私を呼び出して、これは私のキャリアにとって良くないことだと警告しました。彼が言いたかったのは、プロジェクトは規模の拡大だけでなく、建築の革新にも焦点を当てるべきだということだと思います。

私の学生と私がディープラーニングに CUDA を使用することを提唱する最初の論文を発表したとき、別の AI のベテランが私の隣に座って、「CUDA プログラミングは非常に複雑です。プログラミング パラダイムとして、これを行うには作業量が多すぎます」と言ったのを覚えています。

IEEE Spectrum: 全員が納得したと思います。

ウー:はい。

今、データ中心の AI の動きについてお話しするとき、私は 15 年前にディープラーニングについてお話ししたときのことを思い出します。今年は、「間違った方向に向かっている」「両者の間には何も新しいことはないようだ」と多くの人から言われました。

IEEE Spectrum: データ中心の AI をどのように定義しますか? また、なぜそれをムーブメントとして考えるのですか?

Wu:データ中心の AI は、成功する AI システムに必要なデータを構築するための体系的な分野です。 AI システムを機能させるには、コード内に何らかのアルゴリズムを実装し、データセットでトレーニングする必要があります。過去 10 年間、主なアプリケーション パラダイムは、コードの改善に重点を置きながらデータセットをダウンロードすることでした。このモデルはディープラーニング ネットワークに大きな改善をもたらしましたが、そのアーキテクチャは基本的に解決済みの問題を表しています。したがって、多くの実用的なアプリケーションでは、ニューラル ネットワーク アーキテクチャを修正し、データを使用してそれを改善する方法を見つけることがより効果的になっています。

私がこの点を指摘すると、実践者の中には「私たちはこれを 20 年間やってきた」と言う人もいます。私が言いたいのは、少数の人々が直感的に行っているこのことを体系的なものに変える時が来たということです。

IEEE Spectrum: 先ほど、一部の企業や機関では扱うデータの量が少ないとおっしゃっていました。データ中心の AI はどのように役立つのでしょうか?

Wu:多くの視覚モデルは、何百万もの画像を使用して構築されます。私はかつて、顔認識システムを構築するために 3 億 5000 万枚の画像を使用しました。しかし、このモデルは 50 枚の画像しかないデータセットでは機能しません。しかし、本当に優れたデータ ポイントが 50 個あれば、欠陥検出システムのような価値あるものも作成できることがわかりました。巨大なデータセットが存在しない多くの業界では、重点をビッグデータから良質なデータに移す必要があると思います。よく考えられた例を 50 個用意すれば、ニューラル ネットワークに学習させたい内容を説明するのに十分です。

IEEE Spectrum: 50 枚の画像でモデルをトレーニングするということは、より大きなデータセットでトレーニングされた既存のモデルを微調整することを意味しますか? それとも、この小さなデータセットから学習されるまったく新しいモデルですか?

Wu: Landing AI が何をするのか説明しましょう。メーカー向けに欠陥検査サービスを提供する際、弊社ではRetinaNetを独自のスタイルで利用することが一般的です。事前トレーニング済みのモデルです。そうは言っても、事前トレーニングはパズルのほんの一部に過ぎません。より大きな課題は、メーカーが適切な画像セット(微調整用)を選択し、そのセットに一貫した方法でラベルを付けることができるツールを提供することです。大規模なデータセットを含むアプリケーションに直面したとき、私たちは通常、データにノイズがあっても問題ではなく、すべてのデータを取得してアルゴリズムで平均化するだろうと考えます。しかし、データの不一致を警告するツールを開発し、データ品質を改善するための非常に的を絞ったアプローチをメーカーに提供できれば、高性能システムを実現するためのより効果的な方法となるでしょう。

たとえば、現在 10,000 枚の画像があり、そのうち 30 枚が 1 つのカテゴリに属していますが、これら 30 枚の画像のラベルが一貫していません。私たちがやりたいことの 1 つは、この特別なデータのサブセットに注目を集めるツールを構築し、すばやくラベルを変更してモデルのパフォーマンスを向上できるようにすることです。

IEEE Spectrum: このような高品質のデータセットを生成すると、データの偏りを排除するのに役立ちますか?

ウー:とても役に立ちました。偏ったデータは、最終モデルに偏りをもたらす可能性のある多くの要因の 1 つです。 NeurIPS カンファレンスでの Mary Gray 氏の講演では、データ中心の AI がこの問題の解決策の 1 つ (ただしすべてではない) であるという点について説明しました。

データ中心の AI がもたらす強力な機能の 1 つは、データ サブセットを設計する機能です。機械学習モデルをトレーニングし、データセットの大部分のパフォーマンスは良好だったが、サブセットのみで逸脱していたと想像してください。このサブセットのパフォーマンスを向上させるためだけに、ニューラル ネットワーク アーキテクチャ全体を変更するのは非常に困難です。

しかし、このサブセットに適切なデータを設計できれば、ソリューションはより的を絞ったものになります。

IEEE Spectrum: データをエンジニアリングするとは、具体的にはどういう意味ですか?

ウー氏: AIの分野ではデータのクリーニングは非常に重要ですが、現在は非常に機械的な方法で行われています。非常に大きなデータ セットに直面した場合、このツールを使用すると、データのノイズの多いサブセットにすぐに注意を向け、そのサブセットに収集を集中させることができます。

かつて、音声認識システムのパフォーマンスが非常に悪く、主に背景の車の騒音のせいで困っていたことがあります。これを知っていれば、すべてに対して行動を起こすのではなく、このノイズの多い背景でより多くのデータを収集でき、お金と時間を節約できます。

IEEE Spectrum: 合成データの使用についてはどうでしょうか? これもよいアプローチでしょうか?

Wu:合成データは、データ中心の AI ツールセットにおいても重要なツールです。 NeurIPS ワークショップでは、Anima Anandkumar が合成データに関する素晴らしい講演を行いました。これは、モデルにデータを追加するための単なる前処理手順だと思います。開発者が機械学習モデルを反復するためのクローズドループの一部として合成データを生成することを期待しています。

IEEE Spectrum: 合成データを使用すると、より多様なデータセットでモデルを試すことができるということですか?

ウー:それ以上です。スマートフォンのケースの傷、へこみ、素材の変色などの欠陥を検出したいとします。トレーニング済みのモデルがこの検出タスクで全体的に優れたパフォーマンスを発揮するが、へこみの識別に苦労している場合は、合成データを使用して、よりターゲットを絞ったデータを生成し、問題に対処することができます。

IEEE Spectrum: たとえば、企業が Landing AI に目視検査を依頼する場合、どのようなサポートを提供するのか詳しく教えていただけますか?

Wu:お客様にデータを当社のプラットフォームにアップロードしていただき、データ中心の AI 手法を使用して提案を行い、データのラベル付けを支援します。

Landing AI の重点は、メーカーが機械学習の作業を自ら行えるようにすることであり、私たちの仕事の多くは、ソフトウェアが高速で使いやすいものであることを確認することです。機械学習の反復プロセスにおいて、プラットフォーム上でモデルをトレーニングする方法や、モデルのパフォーマンスを向上させるためにデータのラベル付けをいつどのように改善するかなどのアドバイスをお客様に提供します。

IEEE Spectrum: 製品や照明条件などが変わった場合、このモデルは対応できるでしょうか?

Wu:だからこそ、製造業の顧客が自らデータを修正し、モデルを再トレーニングして更新できるようにすることが非常に重要なのです。

消費者向けインターネットでは、10億人のユーザーにサービスを提供するために、いくつかの機械学習モデルをトレーニングするだけで済みます。製造業では、10,000 社のメーカーが 10,000 種類のカスタム モデルを構築する必要があります。課題は、機械学習の専門家を 10,000 人雇わずにこれをどうやって実現するかということです。

この問題は医療などの他の業界でも存在します。

このジレンマから抜け出す唯一の方法は、顧客が独自のデータを設計し、ドメイン知識を表現し、独自のモデルを構築できるツールを開発することです。これは、Landing AI がコンピューター ビジョンの分野で行っていることでもあります。

IEEE Spectrum: 最後に何か一言お願いします。

ウー氏:過去 10 年間の AI における最大の変化は、ディープラーニングへの移行です。この 10 年間で最も大きな変化は、データ中心の AI への移行になるだろうと思います。今日のニューラル ネットワーク アーキテクチャが成熟するにつれて、多くの実用的なアプリケーションでは、モデルのパフォーマンスを向上させるために必要なデータをいかに効率的に取得できるかがボトルネックになると思います。

データ中心の AI 運動はコミュニティ全体に多大なエネルギーと勢いを与えています。もっと多くの研究者や開発者が参加して取り組んでくれることを願っています。

<<:  ヘルスケアにおける機械学習の悪影響

>>:  人工知能の「指紋採取」が検出困難な癌と闘う

ブログ    
ブログ    

推薦する

Flask を使用して機械学習モデルを簡単にデプロイするにはどうすればよいですか?

[51CTO.com クイック翻訳] データ サイエンティスト/機械学習エンジニアが Scikit...

人工知能時代の到来とともに、私たちはどんな知識を学ぶべきでしょうか?

将来、AI知能ロボット翻訳は根本的な進歩を遂げ、筆記翻訳、口頭通訳、同時通訳など、人間による翻訳作業...

人工知能技術は人間の生活にどのような影響を与えるのでしょうか?

[[349271]]人工知能と産業の組み合わせは、中国市場の爆発的な成長を促進し、中国のモバイルイ...

人工知能の時代に、チャットするインテリジェントロボットを Python で作成しました。とても優れています。

[[253842]]人工知能はすでにトレンドです。スマートホテル、スマートインターネットカフェ、自...

AIが高速道路に参入: テクノロジーを活用してファーストフード業界を完全に変える

迅速なサービスと便利な体験で知られるファーストフード業界は、顧客体験を向上させ、業務効率を改善するた...

7つの機械学習アルゴリズムの7つの重要なポイント

さまざまなライブラリとフレームワークの助けを借りて、たった 1 行のコードで機械学習アルゴリズムを実...

ボストンダイナミクスのスポットが工場に入り、作業を開始しました!現代自動車はそれを夜間警備に配備し、工場の安全管理官に変身させる

ボストン・ダイナミクスのロボットは見た目はかっこいいのですが、使い道がないので、好評は得られても人気...

...

初のAI絵画がオークションで予想を大きく上回る43万2000ドルで落札

英国放送協会が10月25日に報じたところによると、人工知能によって制作された芸術作品がオークションで...

強力な視覚 AI でもこれらの写真を正確に識別できないのはなぜでしょうか?

▲ テーブルの上にいるのはマンホールの蓋でしょうか、それともトンボでしょうか?(写真提供:ダン・ヘ...

7億7千万パラメータ、5400億PaLMを超えます! UW Google はトレーニング データの 80% のみを必要とする「ステップ蒸留」を提案 | ACL 2023

大規模言語モデルは優れたパフォーマンスを持ち、ゼロショットまたは少数ショットのプロンプトで新しいタス...

ディープフェイク動画が急速に広まっている。ブロックチェーンがこの「疫病」を阻止できるかもしれない

「フェイクニュース」という言葉が今話題になっているが、ディープフェイク(本物に見えるが実は偽の動画を...

AIの大規模導入における大きなギャップを埋めます!アリババ、テンセント、百度などが共同でインターネットサービスAIベンチマークを開始

[[276827]]今日、インターネット サービスは根本的な変化を遂げており、徐々にインテリジェント...

小売業界のトレンド: 人工知能からクーポンコードまで

テクノロジーによりシステム効率が大幅に向上し、ビジネス運営のコスト効率と時間効率が向上しました。テク...

2020年のAI開発の現状と展望の分析

中国政府は人工知能を国家戦略のレベルにまで高めた。 2017年7月、国務院は「次世代人工知能発展計画...