台湾メディアiThome.com.twによると、Googleは2018年のACMマルチメディアカンファレンスで機械学習を使った画像注釈インターフェースを発表し、ユーザーは画像内のオブジェクトの輪郭とラベルを素早くマークできるようになり、全体的なタグ付け速度が3倍に向上したという。最新のディープラーニングベースのコンピューター ビジョン モデルのパフォーマンスはラベル付けされたトレーニング データの量に依存するため、データベースが大きいほど機械学習のパフォーマンスが向上します。 Google は多くのディープラーニング研究で、高品質のトレーニング データを取得するのは容易ではないと繰り返し述べており、この問題はコンピューター ビジョンの開発、特に自動運転、ロボット工学、画像検索などのピクセルベースの認識タスクにおける主なボトルネックとなっています。 従来の方法では、ユーザーは手動でラベル付けツールを使用して、画像内のオブジェクトの境界を囲む必要があります。Google は、COCO plus Stuff データセットを使用すると、画像にラベルを付けるには 19 分、データセット全体にラベルを付けるには 53,000 時間かかり、時間がかかりすぎて非効率的であると述べています。そこで Google は、機械学習を使用してユーザーが画像内のオブジェクトの輪郭のラベルをすばやく見つけられるようにする新しいトレーニング データ ラベリング方法である Fluid Annotation を検討しました。 Fluid アノテーションは、強力なセマンティック セグメンテーション モデルの出力から始まります。ユーザーは、機械学習によって支援された自然なユーザー インターフェイスを使用して、それを編集および変更できます。このインターフェイスは、修正する必要があるオブジェクトと順序をユーザーに提供し、マシンがまだ明確に識別できない部分にユーザーが集中できるようにします。画像に注釈を付けるために、Google は分類ラベルと信頼スコアが付いた約 1,000 枚の画像を使用してセマンティック セグメンテーション モデル (Mask-RCNN) を事前トレーニングしました。最も信頼度の高いセグメントは、最初のラベル付けに使用できます。 Fluid Annotation は、ユーザーが 1 回のクリックでオブジェクトにすばやくラベルを付けるための候補リストを生成します。また、ユーザーは、検出されていないオブジェクトをカバーする範囲マーカーを追加し、スクロールして最も適切な形状を選択することもできます。追加できるだけでなく、既存のオブジェクト タグを削除したり、オブジェクトの深度順序を変更したりすることもできます。 流動的な注釈付けの現在のフェーズの目標は、画像をより速く簡単に作成し、データセット全体のラベル付け速度を最大 3 倍に向上させることです。次に、Google はオブジェクト境界のラベル付けを改善し、より多くの人工知能を使用してインターフェース操作を高速化し、現在認識できないカテゴリを処理できるようにインターフェースを拡張します。 |
<<: 人工知能は人間の言語を習得したのか?見た目は騙されることがある
>>: 中国では普及していない無人コンビニが、なぜアメリカでは人気があるのか?
業界では、デート、マーケティング、ソーシャルメディアから宇宙探査、医療の進歩に至るまで、人工知能とそ...
中国の飛び込みドリームチームは、「消える水しぶき」の技術に長けており、オリンピックのあらゆる大会で金...
[[354952]]一般的に、食品業界について考えるとき、私たちはおそらく顧客サービスや食品配達のギ...
10月26日、2023年第3四半期の決算発表で、グーグルとその親会社アルファベットのCEOであるサン...
[51CTO.comより引用] 海外のデータサイエンス市場に詳しい人なら誰でも、2017年に海外のデ...
検出能力6点!パフォーマンス消費6ポイント!使いやすさ6点!先日、国際的に権威のある評価機関 AV-...
線形回帰とロジスティック回帰は、現在人気のある 2 つの機械学習モデルです。 [[331887]]こ...
[[423611]] AI を搭載したデバイスやテクノロジーはすでに私たちの生活の大きな部分を占めて...
[[397532]]この記事はWeChatの公開アカウント「ブロックチェーン研究室」から転載したもの...
アプリケーションによって処理されるデータの量が増え続けるにつれて、ストレージの拡張はますます困難にな...
人類は歴史の中で長い道のりを歩んできましたが、現在の技術の進歩は人類の進歩のペースを加速させ、すべて...
[[264479]]人工知能 (AI) が私たちの日常の仕事や生活にますます普及し、企業がさまざま...