2週間に及ぶ「舌戦」の末、チューリング賞受賞者でフェイスブックの主任AI科学者であるヤン・ルカン氏はツイッターを辞めると発表した。 「ソーシャルネットワーク上の全員に、お互いを攻撃するのをやめてほしい。特にティムニット・ゲブル氏や私の過去の発言に対する攻撃をやめてほしい」とヤン・ルカン氏はツイッターで訴えた。 「言葉によるものであろうとなかろうと、衝突は害と逆効果をもたらすだけです。私はあらゆる差別に反対します。私の基本的価値観についての記事はこちらです。」 「これがTwitterでのコンテンツのある最後の投稿です。みなさん、さようなら。」 2018年のチューリング賞受賞者であり、人工知能の第一人者であるヤン・ルカン氏が、2週間に渡る白熱した議論に終止符を打つことを決めたようだ。この白熱した論争の原因は、「深刻な人種差別」であると非難されたPULSEアルゴリズムだった。 この研究はデューク大学によって開始され、その人工知能アルゴリズムは、ぼやけた写真を数秒で鮮明な写真に変えることができ、優れた結果が得られます。この研究に関する論文は、CVPR 2020で発表されました(論文「PULSE: 生成モデルの潜在空間探索による自己教師付き写真アップサンプリング」)。 PULSE は CVPR カンファレンス中に注目を集め、AI コミュニティで広範囲にわたる論争を巻き起こしました。まず、この方法で生成される画像はより鮮明で詳細です。PULSE は、わずか数秒で 16×16 ピクセルの画像を 1024×1024 の解像度にアップスケールすることができ、最大 4096 倍の増加となります。現在、このアルゴリズムは顔の写真のみを対象としており、アルゴリズムによって生成された写真は顔の毛穴、しわ、さらには髪の毛の一本まで鮮明に見えるほど鮮明です。 しかし本質的には、PULSE はモザイクを削除するのではなく、本物のように見えるが存在しない顔を「生成」します。超解像度アルゴリズムは、コンピュータサイエンスにおいて常に注目されている研究分野です。これまで、科学者は低解像度の画像にピクセルを追加する復元方法を提案してきました。しかし、PULSE は GAN の考え方を採用し、まずディープラーニング アルゴリズムを使用していくつかの高解像度画像を生成し、次にその解像度を下げて、ぼやけた元の画像と比較することで、一致度が最も高く、元の画像に最も近い高解像度画像を見つけて出力します。 問題はここにあります。PULSE を試した後、一部のネットユーザーは、ぼやけた写真をデコードすると「白い顔」が生成されることに気づきました。 一部のネットユーザーは、この方法で生成された結果の偏りを疑問視した。プロジェクトの著者も、この偏りはStyleGANのトレーニングデータセットから生じる可能性があり、他の未知の要因がある可能性があると答えた。 「私たちは、機械学習とコンピュータービジョンの分野ではバイアスが重大な問題であることを認識しており、この問題についてStyleGANとFFHQデータセットの作成者に連絡を取りました。これにより、このようなバイアスのかかった動作を示さない方法の開発が促進されることを願っています。」 しかし、問題はまだ終わっていません。米国におけるBLMに対する現在の世論環境を考えると、機械学習の研究結果の多様性の欠如について、人々はすぐに深く議論し始めました。このうち、人種的偏見や性別による偏見の問題は常に存在してきましたが、これまで誰も良い解決策を思いついていません。 ちょうどその頃、ヤン・ルカン氏は、PULSE がなぜそのような偏見を持っているのかを説明するツイートを投稿した。 「機械学習システムの偏りは、データの偏りによるものです。この顔サンプリングシステムの結果は白人に偏っています。なぜなら、ニューラルネットワークはFlickFaceHQで事前にトレーニングされており、そのほとんどは基本的に白人の写真だからです」とヤン・ルカン氏は語った。 「このシステムをセネガルのデータセットでトレーニングすれば、結果はすべてアフリカ人のように見えるだろう。」 ヤン・ルカン氏の発言自体には何ら問題はないが、あまりにも率直すぎるがゆえに、多くのAI実践者や研究者を激怒させたのかもしれない。ルカン氏はデータセットの偏りに注意を喚起したかったが、ツイッターユーザーはそれを信じず、「問題の本質を隠すためにこの古い言い訳を使っている」と非難した。 その後、ヤン・ルカン氏は偏見に対する自身の立場を説明するためにさらに数回ツイートを投稿したが、効果はなかったようだ。 「学術論文と比較すると、展開された製品におけるこの偏りの結果はより悲惨なものとなるだろう。」この文章は「この特殊なケースについてはあまり心配する必要はない」と解釈され、多くの同僚から疑問を招いた。 スタンフォード大学AI研究所のメンバーであり、グーグルのAI科学者でもあるティムニット・ゲブル氏(アフリカ系アメリカ人)は、ルカン氏の発言に「失望」を表明した。 ヤン・ルカン氏はティムニット・ゲブル氏のツイッターのコメント欄に17件の返信を書いた。 もちろん、議論する必要があるのは機械学習におけるバイアスだけではありません。 「会話に悪意を持ち込むことも避けるべきです。それは感情を煽り、関係者全員を傷つけ、本当の問題を見えにくくし、解決を遅らせるだけです。」 データサイエンスの分野で10年以上働いてきたルカ・マサロン氏は、ヤン・ルカン氏の意見は技術的な観点からは完全に正しいが、この意見が出された後の世間の反応を見れば、それについて話すことがいかに敏感なことかが分かるだろうと考えている。 「人々は常に不公平なルールに支配されるのではないかと恐れており、無条件に、時には理由もなく、AIが人々から仕事だけでなく自由を奪うのではないかと恐れている」とルカ・マサロン氏は語った。 「私は個人的に、Face Depixelizer のような研究を心配していません。心配しているのは、偏見が適用された後にそれを特定して異議を唱えることができないことです。」 機械学習自動化技術がますます私たちの生活に入り込んでくるにつれて、立法者が果たすべき役割は非常に重要になります。 EU諸国では、データ利用における透明性と責任を確保するために、GDPRではインターネット企業に対し、アルゴリズムの説明可能性とユーザーによる自身のデータの管理を確保することを義務付けています。 AIを正しい方向に進めたいのであれば、私たちが追求すべきなのは偏見のなさではなく透明性なのかもしれません。ルカ氏は、アルゴリズムに偏りがある場合、その推論に異議を唱えて問題を解決できると主張しています。しかし、アルゴリズムの推論メカニズムが不明な場合は、おそらくそこにはもっと大きな問題が隠されている可能性があります。 人間社会にさまざまな偏見が存在することは否定できませんが、機械がより「人気のある」答えを好む傾向があるのは当然だと考えるのは正しい見方ではないかもしれません。 PULSE と LeCun に対する攻撃に関する議論の多くは、LeCun の当初の意図から逸脱しています。 この論争の結果、デューク大学の研究者らはPULSEのウェブサイトで偏見の問題を修正すると発表した。論文に新しいセクションが追加され、偏見に対処できるモデル カードが添付されています。 偏見のない目標を達成するには、AI コミュニティ全体を動員する必要があります。しかし、ほとんどの人は、技術に関する議論中に技術専門家が落胆するのを見たくありません。ヤン・ルカン氏は、常に率直な意見を述べることで知られています。彼はソーシャル ネットワークで人気のディープラーニング研究について頻繁にコメントしており、他の著名な人工知能研究者からの批判にも直面することがあります。 機械学習モデルの偏りにより、専門的な推論の完全性が損なわれ、気付かれずにビジネスに多大な影響を及ぼす可能性があります。この問題に対する恒久的な解決策はまだありません。 |
>>: RPA大手UiPath独占インタビュー:やがて「1人1台ロボット」の時代が到来
テクノロジーは建設業界にかつてないほど大きな影響を与えています。クラウドベースのコラボレーションやデ...
AIGC は、ほぼすべての業界で急速に導入され、ビジネス界の状況を急速に変えています。企業は、ビジネ...
1. 大規模グラフメモリ/計算問題を解決するための3つのパラダイム2年前に作成したチュートリアルでは...
私は、機械学習コミュニティで手動の特徴エンジニアリングが非常に人気があった 2013 年から自然言語...
ゲスト | 王 燕著者 | ユン・チャオコラム紹介: 「T最前線」は、51CTOコンテンツセンターが...
[[260147]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
近年、AI による絵画のレベルは飛躍的に向上しています。 Midjourney と Adobe ...
[[429517]]簡単なシミュレーション問題、ぜひ挑戦してみてください!配列を偶数/奇数でソート...
3月12日の朝、Googleが検索リクエストを完了するのにかかった時間は1秒未満でしたが、平均往復距...
MITの研究者らは新型コロナウイルスとの戦いに役立つ新しいロボットを開発した。この自律型機械は、微生...