多くの企業が自社のサービスはAIだと主張しているが、実際はAIのふりをしている人間である。

多くの企業が自社のサービスはAIだと主張しているが、実際はAIのふりをしている人間である。

[[235932]]

「疑似AI」の台頭:テクノロジー企業がボットの仕事を人間にひそかに任せる方法

7月9日、ガーディアン紙は「偽AI」の台頭を暴露する記事を掲載した。近年、人工知能は世間で注目を集めるキーワードとなっています。一部のテクノロジー企業も自社のサービスは人工知能によって駆動されていると主張していますが、実際はAIを装った手動のサービスです。

記事の主な内容は次のとおりです。

AI を活用したサービスを構築するのは簡単ではありません。実際、一部のスタートアップ企業は、機械を人間のように動作させるよりも、人間をロボットのように動作させる方が安価で簡単であることに気づいています。

「人を使って物事を行うことで、多くの技術的およびビジネス開発上の課題を回避できます。もちろん、拡張性はありませんが、何かを構築し、最初の難しい部分を回避できます」と、ReadMe の CEO である Gregory Koberger 氏は述べています。彼は多くの「偽のAI」に遭遇したと語った。

「これは本質的には人間を使ってAIのプロトタイプを作ることだ」と彼は語った。

ウォール・ストリート・ジャーナルは今週、グーグルがユーザーの電子メールへのアクセスを許可した数百のサードパーティアプリ開発者に焦点を当てて、この慣行について報じた。

サンノゼの会社エジソン・ソフトウェアの場合、AIエンジニアは数百人のユーザーの個人的な電子メールメッセージ(個人を特定できる情報は編集済み)を調べ、「スマート返信」機能の改善に取り組みました。同社のプライバシーポリシーには、誰かがユーザーの電子メールを読むとは書かれていない。

ジャーナルの記事で取り上げられている第三者は、そうする唯一の団体ではありません。 2008年、スピンボックス社は、海外のコールセンターでボイスメールをテキストメッセージに変換するのに機械ではなく人間を使っていたとして非難された。

2016年、ブルームバーグもこのジレンマを指摘し、人間がX.aiやClaraなどのサービスのスケジュールを1日12時間、チャットボットのふりをしていると述べた。仕事は気が遠くなるほど単調なので、従業員たちはロボットに取って代わられる日を楽しみにしているという。

2017年、ビジネス経費管理アプリExpensifyは、自社の「スマートスキャン技術」で行っていると主張していた領収書転記作業の少なくとも一部を人間が処理していたことを認めた。これらの領収書のスキャンはアマゾンのクラウドソーシング労働ツール「メカニカルターク」に投稿され、低賃金労働者が領収書の情報を確認し、書き写した。

「Expensify SmartScanのユーザーは、領収書情報を入力しているのは実はMTurkの労働者だということを知っているのだろうか」と、ツイッター上でクラウドワーカーでギグエコノミーの労働擁護者であるロシェル・ラプランテ氏は述べた。「ある人のUberの領収書を見たら、そこにはその人のフルネームと、乗車した場所と降ろした場所の住所が書かれていた」 ”

人工知能に多額の投資をしているFacebookでさえ、コミュニケーションアプリMessengerの仮想アシスタントサービスの提供には人間に依存している。

場合によっては、AI システムをトレーニングしてその精度を向上させるために人間が使用されます。 Scale という会社は、自動運転車やその他の AI 搭載システムのトレーニング データを人間の労働力に提供しています。たとえば、Scale の従業員はカメラやセンサーから送られてくる情報を確認し、境界ボックス内の車、歩行者、自転車にラベルを付けます。このような手動調整を十分に行うことで、AI はこれらのオブジェクトを認識することを学習します。

他のケースでは、企業は投資家やユーザーに対して、拡張可能な AI 技術を開発したと伝えて成功を偽装しますが、実際には密かに人間の知能に依存しています。

心理学者であり、メンタルヘルスサポート用チャットボット「Woebot」の創設者でもあるアリソン・ダーシー氏は、この実践を「魔法のようなデザイン技術」と表現している。

「何かの最終的な体験をシミュレートしているのです。AIの背後にはアルゴリズムではなく人間がいる場合がほとんどです」と彼女は語った。彼女はまた、優れた AI システムを構築するには「大量のデータ」が必要であり、設計者はそうした投資を行う前に、構築したいサービスに対する需要が十分にあるかどうかを知りたい場合もあると指摘した。

このアプローチは、Woebot のような心理的サポートサービスでは機能しないだろうと彼女は述べた。 「心理学者として、私たちは倫理原則に縛られています。他人を騙さないことは、明らかにその倫理原則の一つです。」

研究によると、人は人間ではなく機械と話していると思うと、より心を開き、より多くの情報を明かす傾向がある。これは、メンタルヘルスの助けを求めることは恥ずべきことだとみなされているからだ。

南カリフォルニア大学のチームは、エリーという名の仮想セラピストを使ってこれをテストした。その結果、エリーが機械の背後にいる人間ではなく人工知能システムであると知った退役軍人たちは、症状を明らかにする可能性が高くなることがわかった。

一方、企業は自社のサービスがどのように機能するかについて常に透明性を保つべきだと考える人もいます。

企業が人工知能を使ってサービスを提供していると見せかけて、実際には人間がサービスを提供しているという慣行について、ラプランテ氏は「私はそれが気に入らない。私にとっては不誠実で欺瞞的な感じがするし、自分が利用するサービスでそんなことが起きてほしくない」と語った。

「労働者の視点から見ると、私たちは後ろに追いやられているように感じます。顧客にすべて嘘をつくような会社に、私たちの労働者が搾取されるのは嫌です。」

この倫理的なジレンマは、人間のふりをする人工知能システムを彷彿とさせます。最近の例としては、Google のロボット アシスタント Google Duplex があります。これは、「えー」や「あのー」などの間投詞を使って非常にリアルな電話をかけ、人に代わってアポイントメントや予約を完了することができます。

当初は大きな論争を巻き起こしたが、グーグルは、同社の人工知能が通話の相手に自身の正体を明らかにすると発表した。

「デモでは、あまり影響のない会話だったので、少し騙されているように感じました」とダーシー氏は言う。レストランで席を予約するのは無害なやり取りのように見えるかもしれないが、同じテクノロジーが悪意のある人の手に渡れば、はるかに悪質なものになる可能性がある。

たとえば、有名人や政治家のアクセントをシミュレートして、電話中に実際の人物のように話すことができたらどうなるでしょうか?

ダーシー氏は、「AIについてはすでに多くの恐怖が存在し、透明性がなければ、人々が会話をするのにあまり役立ちません」と指摘した。

<<:  信じられない!中国はわずか3年で人工知能の分野で大きな成果を上げた

>>:  最も人気のあるオープンソースの機械学習 JavaScript フレームワーク 5 つ

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

...

...

...

人工知能がチップのルネッサンスを推進

半導体はデジタル時代の基盤技術です。アメリカのシリコンバレーの名はこれに由来しています。過去半世紀に...

音声認識とアプリケーションシナリオの組み合わせが未来への新たな章を開く

過去 20 年間で、音声認識技術は大きな進歩を遂げ、研究室から市場へと移行し始めました。今後10年間...

...

AIチップとは何ですか?人々が知っておくべきことすべて

[51CTO.com クイック翻訳] 業界の専門家は、音声アシスタント、顔認識カメラ、コンピューター...

我が国の独自開発OS micROSがリリースされました!このロボットの「心と脳」は単純ではない

9月10日、2019年世界コンピューター会議が湖南省で開催されました。中国科学院院士の楊学軍氏は、我...

Python か Java か? 2020年、優秀なプログラマーが習得すべき7つのプログラミング言語

どのプログラミング言語が最適ですか?この質問には答えがないかもしれません。人によって好みは異なります...

...

AIはイノベーションを通じて気候への影響を補うことができるでしょうか?

最も熱心な気候変動監視者でさえ希望を抱いている。なぜなら、人類の革新と技術が私たちをこの混乱に陥れた...

時代を先取り: パーソナライズされたマーケティング: 人工知能がカスタマー サービス業界にもたらす変化

それ以来、電子メール マーケティングは存在し続けています。私たちは皆、Google で電子メール マ...