2019年に解決すべき11のAI倫理的ジレンマ

2019年に解決すべき11のAI倫理的ジレンマ

ビッグデータダイジェスト制作

編集者: Luan Hongye、Aileen

今こそAIの倫理について議論すべき時です。機械学習は新しい技術開発ではありませんが、これは人工知能の発展において重要な時期です。以下に挙げる 11 の問題を含め、対処すべき倫理的問題は数多くあります。

AIを非倫理的な目的で使用する

1. 経済格差と労働問題

テクノロジーが進歩するとき、私たちがまず注目しなければならないのは雇用の安定です。最初の産業革命と同様に、労働の全面的な自動化は労働者を恐怖に陥れました。

米国政府が初めて大学教育を推進したのは第一次産業革命の頃でした。当時のアメリカ人にとって、問題は大学の費用ではなく、学位を取得するために仕事を中断することによる機会費用だった。労働者に学習を強制するのは野蛮な行為だと言えるかもしれないが、人工知能(第四次産業革命)によって促進される自動化の次の段階もまた、労働者に大学の学位取得を促している。

政府が、自動化によって削減される労働者を補うために、普遍的な所得(全員に基本賃金を与える)を提供しない場合。学生ローン危機は、失業した労働者がさらに教育を受ける意欲をそがれさせ、貧困と所得格差の循環につながる可能性もある。

2. 人間の行動への影響

気づいているかどうかに関わらず、人々は日常のタスクを完了するために機械とやり取りすることがますます増えており、透明性と行動への影響の問題が生じています。たとえば、Google Duplex は、本物の人間のように話し、電話でレストランの予約ができる AI システムです。システムは実際の人間に匹敵するほど迅速に応答できます。

人間の注意力と忍耐力には限界がありますが、機械の感情的なエネルギーには限界がありません。もちろん、機械の限界は技術的なものですが。これは顧客サービスなどの特定の分野では有益かもしれませんが、この無制限の機能はロボットに対する感情的な依存を生み出す可能性があります。これは、機械に恋する男の物語を描いた映画「her」に反映された問題です。

[[269105]]

実際の人間を模倣するこれらのロボットに加えて、多くのアプリはアルゴリズムを使用してユーザーを中毒にするように設計されています。たとえば、Tinder は、類似したマッチングを推奨せず、ユーザーをアプリ内に長く留めておくことで、AI 駆動型アプリにユーザーをより長く縛り付けるように設計されています。

3. 雇用と犯罪における偏見による差別

AI倫理において最も緊急かつ広く議論されている問題の1つは、雇用や犯罪などの分野における予測分析システムにおける偏見の問題です。アマゾンはかつて、AI駆動型アルゴリズムを使用して過去のデータを活用し、優秀な求職者を選別した際に採用偏見事件を起こし有名になったことがある。以前の候補者選択では性別による偏りがあったため、アルゴリズムでも男性を選択する傾向があります。

ニューヨーク市警察は3月、警察のデータを精査して犯罪パターンを発見し、類似の犯罪を関連付けるアルゴリズム機械学習ソフトウェア「Patternizr」を開発したと明らかにした。 2016年から使用されているこのソフトウェアは、強姦や殺人事件では使用されておらず、パターンを探す際に性別や人種などの要素を除外している。

これは、人種的偏見に基づいて犯罪や違法行為を予測した以前のアルゴリズムからの前進ではあるが、過去のデータセットからあらゆる種類の差別を積極的に排除することは標準的な方法ではない。つまり、この種の訓練された差別は、良くても侮辱や不便であり、最悪の場合、個人の自由の侵害や組織的抑圧のきっかけとなるのです。

4. 誤報とフェイクニュース

[[269106]]

AI の倫理に関するもう 1 つの問題は、改ざんです。改ざんとは、多くの場合悪意を持って、元のメディアや音声から AI を使用して画像、ビデオ、音声を操作し、他のものの本来の意味を変更することです。ディープフェイクには、顔の入れ替え、声の模倣、顔の再現、リップシンクなどが含まれます。古い写真やビデオ編集技術とは異なり、ディープフェイク技術の開発の目的は、技術的なスキルを持たない人でも簡単に使用できるようにすることです。

元NATO事務総長のニーナ・シック氏などの専門家によると、ディープフェイクによる画像や動画の操作は、例えばドナルド・トランプ氏が核戦争を宣言するリップシンク動画など、世界秩序に壊滅的な影響を及ぼす可能性があり、その結果、ディープフェイク技術はRedditなどのサイトで非常に厳しい検閲とブロックの対象となっている。

前回の米国大統領選挙の際、ロシアは同様の手法を使ってフェイクニュースを使ったハッキン​​グ攻撃を実行した。こうした情報戦争は日常的なものになりつつあり、事実を変えるだけでなく、特定の意見や態度を強制的に変えるためにも存在しています。このアプローチは英国のEU離脱運動でも使用され、高まる政治的緊張と混沌とした世界情勢に拍車をかけました。

人工知能を利用して消費者のプライバシーを侵害する

5. 消費者のプライバシーとセキュリティ

政府は消費者のプライバシーを保護するために多くの規制を制定していますが(EUデータプライバシー法GDPRなど)、潜在的な脅威は依然として大きいです。

データ収集: 携帯電話から Bluetooth 対応の電球まで、ほとんどの消費者向けデバイスは、より優れた、よりパーソナライズされたサービスを提供するために AI を使用して個人データを収集します。この種のパーソナライゼーションは、ユーザーが同意し、データ収集が透明である場合に優れた機能となります。合意や透明性がなければ、この機能はユーザーに悪い体験を与えることになります。

識別と追跡: 電話追跡アプリは、タクシーに iPhone を置き忘れたり、ソファのクッションの間に鍵を置き忘れたりしたときに便利です。しかし、家庭内暴力の被害者が匿名を希望する場合など、個人情報を追跡することが安全でない場合もあります。

音声および顔認識: 前の機能と同様に、音声および顔認識は、日常的に使用する消費者向けデバイスに搭載されていると便利な機能です。たとえば、iPhone では、ユーザーはパスワードを入力する代わりに顔認識を使用して携帯電話のロックを解除できます。

6. グローバルセキュリティとインテリジェンス

国際的な誤報(フェイクニュース報道など)のリスクと同様に、この点における AI の倫理的リスクは非常に大きいです。人間の兵士を AI ロボットに置き換えたり、自動化された兵器を開発したりすれば、政府の防衛軍による危害のリスクをある程度軽減できるかもしれないが、AI がもたらす倫理的なジレンマは核爆弾がもたらすものと匹敵する。

国際指導者らが核兵器実験における人工知能の役割について言及することはほとんどないが、マイクロソフトのような企業は国防総省に高度な自動認識システムを販売する意向をひそかに発表している。

AIを活用して消費者の主体性を減らす

7. シンギュラリティ、あるいはロボットの支配者

宇宙家族ジェットソンの悪夢のようなストーリーラインのように、ロボット支配者の概念は、AIを取り巻く最も明白な倫理的ジレンマとして消費者の心に浮かび上がっています。オックスフォード大学の第一人者であるニック・ボストロム氏は、将来のAIシステムが人間の価値観と矛盾する価値観を持つようになると、悪意のあるロボット支配者のビジョンが現実になる可能性があると述べた。自律性のない人間は誰でしょうか?自律性を与えられたロボットは誰でしょうか?そして最後に、同じ自由と知性を与えられたとき、両者をどのように定義するのでしょうか?

グーグルの未来学者でチーフエンジニアのレイ・カーツワイル氏は、シンギュラリティは私たちが考えているよりも近いと語る。カーツワイル氏は、2045年までに人間の知能と人工知能が融合し、私たちはさらに賢くなるだろうと予測している。それは恐れるべき未来ではなく、期待すべき未来だ。

8. AIの人間化

[[269107]]

AI システム (またはロボット) には権利があるのでしょうか? カーツワイルが正しいとすれば、AI を人道的に扱うということは、人間を人道的に扱うということに他ならないかもしれません。現在、Sophia (Hanson Robotics 社が開発したヒューマノイド ロボット) など、一部の AI システムには市民権さえあります。

人工知能と予測不可能な二次的事象

9. AIが犯すミス

人工知能が存在するなら、人工的な愚かさも存在するだろう。現在、AI システムは特定のドメインのパターンに基づいてトレーニングされており、すべての可能性をカバーできないため、新しいシナリオが提示されると簡単に混乱する可能性があります。これは、AI システムには人間のように類似性を認識する能力がまだないためです。たとえば、パターン認識では、AI システムがトレーニング セットのデータとは異なるシナリオに遭遇した場合、コンテキストに基づいて判断を下すことはありません。

AI システムが簡単に騙される可能性があるということは、機械学習における敵対的攻撃などの悪意のある影響に対しても脆弱であることを意味します。たとえば、アルゴリズムは影響力のあるアカウントからフェイクニュースを読み取り、ジャーナリストのように公開前にソースやアイデアを確認するのではなく、最適化されたコンテンツ要素に基づいてそれを宣伝することができます。

10. AI規制

テクノロジー業界は一般的に、規制の欠如で物議を醸している。その理由の1つは、業界の変化が急速であるため、どこから施行を始めるべきかを判断するのが難しいこと、もう1つは、テクノロジー文化が西洋世界と同じ夢、つまりいかなる犠牲を払ってでも革新を追求することにある。

グーグルのように自主規制の試みはこれまでもあった。グーグルは社内倫理委員会を設置したものの、気候変動を否定し、移民反対の感情を持つメンバーを含む物議を醸すメンバーがいたため、すぐに解散した。マイクロソフトも同様に、政府に対し、特に顔認識ソフトウェアなどのAIシステムを規制するよう口頭で促しているが、競合他社は同社と立法府の関係が近すぎると指摘している。

同時に、AI システムはほとんど規制なしに開発され、導入されています。

11. 倫理的な AI が不可能なら…

私たちの最大限の努力にもかかわらず、AI が道徳的になることは決してないかもしれません。 AI システムを倫理的にトレーニングするには、次のことが必要です。

  • AIが道徳的に行動する動機を持っていると仮定する
  • 普遍的な道徳ルールの出現を期待する
  • AI を道徳的に訓練する人々自身も道徳的であると私は信じています。

スティーブン・ホーキング、ビル・ゲイツ、イーロン・マスクはいずれも、超知能は慎重に扱われるべきだと述べた。 AIは倫理的になれるのか?意見は様々だが、AI倫理の時代が来ていることは明らかであり、私たちが行動を起こさなければ大きな間違いとなるだろう…

関連記事: https://blog.remesh.ai/top-11-ai-ethics-dilemmas-affecting-tech-right-now

[この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」からのオリジナル記事です]

この著者の他の記事を読むにはここをクリックしてください

<<:  テクノロジーは無罪? AIが女性の服を直接「脱がす」!

>>:  ロボットがIoTアプリケーションの範囲を拡大する方法

ブログ    

推薦する

週刊「ニュース速報」 | AIエリートは数百万ドルを稼ぐ? !李開復氏がAI業界のチャンスを明かす!

AIエリートが100万以上稼ぐ!マスク氏が設立したOpenAIが誤って給与情報を公開4月23日のニ...

ベイジアンネットワークを使用して病院の患者数を予測する

翻訳者|朱 仙中レビュー | Chonglou複雑さを乗り越える: 医療における患者数の予測医療にお...

「AIGC+」|新たなマーケティングパラダイム:AIGCは海外進出企業にとって「新たな武器」となり得るか?

わずか 1 年で、AIGC がもたらした業界を変革するアプリケーションは、徐々に人々の生活の隅々に浸...

20以上のモバイルハードウェア、Int8超高速推論、エンドサイド推論エンジンPaddle Lite 2.0が正式にリリースされました

PaddlePaddleは今年8月、端末やエッジデバイス向けのエッジ推論エンジン「Paddle Li...

6つの興味深い画像グレースケール変換アルゴリズム

[楊静卓のブログより引用]序文白黒写真の時代は過ぎ去りましたが、今、昔の写真を見ると、昔に戻ったよう...

AIスタートアップのRokidがKamino 18 AI音声チップをリリース、低電力ウェイクアップをサポート

昨日、国内のAIスタートアップ企業Rokidは杭州で新製品発表会を開催し、Meスマートポータブルスピ...

検索意味モデルの大規模定量化実践

1. 検索セマンティックモデルの現状ERNIE: 知識統合による表現の強化は、中国語の NLP タス...

不正行為防止スパムテキスト認識のためのZhihuのディープラーニング実践の詳細な説明

背景今年8月時点で、知乎の登録ユーザー数は2億人を突破した。私たちはスパムの管理において、より大きな...

自動運転車が公道を走るのを妨げているものは何でしょうか?

イーロン・マスク氏は、テスラが2020年末までに完全自動運転車を開発すると繰り返し強調している。 「...

...

画像やテキストが無限の3D世界を生み出します!スタンフォード大学の呉嘉軍氏のチームの新しい研究は、ネットユーザーから「信じられない」と評された。

スタンフォード大学の呉嘉軍チームが『不思議の国のアリス』の傑作のAI版を制作!たった 1 つの画像ま...

もう一つの「無人工場」が誕生。残された労働者たちは何をするのでしょうか?

最近、ZTEの南京浜江インテリジェント製造基地が設立されたのを見たとき、私はまったく喜びを感じません...

ボストン・ダイナミクスの大きな黄色い犬が石油会社に加わる! 「決して疲れない」と主張する

[[314711]]ボストン・ダイナミクス社が開発したスポットは、ノルウェーの石油会社アーケル社で独...

2020年代に人工知能が教育を変える6つの方法

自動駐車システム、モバイル決済、ソーシャル メディア フィード、あるいは私たちが毎日触れる無数のテク...

生成AIはスマートホームの触媒となる

ラスベガスで開催される2024年コンシューマー・エレクトロニクス・ショーが終わりに近づく中、LGやサ...