率直に言って、2018年に私たちが耐えなければならないかもしれない人工知能の暗い側面

率直に言って、2018年に私たちが耐えなければならないかもしれない人工知能の暗い側面

18歳の時に撮った写真が様々な賞賛を浴びる中、また新たな年を迎えました。

[[215597]]

本来なら新年は楽しい時期のはずですが、大晦日が終わった直後にふと見上げると、もう仕事に行く時間でした! 悲しい気持ちにならずにはいられませんでした... そこで今日は、あまり嬉しくない話をしようと思います。

近年、2018年のさまざまな技術予測が次々と登場していますが、その中でAIに関する想像が大部分を占めており、内容はほぼすべて祝祭的で平和的です。

しかし、これにはもう一つの側面があります。AI から価値を享受し始めると、技術のアップグレードによってもたらされる潜在的なリスクも増大します。確かに車は牛車よりは良いですが、車も様々な交通事故を引き起こします。確かに道路から車を禁止することはできませんが、交通問題に目をつぶることもできません。

今日は、2018 年に私たちの目に映るであろう「人工知能の負のエネルギー」を予測します。

結局のところ、準備を整えることは問題を解決するための前提条件です。

1. AI倫理問題の事例が浮上し始める

2017年1月、カリフォルニア州アシロマで開催されたBeneficial Alカンファレンスにおいて、人工知能関連分野の約1,000人の専門家が、有名な「アシロマ人工知能23原則」に共同で署名しました。

その後、人工知能の倫理に関するさまざまな議論、会議、関連協会や科学組織が世間の注目を集めるようになりました。

「23原則」の主な内容は、人工知能が人類の利益と安全を損なわないように求めることです。同時に、人工知能は人間が制御可能でなければならず、人間は人工知能とロボットの安全性を尊重するために最善を尽くさなければなりません。

少しSFのように聞こえますが、AIがさまざまな業界で導入され始めると、特にAIが自動意思決定に使用されるようになると、人工知能の倫理的および道徳的問題が実際に表面化する可能性があります。

例えば、自動運転車が事故を起こしそうになったとき、歩行者や乗客の保護を優先するのでしょうか?AI診断システムが安楽死を推奨した場合、それは殺人に該当するのでしょうか?より大きな損失を避けるために、AIシステムはルールを破って独自に行動できるのでしょうか?

これらの中で最も有名なのは、昨年グーグルが上海交通大学のチームが「顔を見て犯罪者を有罪にする」研究を行ったことを批判した事件だろう。これにより、AIの価値についてメディアで多くの議論が巻き起こりました。

AI技術がさまざまな産業のシナリオで使用され始めると、実験室では決して発生しない境界問題、責任問題、倫理的選択などの対立が引き起こされる可能性が高くなります。

人類はこれまでこのことについて真剣に議論したことがなかった。 2018 年に人工知能が迅速に実装されれば、倫理的問題の兆候が現れる可能性がある。

2. アルゴリズムによる差別は治すのが難しい

2016年にマイクロソフトがチャットボット「Tay」をリリースしたが、ユーザーが人種差別や汚い言葉を大量に教え込んだため、1日以内に一時的にオフラインになったことを覚えています。これは非常に議論の余地のあるトピックを提起します。機械学習は人間の知識と情報を吸収して自分自身を形作りますが、吸収する情報に「それほど純粋ではない」ものがたくさん含まれていたらどうなるでしょうか?

2017年はアルゴリズムによる差別問題が解決されなかっただけでなく、さまざまな新たな問題が浮上しました。たとえば、Google Brain は女性の写真に家族や弱さに関連した多くのラベルを付けるが、これは明らかにフェミニズムの精神に反する。また、黒人をゴリラと識別したことで、AI における人種差別の問題が浮上した。

一般消費者にとって、いわゆるアルゴリズムによる差別は、コンテンツの推奨と電子商取引の推奨という 2 つの領域で最も感じられる可能性が高いです。

たとえば、電子商取引会社が消費者にゆったりした服を見た直後にダイエット薬を勧めると、消費者はアルゴリズムが自分の肥満を差別していると思うかもしれません。別の例としては、Toutiao などのソフトウェアを開いたときに、誰もがこのような状況に遭遇したことがあるかもしれません。時折、推奨された奇妙なコンテンツや疑似ポルノコンテンツをクリックし、ページを更新します。

そうですね、似たようなコンテンツが大量に流れ込んでくると、本来読みたかった興味や専門的なコンテンツは一瞬で消えてしまいます。たとえあなたが何を注文したか気に入らなかったり、気に入らなかったりしたとしても、プラットフォームはそれをあなたに勧めます。それは、アルゴリズムがあなたを分類する方法によってラベルが付けられるからです。この種の差別は、まるで誰かがあなたの後ろでニヤニヤしながら「認めなさい、あなたは本当に下品だ...」と言っているかのようで、非常に深刻です。

この種の問題の根本は、機械学習テクノロジーを使用して作成されたパーソナライズされた推奨事項が、現在、過去に基づいて未来を計算し、グループに基づいて個人を計算するという 2 つのロジックに基づく必要があることです。アルゴリズムは過去の経験を吸収して具体的な情報を提供しますが、機械が吸収した経験には差別的な情報が含まれている可能性が高いです。

パーソナライズされた推奨システムがますます多くのシナリオで使用されるようになると、短期的にはアルゴリズムによる差別を根絶することが困難になる可能性があります。

3. 個人データと機械学習の矛盾がますます顕著になっている

人工知能と個人のプライバシーは、常に天敵であったようだ。

なぜなら、人工知能技術が個人の習慣に完全に一致するパーソナライズされたサービスを提供したい場合、ユーザー自身を学習し理解する必要があるからです。これには、ユーザーの個人データについて学習することが含まれます。

しかし、プライバシーに関する懸念やネットワーク セキュリティに対する信頼の欠如により、ほとんどのユーザーは自分のデータをマシンに公開したくないのは明らかです。

こうして、「鶏が先か、卵が先か」という矛盾が生じます。

過去2年間、ユーザーの個人データを読み取るためのAIの使用は抑制されており、言及することはできません。以前、AppleやGoogleなどの大企業は、AIがユーザーを理解できるようにする製品を発売しましたが、世間の批判によりすぐに中止されました。それでも、昨年発売されたGoogleのAI搭載ホームカメラは広く批判されている。

2017年後半には、AIチップをめぐる熾烈な競争が始まりました。ただし、AI チップを搭載したハードウェアは、ターゲットを定めて、達成すべきタスクを持っている必要があります。したがって、ハードウェアがユーザーを理解し、システムがユーザーデータに基づいて各人にカスタマイズされたサービスを提供できるようにすることは、必然的に世間の注目を集めることになるだろう。

実際、全体的な傾向から判断すると、個人データを機械に渡すことは、人間の避けられない行き着く先であるように思われます。医療、金融サービス、社会保障など、機械は人間よりも確実に信頼できます。しかし、それに伴う不快感と安全上のリスクは非常に大きいです。

2018 年には、携帯電話、スピーカー、ウェアラブルデバイス、VR のいずれであっても、機械学習機能を有効にした後、プライバシーデータという一線を再び越えなければならないと思われます。

この矛盾にどう対処するかは、かなり頭の痛い問題です。

4. 真実と虚偽を区別することがますます困難になっている

現状では、AI が人間のようにコミュニケーションしたり理解したりできるようになることを期待するのは明らかに時期尚早です。しかし、AI に情報を偽造させることは、もはや大きな問題ではないようです。

これまで、動画や生放送での顔の入れ替えの可能性について議論してきましたが、実際、技術の進歩全体の観点から見ると、GAN ベースのシミュレーションと入れ替えの技術は全体として成熟しつつあります。オーディオファイルやビデオファイルのシミュレーションや置換も、AI で簡単に処理できます。

しかし、これは決して良いことではありません。有名な Face2Face ソフトウェアがリリースされたとき、海外のネットユーザーからは「ビデオチャットの相手が入れ替わったらどうなるのか」という声が上がった。

開発フレームワークとデータ リソースがより豊富になり、アルゴリズムがより強力になるにつれて、2018 年には AI を使用してビデオとオーディオを作成することがよりシームレスになると確信できます。

これは AI による未来のテクノロジーの探求ですが、ソーシャル メディアやオンライン コミュニケーションに混乱を引き起こす可能性があります。私たちが見るビデオが完全に偽物である場合、この世界で他に何を信頼できるでしょうか?

偽物が本物になると、本物も偽物になります。AI詐欺に対抗できるAIシステムが早く登場することを期待するばかりです。

5. ハッカーの攻撃にはさらなる手口がある

2017年末、Google TensorFlowのフレームワークの脆弱性が驚くべき形で暴露されました。ホワイトハットによって発見され、危険は発生しませんでしたが、AIが安全ではないことを改めて思い起こさせました。

これまで、AI を利用してファイル情報を偽造し、攻撃や詐欺を実行すること、AI 技術を利用してハッカー攻撃の効率を向上させること、AI システムを標的とした攻撃など、さまざまなハッカー攻撃と AI 技術を組み合わせる可能性が見られてきました。 AIとモノのインターネットシステムの組み合わせにより、将来のIoT攻撃にAIが関与する可能性が高くなります。

AI テクノロジーの成熟により、サイバーハッカーはより多くのターゲット、より多くのツール、より多くのテクニックを見つけることができるようになりました。 AI はインターネットのセキュリティを保護するためのさまざまな方法も提供します。しかし、いずれにせよ、AI がハッカーにさらなる可能性をもたらすことは間違いありません。

2017 年のサイバーセキュリティの世界は不安定で、さまざまなウイルスやハッカーが大混乱を引き起こしました。 2018年に入ると、この戦場ではさらに激しい戦闘が繰り広げられることになるでしょう。

結論

他の技術革新と同様に、AI は価値をもたらす一方でリスクも生み出します。さらに、認識能力や学習能力といった特性上、AI の悪影響は従来よりも大きくなる可能性があります。

しかし、何があっても、テクノロジーは一歩一歩進歩しています。より良い景色には、より困難な旅が伴うものです。リスクを認識し、解決策を模索することは、人間が AI と対話するためのより快適な方法となるかもしれません。

<<:  アメリカの科学者が新技術を開発:ロボットが行動する前によく考えさせる

>>:  ホーキング博士:人工知能の脅威は核兵器のようなもので、世界には10の大きな変化が起こるでしょう!

ブログ    
ブログ    
ブログ    

推薦する

人工知能への恐怖現象を探る

現在、人工知能は人類に大きな発展の機会をもたらす一方で、さまざまなリスクや課題も伴っています。科学技...

...

...

ナノロボットは将来さまざまな場面で使用される可能性がある

最近、米国ペンシルベニア州立大学の科学者たちが新しいタイプのナノロボットを開発しました。このロボット...

プログラマーは「自殺」している。人工知能が進化し続ける中、人間は何をすべきか?

中国、日本、韓国の囲碁名人数十人がこのゲームに挑み、アルファ碁は1敗もせずに60連勝した。その後、世...

ChatGPTを超える最初のオープンソースモデルが登場?ネットユーザーはそれを信じない

大型モデルが人気となり、毎日さまざまな「ビッグ」ニュースを目にするようになりました。写真今日、もう一...

ブロックチェーン、人工知能…革新的なコンセプトを利用して投資家を混乱させる違法金融にご注意

[[337468]]最近、上海検察院は2019年金融検察白書を発表し、現在の金融犯罪事件を整理・分析...

人気の説明: キャッシュ、キャッシュ アルゴリズム、キャッシュ フレームワークの概要

[[437580]]導入私たちは皆、キャッシュについて聞いたことがあります。キャッシュとは何かと尋ね...

...

面白いですね!プログラマーが AI を使って双子の息子を認識するんです! 「この Raspberry Pi の顔認識システムは私のものほど正確ではありません」

2021年までに、学習アルゴリズムと人工知能の研究を通じて、機械は多くの面で人間よりも優れていると...

機械学習/ディープラーニング プロジェクトを始める 8 つの方法

[[392342]] [51CTO.com クイック翻訳]探索的データ分析から自動機械学習 (Aut...

ロビン・リー:AIネイティブ時代の「冷たい」思考と「熱い」ドライブ

11月15日、科学技術部と深セン市人民政府が共催する「2023西里湖フォーラム」が深セン大学城国際会...