データが増えるほど、AI は賢くなるのでしょうか?私たちはそれを常に当然のこととして受け止めてきました。

データが増えるほど、AI は賢くなるのでしょうか?私たちはそれを常に当然のこととして受け止めてきました。

人工知能技術の台頭に伴い、AIの問題点が徐々に明らかになってきました。 AI による決定は、依然として人間の最善の決定とは異なり、偏りが含まれることがよくあります。それで何が問題なのですか?最近の記事で、著者のマリアンヌ・ベロッティ氏は関連する理由を説明し、AI 設計の原則に関する自身の見解を述べました。記事の具体的な内容を見てみましょう。

ますます多くのデータ

専門家によると、データ サイエンティストは時間の約 80% をデータのクリーニングに費やしています。AI 主導の集中型意思決定を実現するための鍵は、さまざまなタスク間の障壁を打ち破り、AI モデルの相互運用可能なプロセスを作成することです。現在のAI分野では、多大な時間と経済的コストを費やしても、人間の脳のように地球規模レベルに近い状況認識を実現することは不可能です。データサイエンスと人工知能が進歩するにつれて、AI モデルの構築に必要なデータの量も増加します。

自動運転企業は数百億ドルを投資してきましたが、完全な自動運転はまだ実現していません。ソーシャルメディア企業は、AIを使用して不適切な情報をクリーンアップしようと数十億ドルを投資してきましたが、依然として手動のクリーンアッププラットフォームに大きく依存しています。

AIはまだ最適な決定を下す能力を持っていません。さらに、AI モデルを構築する際には人間の偏見を完全に排除するのではなく、より多くのデータから「完璧な」 AI モデルを構築しようとしていますが、このデータは不均一です。

意思決定とデータの関連性

難しい問題の解決策を見つけようとするときは、まず物事を細分化する必要があります。どのような仮定を立てているのでしょうか?これらの仮定は、解決すべき問題をどのように定義するのでしょうか?これらの仮定が異なっていたら、解決される問題は異なるでしょうか?解決したい問題と解決結果の間にはどのような関係がありますか? AI にとって、結果としてのより良い意思決定が非常に重要です。より多くのデータへのアクセスが意思決定者がより良い決定を下すための鍵であり、より良い決定はより少ない悪影響を意味すると仮定すると、全体的な状況認識も非常に重要です。

現実の世界では、意思決定者はコストを節約するために最適化の決定を下すことがよくあります。しかし、結局のところ、決定は結果に基づいて判断され、正しい分析に基づいた多少の幸運が必要になります。結果が出るまでは、最良のデータに裏付けられた最も慎重かつ徹底的に構築された戦略であっても、決定の絶対的な正確性を保証することはできません。

したがって、意思決定プロセスは、データの客観的な分析ではなく、リスクの許容度と優先順位に関する利害関係者間の積極的な交渉である必要があります。データは洞察を提供するのではなく、利害関係者を影響から守るための盾として使用され、完全な情報はノイズ レベルを増大させることで意思決定の質を低下させることがよくあります。

[[403768]]

これは信じられないことです。完全な情報があれば、意思決定プロセスが自動的に改善されるのではないでしょうか。実際、より多くの情報があれば、意思決定の背後にある組織戦略が変わる可能性があります。 AI はコンテンツを正しく識別できますが、そのコンテンツに基づいて行われる決定は、ユーザーや組織の規範や期待に大きく影響されます。

チームの意思決定を改善する最善の方法は、より多くのデータを取得することではなく、関係者間のコミュニケーションを改善することです。しかし、AI の恩恵を受けるには、データのクリーンアップや量の増加に何十億ドルも費やす必要があるのでしょうか?

設計が不十分なAIは大きな安全上のリスクをもたらす可能性がある

現在、データの品質を評価する方法は誤解を招く恐れがあります。 「クリーン」なデータとは、正確で、偏りがなく、再利用できるデータのようです。しかし、現実には、クリーンであることと正確であることは同じではなく、正確であることと実行可能であることは同じではありません。これら 3 つの側面におけるデータの問題は、人工知能モデルのパフォーマンスに重大な影響を及ぼし、その結果の品質に影響を与える可能性があります。データにはさまざまな問題が考えられますが、その中には、不正確なデータ、破損したデータ、非標準形式のデータなど明らかな問題もあります。一部の問題はより微妙であり、たとえば、データが特定のコンテキストで取得され、その後不適切に再利用される、データがモデルに対して不適切な粒度レベルにある、データが標準化されていないために同じ事実が異なる方法で表現または説明される、などです。

これらの問題のいずれかを単一の真実のソースで解決することは困難であり、プログラムによる攻撃者が大規模なシステムに不正なデータを挿入してモデルを破壊しようとした場合、すべての問題を解決することは事実上不可能になります。 AI が新たな機会を生み出す一方で、新たな脆弱性ももたらすという事実を無視することはできません。人工知能は、攻撃と攻撃を受ける新たな方法をもたらします。 AIは、衛星データを妨害する位置情報の偽装など、新世代の攻撃ツールを生み出す可能性があります。 AI 技術と並行して、データを改ざんして AI システムを欺いたり、誤解させたりするための手法も開発されています。

[[403769]]

現在の AI システムはデータの品質に完全に依存しているため、AI に欠陥があるのはテクノロジーが未熟なためではなく、AI が最初から脆弱になるように設計されているためです。したがって、この場合、AI システムは不良データに対処できるほど柔軟に設計する必要があります。では、AI が攻撃されるリスクを減らすためにこの設計を変更したらどうなるでしょうか?これには、AI を「アンチフラジャイル」にする必要があります。

アンチフラジャイル AI とは何ですか?

「アンチフラジリティ」とは、AI システムが障害後に回復できるだけでなく、障害を経験した後により強力かつ効果的になることを意味します。実際に意思決定を改善する要素に基づいて AI システムを構築することで、アンチフラジャイル AI の機会が生まれます。既存の認知科学の研究によると、適切な意思決定は、積極的に仮定を明確にし、仮定を検証するための仮説検定を構築し、利害関係者間で明確なコミュニケーション チャネルを確立することで実現されます。

「ヒューマンエラー」を引き起こす認知バイアスの多くは、上記の3つの側面の問題の結果です。人々が自分の仮定を明確に述べないと、実際の状況では適切でない解決策を使用します。人々が自分の仮定をテストしないと、変化する状況に基づいて正しい決定を調整できません。オペレーターがお互いに情報を効果的に共有できない場合、変化する状況を発見して仮定に疑問を投げかける機会を失い、それは誰にとっても不利益です。

現在の研究では、分類と認識における AI の使用が過度に重視され、推奨とコンテキスト化における AI の使用が過小評価されているため、AI は不良データに対して脆弱です。しかし、AI による決定は簡単に覆されてしまいます。

アルゴリズム分析の出力を結論として扱うことと、提案やヒントとして扱うことの間には大きな違いがあるため、アンチフラジャイル AI の設計は困難です。意思決定者はコストを節約するために、AI の出力を結論として受け取る場合があります。これは、人工知能の応用においてすでに存在する壊滅的な間違いです。

同時に、多くの診断には単一の正解がないため、医療における AI システムは意思決定の質を向上させることができます。医療診断では、あらゆる症状にはさまざまな確率で考えられる原因が存在します。臨床医は、考えられるすべての原因を網羅した意思決定ツリーを頭の中で構築し、それらの原因のいくつかを排除する検査を想像します。医療診断は、仮説を定義し、それをテストし、解決策が見つかるまで考えられる原因の範囲をさらに絞り込むという循環的なプロセスです。

[[403770]]

データは乏しいものの、医師に他の考えられる原因を追加するよう促すことで、診断プロセスを迅速化できる可能性がある。この場合、AI は医療専門家間のコミュニケーションと知識の共有を改善し、重要な瞬間に患者に関連する情報にアクセスできるようになります。対照的に、人工知能技術を使用して良性腫瘍と悪性腫瘍を区別することで医師よりも優れた診断を行うことを目指す AI 製品は、不良データの問題に悩まされてきました。

不良データを持つ強力なAI

人工知能などの最先端技術を使用する前に、研究者や開発者はまず、解決すべき問題をどのように定義するかについて考える必要があります。 AI を意思決定の改善に使用する場合、AI は専門家よりも優れた成果を出そうとするのではなく、仮説テストにおいて意思決定者を導く必要があります。 AI が専門家を上回るパフォーマンスを発揮できるようになれば、AI はデータの品質に完全に依存するようになり、プログラム攻撃者が簡単に悪用できる一連の脆弱性が生まれます。

AI が専門家になるように訓練されるのではなく、人間の意思決定を改善しサポートするように訓練されると、AI は不良データに対して耐性を持ち、脆弱性を克服できるようになります。この場合、AI は意思決定を行うのではなく、意思決定の背後にある仮定を明確に表現し、それらの仮定を人々に伝え、それらの仮定に関連する実際の状況が大幅に変化したときに意思決定者に警告するのを支援します。 AI は、意思決定者がどのような状態が可能か、またはどのような条件下でいくつかの状態が可能かを判断するのに役立ちます。このようなソリューションは、不良データによって新たな弱点を生み出すのではなく、既存の弱点に対処することで、意思決定チームの全体的な能力を高めることができます。

人工知能はまだ「知的」ではない

この記事が公開された後、多くのネットユーザーが著者の見解に賛同する意見を表明した。

あるネットユーザーは「これは私が近年読んだAIに関する記事の中で最も賢明なものの一つであり、関連分野で働く人々にとって有益だろう」と述べた。

他の誰かが著者と同じようなことを言っていました。「人々は人間の仕事を自動化する AI に魅了されすぎて、AI が人間を支援する上でより大きな可能性を秘めていることを忘れています。」

一部のネットユーザーは、人工知能の成功の鍵は大量のデータではなく、成功体験から得られる少量のデータに頼るべきだと考えている。

さらに、あるネットユーザーはこう述べた。「人工知能は人間の『知能』とは何の関係もありません。実際には、それは単にコンピューター化された情報であり、人間がそれを解釈する必要があるだけです。」

人工知能が真の完全自律性を実現するには、まだ程遠いようです。これについてどう思いますか?

<<:  GPT-3 にフェイクニュースが流布されるのではないかと心配ですか? Google の新しい研究は、知識グラフをトレーニング用の「人間の言語」に変換する

>>:  チューリング賞受賞者のベンジオが新論文を発表、Redditがクラッシュ: アイデアがクラッシュ

推薦する

データ分析に人工知能を取り入れる方法

生成型 AI の台頭は、インターネットの誕生と同様の影響を及ぼしています。新しいテクノロジーが私たち...

ディープラーニングを理解するための鍵 – 啓蒙

ニューラル ネットワークは、これまでに発明された最も美しいプログラミング パラダイムの 1 つです。...

百度のロビン・リー氏は、今後10年間は​​人工知能の革新の時代になると述べた。

【CNMOニュース】最近、百度の創業者で会長兼CEOのロビン・リー氏はインド工科大学マドラス校が開...

...

カナダ工学アカデミー会員のソン・リャン氏:将来の人工知能システムはネットワークの形で存在するだろう

12月5日、国務院の承認を得て、科学技術部と河南省政府の共催により、12月6日から8日まで河南省鄭州...

...

組み込み物流ロボットの用途は何ですか?

ネットワーク技術やグリッドコンピューティングの発展により、組み込み型モバイル機器を中核とした「ユビキ...

...

Nvidiaの次世代GPUが発表、H100を超える!最初の3nmマルチチップモジュール設計は2024年にデビュー予定

3nmプロセス、H100をはるかに超える性能!つい最近、海外メディアのDigiTimesが、コードネ...

この AI ツールは最近、大騒ぎになっています!試してみますか?

Stable Diffusionをプレイしたことがある人は多いと思います。この製品はmjdjour...

2021 年の AI サイバーセキュリティ開発の動向

AI の安全性は、サイバーセキュリティの脅威やデータ侵害を阻止する上でさらに重要であることが証明され...

清華大学 IEEE 論文: 自動運転の判断を支援する新しいトレーニング方法を使用して「路側干渉」を排除

最近、清華大学の学者たちは、オートエンコーダーに基づく新しいトレーニング方法を提案しました。これによ...

2018 年の AI における画期的なテクノロジーのトップ 10 をご紹介します。いくつご存知ですか?

1. ニューラルネットワークに基づく機械翻訳選択理由: 翻訳は「自然言語処理」の中でも最も重要な分...

...

アンドリュー・ン氏がチューリングトリオに加わり、サム・アルトマン氏を非難: AI規制は「規制がないよりはまし」、ルカン氏はそれを歓迎

ほんの数日前、ベンジオ氏と他の有力者グループは、人工知能が人類の運命を危険にさらす可能性があるという...