人類の生存に関わる問題ですか? AI システムの説明可能性を調査する理由は何ですか?

人類の生存に関わる問題ですか? AI システムの説明可能性を調査する理由は何ですか?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。

[[378246]]

「説明可能な AI」という言葉を初めて聞いたかもしれませんが、すぐに意味がわかるようになります。説明可能な AI (XAI) とは、システムが特定の決定を下した「理由」を人々が理解できる AI アプリケーションを構築するための技術と方法を指します。

つまり、AI システムからその内部ロジックについての説明を得られる場合、そのシステムは XAI システムであると考えられます。説明可能性は AI コミュニティで人気が高まっている新しい特性であり、それが近年登場した理由について以下で説明します。

まず、この問題の技術的な根本を探ってみましょう。

人工知能は私たちの生活を向上させる

テクノロジーの進歩により、私たちはより良いサービスを、より便利に享受できるようになることは間違いありません。テクノロジーは生活に欠かせないものであり、間違いなくデメリットよりもメリットの方が多いです。テクノロジーが好きかどうかに関わらず、テクノロジーが私たちの生活に与える影響は日々増大するばかりです。

コンピュータ、インターネット、モバイルデバイスの発明により、生活はより便利で効率的になりました。コンピュータとインターネットに続いて、人工知能が生活を豊かにする新たな手段となりました。私たちが今日のような状況に到達するには、50 年代、60 年代の数学から 90 年代のエキスパート システムに至るまで、多大な努力が必要でした。

私たちは、自動車で自動操縦機能を使用したり、Google 翻訳を使用して外国人とコミュニケーションをとったり、数え切れないほどのアプリを使用して写真を修正したり、スマートな推奨アルゴリズムを使用して最高のレストランを見つけたりすることができます。人工知能が私たちの生活に与える影響は大きくなり続けており、今や私たちの生活に欠かせない、疑いの余地のない助けとなっています。

一方、AI システムは非常に複雑になっており、一般のユーザーがその仕組みを理解することはほぼ不可能になっています。 Google 翻訳のユーザーのうち、その仕組みを知っている人は 1% 未満だと思いますが、それでも私たちはこのシステムを信頼しており、広く使用しています。

システムがどのように機能するかを理解するか、少なくとも必要に応じてシステムに関する情報を入手できる必要があります。

正確さにこだわりすぎ

数学者と統計学者は、線形回帰、決定木、ベイジアンネットワークなどの従来の機械学習アルゴリズムを何百年も研究してきました。これらのアルゴリズムは非常に直感的であり、その開発はコンピュータの発明よりも古いものです。従来のアルゴリズムのいずれかに基づいて決定を下す場合、説明を生成するのは簡単です。

しかし、それらの精度はある程度までしか達成されません。したがって、従来のアルゴリズムは解釈可能性は高いものの、あまり成功していません。

その後、マカロック・ピッツニューロンの発明により、状況は劇的に変化しました。この発展により、ディープラーニングという分野が誕生しました。ディープラーニングは、人工ニューラルネットワークを使用して脳内のニューロンの動作メカニズムを再現することに重点を置いた人工知能の分野です。

コンピューティング能力の向上とオープンソースのディープラーニング フレームワークの最適化により、高精度のパフォーマンスを備えた複雑なニューラル ネットワークを徐々に構築できるようになりました。人工知能の研究者たちは、可能な限り最高レベルの精度を達成するために競争し始めました。この競争は間違いなく優れた AI 製品の構築に役立ちますが、それには説明可能性の低さという代償が伴います。

ニューラルネットワークは非常に複雑で理解するのが困難です。数十億のパラメータを使用して構築できます。たとえば、Open AI の革新的な NLP モデルである GPT-3 には 1,750 億を超える機械学習パラメータがあり、このような複雑なモデルから推論を導き出すのは非常に困難です。

機械学習アルゴリズムの精度と説明可能性

ご覧のとおり、AI 開発者はディープラーニング モデルではなく従来のアルゴリズムに頼ることで多くの損失を被ります。つまり、日々、より正確なモデルが生まれていますが、その解釈可能性は低下しています。しかし、これまで以上に説明可能性が求められています。

特定の機密領域ではますます多くの人工知能システムが利用されている

戦争で本物の剣や銃が使われていた時代を覚えていますか?はい、想像以上にすべてが変化しています。スマート AI ドローンはすでに人間の介入なしに誰でも排除することができます。一部の軍隊はすでにこれらのシステムを導入する能力を持っていますが、彼らも未知の結果を懸念しています。彼らは、仕組みを理解していないシステムに頼りたくありません。実際、DARPA ではすでに XAI プロジェクトが進行中です。

自動運転車もその一例です。オートパイロットはすでにテスラ車で利用可能です。これはドライバーにとって非常に便利です。しかし、それには大きな責任が伴います。二つの悪のうち、よりましな方を選択しなければならない道徳的ジレンマに直面したとき、あなたの車はどうするでしょうか。

たとえば、自動操縦装置は歩行者を救うために犬を犠牲にすべきでしょうか? MIT の Moral Machine では、集団的および個人的な道徳観を垣間見ることもできます。

人工知能システムは日々、私たちの社会生活に大きな影響を与えています。彼らが一般的に、また特定のケースでどのように意思決定を行うのかを知る必要があります。

AIの急激な成長は実存的な脅威となる可能性がある

私たちは皆、『ターミネーター』を見て、機械が自己認識力を獲得し、人類を滅ぼす可能性があることを目の当たりにしました。人工知能は強力で、人類が複数の惑星に住む種族になる手助けをしてくれるかもしれないが、ヨハネの黙示録の場面のように、人類を完全に滅ぼしてしまう可能性もある。

実際、調査によると、AI 専門家の 30% 以上が、汎用人工知能 (AGI) が実現した場合、結果は悪いか、非常に悪いものになると考えています。したがって、壊滅的な結果に対する最も強力な武器は、AI システムの仕組みを理解し、政府の過度の権力を制限するのと同じように、抑制と均衡を活用できるようにすることです。

AIに関する論争を解決するには推論と説明が必要

過去 2 世紀にわたる人権と自由の発展の結果として、現在の法律や規制では、敏感な分野においてすでにある程度の解釈可能性が求められています。法的な議論や推論の分野にも解釈可能性の限界が存在します。

AI アプリケーションが従来の職業の一部を引き継いでいるからといって、その管理者が説明責任を負わないということにはなりません。彼らは同じルールに従い、サービスについて説明をしなければなりません。一般的な法的原則では、法的紛争が発生した場合(たとえば、自動運転のテスラが歩行者に衝突した場合など)に自動化された決定を説明する必要があります。

しかし、一般的な規則や原則は、強制的な解釈を要求する唯一の根拠ではありません。また、さまざまな形式の解釈権を規制する現代の法律や規制もいくつかあります。

EUの一般データ保護規則(GDPR)では説明の権利が定義されており、国民は自動化された意思決定の対象となる場合、AIシステムのロジックについて合理的な説明を受けることが求められています。

一方、米国では、国民は信用申請が拒否された理由を説明する権利を有します。事実上、この権利により、信用スコアリング会社は、顧客をスコアリングする際に、必須の説明を提供できるように、回帰モデル(より解釈しやすいモデル)を使用することが義務付けられます。

AIシステムの歴史的偏見を排除するには説明可能性が必要

人類には古代から差別が存在しており、収集されたデータにもそれが反映されています。開発者が AI モデルをトレーニングする場合、あらゆる偏見や差別的要素を含む履歴データを入力します。そして、観察結果に人種的な偏りがある場合、モデルは予測を行う際にその偏りを反映することになります。

バートレット氏の調査によると、米国では少数民族からの融資申請の少なくとも6%が、純粋に差別的慣行を理由に拒否されている。したがって、この偏ったデータを使用して信用申請システムをトレーニングすると、少数派に壊滅的な影響が及ぶことになります。

社会として、私たちはアルゴリズムがどのように機能するかを理解し、社会の自由、平等、友愛を確保するために偏見を排除する方法を理解しなければなりません。

自動化されたビジネス上の意思決定には信頼性と信用が求められる

説明可能性は財務的な観点からも意味をなします。 AI 対応システムを使用して組織の販売およびマーケティング活動に関する特定のアクションを推奨する場合、なぜそれが推奨されるのか疑問に思うかもしれません。

意思決定者は、その行動に対して責任を負うことになるため、特定の行動を取る必要がある理由を理解する必要があります。これは、物理的な企業と金融企業の両方にとって大きな意味を持ちます。特に金融市場では、1 つの誤った行動が企業に大きな損失をもたらす可能性があります。

ご覧のとおり、これらの議論は、説明可能な AI が必要な理由を強力に裏付けています。これらの視点は、社会学、哲学、法律、倫理、ビジネスなど、さまざまな学問分野から生まれます。そのため、AIシステムの説明可能性が求められる。

<<:  上位 10 の古典的なソート アルゴリズムの詳細な説明: シェル ソート、マージ ソート、クイック ソート

>>:  JD.com がオープンソースの顔認識ツールキットを公開: 最も強力なモデルをカバーし、トレーニングとスコアの実行をサポート

ブログ    

推薦する

Google: パフォーマンスの低い微調整モデルを捨てず、平均重量を計算してパフォーマンスを向上させる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

Kaggle マスターはどのような言語、フレームワーク、モデルを使用していますか?詳細な統計はこちら

統計ウェブサイト: https://mlcontests.com/ 著者はいくつかの重要な結論に達し...

Googleトレンドから、主要なディープラーニングフレームワークの人気がわかる

ディープラーニングはコンピュータービジョンや自然言語処理などの分野でますます大きな成果を上げており、...

人工知能の3つの柱:アルゴリズム、計算能力、データ

AlphaGoとイ・セドルの世紀のマンマシン対決で、ついにAlphaGoが勝利した。では、人工知能の...

AIとIoTの完璧な組み合わせ

AI と IoT が広く使用されるようになるにつれて、これら 2 つのテクノロジーがどのように連携し...

AIOps 初心者ガイド

【51CTO.com クイック翻訳】ビジネスリーダーとして、企業がコンピューターベースの業務をますま...

実践編 | アポロレーンチェンジの詳しい説明

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

住宅価格予測のための機械学習

序文Python は機械学習において当然の利点を持っているので、今日から機械学習技術に取り組んでみま...

...

...

2023年の人工知能の進歩を、大きなモデルだけでなく考察する記事

2023年には、ビッグモデル間の激しい競争が繰り広げられるでしょう。これ以外に、AI分野ではどのよう...

...

スタートアップがAIを活用している3つの分野

[[311550]] [51CTO.com クイック翻訳] 人工知能は最新の開発トレンドであり、その...

AI受験者が発狂!上級数学試験の正解率は81%で、競争試験のスコアはコンピュータドクターのスコアよりも高い。

上級数学の試験で悪い成績を取ることは、多くの人にとって悪夢です。高度な数学は AI ほど得意ではない...

ディープラーニングモデルの知的財産権をどのように保護するか? IJCAI 2021ワークショップの内容をご覧ください

先日終了したIJCAI 2021カンファレンスでは、「ディープラーニングモデルの知的財産保護に関する...