人工知能 (AI) はブラックボックスの実践と見なされることが多く、テクノロジー自体の仕組みではなく、一見正しい結果を提供する能力のみに注目が集まります。ほとんどの場合、私たちは結果を達成するための具体的な方法よりも結果そのものに関心があるので、この効果は十分な場合もあります。
残念ながら、AI をブラックボックスのプロセスと見なすと、信頼性と信頼性に疑問が生じます。純粋に技術的な観点から見ると、これにより AI モデルの問題を分析したり解決したりすることが困難になります。 この記事では、これらの潜在的な問題のいくつかと解決策のアイデアをいくつか見ていきます。 AIとは何ですか? 多くの企業がすでに自社製品に人工知能(AI)の要素を取り入れています。一部の「AI」の主張は単なる偽のマーケティング戦術ですが、実際に、AI と機械学習 (ML) 技術を使用して機能を向上させ始めている製品が数多くあります。 つまり、AI とは、知的な動作を示すことができるあらゆるコンピュータ システムを指します。この記事の文脈では、知能とは、概念を学習、理解、要約するコンピュータの能力の飛躍的進歩を表します。 現在、AI テクノロジーの最も一般的な実装は機械学習であり、コンピューター アルゴリズムがデータ内のパターンを学習して認識します。機械学習は、大きく分けて 3 つのカテゴリに分けられます。
しかし、これらの方法はすべて同じ問題に直面しています。それは、学習後に生成された最終モデルを理解できないということです。つまり、AI は人間化できないのです。 信頼の問題 ブラックボックス AI システムのほとんどは、機械が自己学習プロセスを通じてモデルを構築するシステムです。しかし、システムが結論に至ったプロセスを理解しなければ、モデルが特定の結論に至った理由を理解したり、その結論に自信が持てなかったりすることは困難です。モデルがなぜそのような判断を下すのかを尋ねることはできません。結果を私たちの予想と比較することしかできません。 AI モデルがどのように機能するかを理解していないと、そのモデルが常に正しいとどうして信じることができるでしょうか? その結果、この不可解さは数え切れないほどのディストピア SF 作品に反映され、AI は恐怖や謎の代名詞となっています。さらに悪いことに、多くの AI モデルは深刻な偏見を示しており、信頼の危機をさらに悪化させています。 偏見や先入観は常に人間の思考や意識に根ざしており、今やAI技術でも避けられない大きな問題となっている。システムは過去の経験からしか学習できないため、モデルが将来に向けて正しい選択を行えるように導くには不十分な可能性があります。 犯罪予測における AI モデルの応用を例に挙げてみましょう。これらのモデルは過去の犯罪統計を使用して、どの地域の犯罪率が高いかを判断します。法執行機関はこれらの地域に警察資源を集中させるために巡回ルートを調整した。しかし、この種のデータを使用すること自体が偏見を強めたり、相関関係と因果関係を混同する可能性があるという疑念が広くあります。 たとえば、COVID-19パンデミックが猛威を振るうと、米国全土の主要都市では暴力犯罪率が大幅に低下し始めましたが、一部の管轄区域では自動車窃盗やその他の強盗が増加しました。一般の人はこれらの変化を全国的な社会的距離の確保と合理的に関連付けるかもしれないが、予測的な警察モデルは犯罪率や逮捕率の減少を安定性と安全性の向上と誤って解釈する可能性がある。 現在、AI にはさまざまな形のバイアスが存在します。顔認識ソフトウェアを例にとると、「人口統計的偏り」を含むアルゴリズムは、対象者の年齢、性別、人種に応じて、極めて変動の大きい精度で判断を下す可能性があることが研究で示されている。 データ サイエンティストが特徴エンジニアリングを実行してソース データをクリーンアップしようとすると、バイアス/バイアスの問題も発生し、微妙ではあるが非常に重要な特徴が誤って失われることがあります。 最も影響力のある偏見は、社会レベルでも問題を引き起こす可能性があります。たとえば、広告アルゴリズムは人口統計データに基づいて広告を定期的に配信し、年齢、性別、人種、宗教、社会経済などの要素に基づく偏見をモデルに永続化します。 AI技術は、採用アプリケーションにおける同様の欠陥も明らかにしました。 もちろん、これらすべては人間自身が引き起こした原始的な偏見から生じています。しかし、AI モデル内のこれらのバイアスをどのように検出し、除去するのでしょうか? 説明可能なAI AI システムへの信頼を高めるために、AI 研究者は AI ソリューションを人間化することを目指して、説明可能な AI (XAI) を構築する可能性を模索しています。 XAI は、ブラック ボックス モデルでは識別が難しい多くの問題を回避できます。たとえば、2017 年に研究者は AI の不正行為の問題を発見したと報告しました。トレーニング後、AI モデルは馬の画像を正常に識別できるようになりました。これは、従来の犬/猫の認識能力のバリエーションに相当します。しかし、AIが実際に学習したのは、馬の写真に関連付けられた特定の著作権注釈を認識することだったことが判明しました。 XAI を実装するには、モデル内の操作プロセス全体を観察して理解する必要があります。この探究自体はすでに理論計算機科学の主要な分野を構成しており、その難しさは誰もが想像する以上に大きいかもしれません。 より単純な機械学習アルゴリズムは、もちろん比較的簡単に説明できますが、ニューラル ネットワークははるかに複雑です。階層化関連性伝播 (LRP) などの最新の技術でも、意思決定にとってどの入力がより重要であるかを示すことしかできません。そのため、研究者たちは、モデルによって行われた特定の予測を説明できることを期待して、局所的な解釈可能性の目標に注目し始めました。 AI モデルを理解するのはなぜ難しいのでしょうか? 現在、ほとんどの ML モデルは人工ニューロンに基づいています。人工ニューロン、またはパーセプトロンは、伝達関数を使用して 1 つ以上の重み付けされた入力を結合します。これに基づいて、アクティベーション関数はしきい値を使用して発火するかどうかを決定します。このアプローチは、実際には人間の脳内のニューロンの働きを制限します。 一般的な ML モデルとして、ニューラル ネットワークは複数層の人工ニューロンで構成されます。入力層には重要な特徴と同じ数の入力があり、多数の隠し層が追加されています。最後に、出力層にも重要な特徴の数と同じ数の出力が存在します。 最も単純なアプリケーション シナリオを例に、曜日と休日に基づいて ML モデルが起床時刻を予測する方法を考えてみましょう。 ランダムな重みを使用すると、モデルは水曜日の午前 9 時に起きる必要があるという誤った結果を生成します。 もちろん、各人工ニューロンの正確な重みを手動で設定することは不可能です。代わりに、バックプロパゲーションと呼ばれるプロセスを使用する必要があります。このプロセスでは、アルゴリズムがモデルを逆方向に処理してネットワークの重みとバイアスを調整し、予測出力と期待出力の差を最小限に抑えます。調整後の結果は、水曜日の朝7時に起きるべきだということになります。 信頼と倫理 AI を使ってがんを診断したり、群衆の中から指名手配犯を特定したり、雇用や解雇の決定を下したりしようとする中で、テクノロジーに対する信頼の問題はますます重要になっています。 AI が人間化できないのであれば、人々に AI を信頼してもらうにはどうしたらよいでしょうか。そのような信頼がなければ、AI を倫理的に使用することはさらに不可能です。 この重要な問題に関して、EU は信頼できる AI に関する倫理ガイドラインを採択し、AI が倫理的で信頼できるかどうかを判断するための 7 つのテストを設定しました。
もちろん、ガイドラインでは、AI技術は合法的な方法で使用されなければならないことも強調されています。 AIの人間化 この記事は、人工知能を人間化して、その信頼性を真に確立するにはどうすればよいかという 1 つの点にのみ焦点を当てています。 人間が理解できない機械を信頼するのは難しく、結局この革新的な技術から真の恩恵を受けることができなくなります。 この問題は、ソフトウェア テスト自動化の分野で特に顕著です。このようなシステムの目的は、アプリケーション ソリューションをリリースする前に潜在的な問題を見つけることだからです。具体的なプロセスを理解していなければ、テスト結果が正しいことをどうやって確認できるでしょうか。間違った決定が下されたらどうなるでしょうか。AI システムが何かを見逃した場合、どうやってそれを検出したり対応したりできるでしょうか。 この問題を解決するには、ML アルゴリズムとテスト システムを組み合わせて、意思決定と対応するデータの関係を視覚化する必要があります。この方法でのみ、ブラックボックス AI に完全に別れを告げることができます。これは現実的な仕事です。奇跡も魔法もありません。頼れるのは、たゆまぬ努力と機械学習の明るい未来へのビジョンだけです。 |
<<: グラフニューラルネットワークは急成長を遂げており、最新の進歩はここにあります
>>: これらの 10 個のオープンソース機械学習ツールを使用したことがありますか?
2017年、『エコノミスト』誌は、石油ではなくデータが世界で最も価値のある資源になったと宣言しました...
データ画像。画像/アンスプラッシュ近年、個人情報保護法などの法律や規制の導入・施行により、我が国はデ...
現在、ディープラーニングはデータサイエンスの分野で最も人気のあるスキルとなっています。ディープラーニ...
[[195041]]機械学習を始めるにあたって、万能のアプローチは存在しません。私たちは皆、少しずつ...
[[410843]] 7月9日、2021年世界人工知能大会の期間中に開催された「新世代人工知能コンピ...
企業がより多くの機械学習や人工知能モデルを本番環境に導入するにつれて、システム内の偏りに対する認識が...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[51CTO.comより引用] 2017年7月21日から22日まで、51CTOが主催する人工知能をテ...
[[436377]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...
最近、「つながりとインテリジェンス、より安全な世界の構築」をテーマにした2021年世界セキュリティ博...
人工知能はあらゆる業界に混乱をもたらしています。医療分野では、AI 技術が病気の診断において人間を上...
以前、「【インタビュー】 - 低速反応再帰」で 3 つの再帰アルゴリズムを読みました。フィボナッチ数...
クラスタリング アルゴリズムを適用するのは、最適なアルゴリズムを選択するよりもはるかに簡単です。 そ...
[[435319]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...