人工知能とビッグデータの隠れた危険性とは何でしょうか?

人工知能とビッグデータの隠れた危険性とは何でしょうか?

データの不足からデータの豊富さへと、近年利用可能なデータの量は飛躍的に増加し、ビッグデータはどこにでもあるようになりました。これは、データ ロギング デバイスの数が急増し、モノのインターネットを通じてこれらのデバイスが接続されるようになったためです。ビッグデータを収集し、分析する力は誰もが持っているようです。

[[283590]]

しかし、ビッグデータは本当に万能なのでしょうか? ビッグデータがすでに特定の分野に重大な影響を及ぼしていることは間違いありません。たとえば、ほぼすべての成功した AI ソリューションには、ビッグ データ処理の問題が伴います。

まず最初に注目すべき点は、AI は現在、大規模なデータセット内のパターンや関係性を見つけることに非常に優れているものの、まだそれほどインテリジェントではないということです。数字を分析することは、データ内の微妙なパターンを識別して発見するのに効果的ですが、これらの相関関係のどれが実際に意味があるかを直接知ることはできません。

人工知能とビッグデータの隠れた危険性とは何でしょうか?

相関関係と因果関係

「相関関係は因果関係を意味しない」ということは誰もが知っています。しかし、人間の脳はパターンを探すようにできており、曲線が一緒に傾斜し、データに明確なパターンが現れると、脳は自動的に結論を導き出します。 ”

しかし、統計的には、私たちはまだこの飛躍を遂げることができていません。 『False Correlations』の著者タイラー・ヴィゲン氏は、自身のウェブサイトでこの点を揶揄するとともに、森林火災からサメの襲撃、ポリオの流行まで、アイスクリームがいかに多くの悪影響を引き起こしているかを示す多くの例を挙げている。

これらのエピソードを見ると、アイスクリームはずっと前に禁止されるべきだったと主張する人もいるかもしれない。そして実際、1940年代のポリオの例では、公衆衛生の専門家は「反政治的な食事」の一環として人々にアイスクリームを食べるのをやめるよう推奨しました。幸いなことに、彼らは最終的に、ポリオの発生とアイスクリームの消費との相関関係は「ポリオの発生が夏季に最も多く発生するという事実のみによる」ことに気付きました。

統計学では、疑似関係または疑似相関とは、2 つ以上のイベントまたは変数が関連しているが、何らかの偶然または何らかの第 3 の目に見えない要因 (「共通応答」変数、「交絡因子」または「潜在変数」と呼ばれる) の存在により因果関係がある数学的関係です。このような「潜在変数」の例としては、アイスクリームの売上とサメの攻撃の相関関係が挙げられます (ただし、アイスクリームの売上が増加してもサメが人を攻撃することはありません)。ただし、これら 2 つの数値には共通のリンクがあり、それは気温です。気温が高くなると、アイスクリームを購入する人や泳ぎに行く人が増えます。したがって、この「潜在変数」が、明らかに相関関係の原因です。幸いなことに、私たちは原因と原因を区別する方法を学んできました。そして、暑い夏の日にポリオの発生やサメの攻撃を心配することなく、アイスクリームを楽しむことができます。

相関関係の力と限界

十分なデータがあれば、計算能力と統計アルゴリズムによってパターンが発見されます。しかし、すべてのパターンが意味を持つわけではありません。誤ったパターンの数が意味のあるパターンの数を簡単に上回る可能性があるからです。ビッグデータとアルゴリズムを組み合わせることは、問題解決に正しく適用すれば、非常に便利なツールになります。しかし、データを分析するだけでこの問題を解決できると考える科学者はいません。また、統計分析がいかに強力であっても、解決しようとしている問題に対する基本的な理解に基づいて分析を行う必要があります。

データサイエンスは科学の終焉か?

2008 年 6 月、Wired 誌の元編集長 C. アンダーソンは、「理論の終焉: データが科学的手法を時代遅れにする」という刺激的な記事を書きました。 「相関関係が因果関係に取って代わり、首尾一貫したモデルや統一理論がなくても科学は進歩できる。」

このアプローチの強さと汎用性はデータの量に依存します。つまり、データが多いほど、計算によって発見された相関関係に基づくアプローチは強力かつ効果的になります。コンピューターに数字を入力するだけで、統計アルゴリズムが自動的に興味深いパターンや洞察を発見してくれます。

しかし、この単純化された分析アプローチには潜在的な落とし穴もあり、それは John Poppelaars のブログにある例でよく示されています。

ある変数 Y の予測モデルを作成したいとします。例としては、企業の株価、オンライン広告のクリック率、来週の天気などが挙げられます。次に、使用できるすべてのデータを収集し、統計プロセスにかけ、Y に最適な予測モデルを見つけます。一般的な手順としては、まずすべての変数を使用してモデルを推定し、重要でない変数を除外し、次に選択した変数のサブセットを使用してモデルを再推定し、重要なモデルが見つかるまでこのプロセスを繰り返すことです。

しかし、アンダーソンが提案した分析方法にはいくつか重大な欠陥があります。インスタンスを選択し、0 から 1 の間の均一分布から 100 個のサンプルを抽出して Y のデータ ポイントのセットを作成しました。これはランダム ノイズです。次に、0から1の間の均一分布から100個のサンプルを抽出して、50個の説明変数X(I)のセットを作成しました。したがって、50 個の説明変数もすべてランダム ノイズです。すべてのX(I)変数を使用して線形回帰モデルを推定し、yを予測します。相関するものが何もないので(すべての変数が均一に分布し、独立しているため)、R2(0) が期待されますが、そうではありません。結果は0.5です。ランダムノイズに基づく回帰としては悪くないですね!幸いなことに、このモデルはそれほど重要ではありません。重要でない変数は徐々に排除され、モデルが再評価されました。有意なモデルが見つかるまでこのプロセスが繰り返されます。いくつかのステップを経て、調整済み R 二乗が 0.4、有意水準が少なくとも 99% の 7 つの変数を持つ有意なモデルが見つかりました。ここでも、まったく関係のないランダムノイズを回帰していますが、それでも 7 つの重要なパラメータを持つ重要なモデルが見つかります。パターンを探すために統計アルゴリズムにデータを単純に入力すると、このような結果になります。

データセットが大きくなればなるほど、ノイズも増える

最近の研究では、データセットが大きくなるにつれて、そこに必然的に任意の相関関係が含まれるようになることが実証されています。これらの相関関係はデータのサイズによってのみ現れるため、相関関係の多くは偽物であることが示唆されます。残念ながら、表面には多くの情報が表示されていますが、実際にはほとんど何も表示されていません。

これは、多次元データを処理するアプリケーションでは大きな問題となります。たとえば、工場内の何千ものセンサーからセンサーデータを収集し、そのデータからパターンを抽出してパフォーマンスを最適化するとします。この場合、実際の運用パフォーマンス指標ではなく、データ パフォーマンスの外観に惑わされやすくなります。これは、財政的にも、工場の安全な運営の面でも悪いニュースとなる可能性がある。

データの追加と情報の追加

データ サイエンティストとして、私たちは AI モデルを改善するための最善の解決策は「データを追加すること」であるとよく言います。しかし、単に「データを追加する」だけでモデルのパフォーマンスは向上するのでしょうか? 実際にはそうではありません。私たちが注力すべきなのは、「より多くの情報を追加すること」です。 「データの追加」と「情報の追加」の区別は重要です。データを追加することは、情報(少なくとも有用で正しい情報)を追加することと同じではありません。逆に、盲目的にデータを追加し続けると、間違った情報を含むデータが追加され、モデルのパフォーマンスが低下するリスクがあります。アクセスされるデータが増え、それを処理するために利用できる計算能力が増えるにつれて、これを考慮することがますます重要になってきます。

結論は

では、上記の課題を理由に、データ主導の意思決定の導入を諦めるべきでしょうか? いいえ、データ主導の意思決定は今後も継続されます。データと情報を最大限に活用してパフォーマンスを向上させる方法についての知識が増えるにつれて、これらはますます価値が高まります。

しかし、ソリューションを成功させるには、ハードウェアと大量のデータだけでなく、ビッグデータと計算能力も必要であることを認識してください。また、データ接続の基本的な仕組みを理解する必要があります。データはすべてを語れるわけではありません。数字に意味を与えるのは人間です。データの量と種類は変更できません。

<<:  宜春市はファーウェイと提携し、ビッグデータと人工知能で市のデジタル変革を推進

>>:  DeLu Deep Vision: 3Dマシンビジョンに焦点を当て、セキュリティの「スマートアイ」を照らす

ブログ    
ブログ    

推薦する

人工知能で最も人気のあるアルゴリズムトップ10をわかりやすく解説

機械学習は業界にとって革新的で重要な分野です。機械学習プログラムに選択するアルゴリズムの種類は、達成...

百人一首の戦いはかつてないレベルに到達!

執筆者 | 王 瑞平校正 | Yun Zhao最近また「100均戦争」が始まってます…一輪の花が春を...

...

2020年のIT開発トレンドは刺激的

[[274294]] [51CTO.com クイック翻訳] Future Today Researc...

人工知能とモノのインターネット – 5つの新たなユースケース

AI(人工知能)とIoT(モノのインターネット)の融合により、世界中の企業に大きな可能性がもたらされ...

多くのライターがChatGPTを著作権侵害で非難した。OpenAI: 著作権の範囲を誤解している

8月31日、OpenAIは今週、原告に数人の作家を含むほぼ同一の集団訴訟2件に応じた。彼らは、Cha...

パナソニック、AI企業ブルーヨンダーを60億ドル超で買収へ

海外メディアの報道によると、パナソニックは今年3月にアメリカのAIソフト開発会社ブルーヨンダーを70...

2020年の人工知能レビュー:AIが時代に知性をもたらす

2020年は人工知能(AI)にとって節目の年です。今年、新型コロナウイルス感染症のパンデミックが世界...

...

ChatGPT 素晴らしいアップデート! @300万GPTをあなたのために働かせましょう

一部の(Grayscale)ユーザーは次のようなプロンプトを受け取りました:グループ チャットで誰か...

AIGC に向けてビジネスを準備するために CIO が尋ねるべき 8 つの質問

企業は現在、AIGC の可能性を活かすためにデータ、人材、プロセスを準備することが今後の課題であると...

動的計算グラフとGPU対応操作

[[409431]]動的計算グラフディープラーニングに PyTorch を使用する主な理由の 1 つ...

AI を使って亡くなった愛する人を「復活」させることができるとしたら、そうしたいですか?

もし人工知能技術によって亡くなった愛する人を生き返らせ、あなたと交流できるようにできるとしたら、あな...

...

サンディエゴ大学の博士が、ディープフェイク検出器は破られないものではないことを初めて証明した。

研究者らは、敵対的サンプルと呼ばれる入力を各ビデオフレームに挿入することで、検出器を破ることができる...