私たちはインテリジェント変革の時代に生きており、人工知能技術はあらゆる分野の人々に「力を与えている」のです。ビッグデータは新しいエネルギーのようなもので、AIアルゴリズムはエンジンのようなものです。ビッグデータと人工知能の技術を備えた企業は、競合他社をはるかに超えて未来へ向かう高速列車に乗っているようなものです。 プライバシーしかし、このような急速な発展には代償が伴います。私たち一人ひとりは、携帯電話番号、メールアドレス、自宅や会社の住所の緯度経度座標、携帯電話の識別コード、消費記録、アプリの使用記録、インターネット閲覧記録、検索エンジンの結果のクリック習慣、顔スキャン記録、指紋、心拍数など、簡単には提供したくない個人データを持っています。しかし、AI時代には、これが企業がAIアルゴリズムをトレーニングするために使用するデータセットの1つになっている可能性があります。 こうした目立たない個人のプライバシー データが多数存在し、AI が認知能力を学習するのに十分なトレーニング セットを構成しているのです。これにより、人間に会ったことのない AI アルゴリズムでも人間を認識して理解し、人間の好みや動機を知り、さらには家族や友人を認識できるようになります。私たちのプライバシーは、こうしたあらゆる情報の代償なのです。 もちろん、この価格はあなたが喜んで支払えるものではないかもしれません。 プライバシーを保護するにはどうすればいいですか?必要がない場合は大丈夫ですか? 携帯電話の GPS をオフにすると、自分の位置を特定できないと思いますか? 携帯電話には、ジャイロスコープ、内蔵コンパス、気圧計など、自分の位置を特定するために使用できるデバイスも搭載されています。携帯電話を使用する限り、絶対的なプライバシー保護は存在しません。 多くの携帯電話アプリケーションは、使用されていないか、使用してもプライバシーの漏洩を避けるのが困難です。たとえば、多くのアプリケーションは携帯電話番号で登録するか、使用を継続する前に携帯電話による認証が必要です。顔認証などが必要なアプリケーションもあります。では、個人がプライバシーを守るために何ができるでしょうか? 何もできません。さらに、AI アルゴリズムはブラックボックスであるため、AI の背後にあるロジックや動機さえもわかりません。 規制プライバシー保護は個人の保護を通じて実現するのは非常に困難であり、それを制限するための強力な法律や規制が必要です。 2018 年 5 月 25 日、欧州連合の一般データ保護規則 (GDPR) が正式に発効しました。これは欧州連合内のデータ保護規制の枠組みであり、現在最も完全かつ厳格なプライバシー保護規制です。 DLA Piperが発表したデータによると、2年足らずの間に、GDPRによって1億1,400万ユーロの罰金が発生しています。最大の罰金は、フランスがGDPRに基づいてGoogleに課した5,000万ユーロの罰金で、Googleがユーザーにターゲット広告を送信する際の透明性と情報が欠如しており、有効なユーザー許可を得ていなかったという理由で課されました。下の図は、GDPRが施行されてから2020年1月までにEU各国で課された罰金の額の分布を示しています。 GDPRでは、企業に対して、ユーザーの個人情報を収集する前に、ユーザーからどのような情報を収集するのか、収集した情報はどのように保管されるのか、保管した情報はどのように使用されるのかを「簡潔で透明性があり、理解しやすい形式で、明快で平易な言葉で」ユーザーに説明し、企業の連絡先情報を通知することが義務付けられています。 個人の場合、GDPR はデータ主体に、知る権利、アクセス権、訂正権、削除権 (忘れられる権利)、処理を制限する権利 (異議申し立ての権利)、ポータビリティの権利、拒否する権利という 7 つのデータ権利を付与します。現在、GDPR は私たち一人ひとりの生活に本当に影響を及ぼしています。最も直接的な影響は、Web を閲覧しているときに、Web サイトに以下のようなプロンプトがポップアップ表示されることがよくあることです。これは、Web サイトの情報透明性に関する規制に基づいており、情報を収集する許可を求めています。 EU の GDPR は世界的な影響を及ぼします。GDPR はユーザーに個人データに対する完全な管理権を与え、新しいテクノロジーを開発する際にはプライバシーの問題に注意を払うよう世界中に求めます。世界各国ではすでに独自のデータ保護規制が導入されています。 プライバシー保護に関しては、すべてはまだ始まったばかりです。 欧州連合は先月、「欧州のデジタル未来の構築」と呼ばれる新たな戦略を正式に開始し、AI、プライバシー、セキュリティに関する一連の規制を策定することで、AI開発における世界のリーダーになることを目指している。この戦略の開始は、米国と中国におけるAIの台頭への対応としても見られている。 AIのプライバシー、セキュリティ、規制が徐々に重要な話題になることは予測できます。実際、欧州委員会の副委員長であるマルグレーテ・ベステアー氏は次のように述べています。「人工知能自体は良いものでも悪いものでもありませんが、すべては人々がそれを使用する理由と方法によって決まります。人工知能が私たちの価値観にもたらすリスクを制御するために最善を尽くしましょう。危害を加えず、差別をしません。」 プライバシー保護はAIの発展において避けられない「境界」となっている。これはAI技術にとって難しい問題であると同時に、AIの健全な発展にとってのチャンスでもある。 傾向プライバシーを保護するためのさまざまな法律や規制の導入は、今後の避けられない流れであると言えます。これにより、企業のデータの収集、利用、流通のコンプライアンスコストが大幅に増加することは避けられません。また、企業内または企業間でデータアイランドが形成されやすくなり、企業がデータの価値を獲得することが制限されます。そのため、プライバシーを保護するAI技術の実用化は、AI分野における最も緊急の目標となっている。 プライバシー保護 AI は主に、データ暗号化、分散コンピューティング、エッジ コンピューティング、機械学習などの複数のテクノロジを組み合わせてデータ セキュリティを保護します。最近では、差分プライバシーやフェデレーテッド ラーニング (アライアンス ラーニング、共同学習、共有学習とも呼ばれます) が人気を集めています。 プライバシーを保護するということは、データをまったく収集しないということではなく、技術的な手段によって個人のプライバシー データの漏洩を防ぐことを意味します。差分プライバシーは数学的な手法です。たとえば、データセットを分析してその統計 (データの平均、分散、中央値、最頻値など) を計算する場合、出力を見ても元のデータセットに個人のデータが含まれているかどうかがわからない場合、このアルゴリズムは差分プライバシーと呼ばれます。 非常に簡単な例を挙げると、あなたの職場の部署が、部署内の各人の月々の給与額を計算するテーブルを使用しているとします。テーブルを作成した人以外は、このテーブルを表示できません。このテーブルの合計額を知る唯一の方法は、クエリ関数 S を使用することです。ある月に別の部署に異動になった場合、他の人は先月のテーブル A と今月のテーブル B を通じてあなたの給与を知ることができます。ロジックは簡単で、S(A) から S(B) を引くだけです。表Bは表Aの隣接データセットと呼ばれます。両者は1つのデータのみが異なります。差分プライバシー技術は、隣接データセットのクエリ結果を類似させ、個人情報を推測できないようにすることです。この類似度がプライバシー保護の強さといえます。 Apple と Facebook はすでにこのアプローチを使用して、特定のユーザーを特定せずに集計データを収集しています。 MIT Technology Review は、差分プライバシー技術を 2020 年の世界トップ 10 の画期的技術の 1 つに挙げました。 フェデレーテッド ラーニングは分散型機械学習アプローチを採用しており、近年ますます人気が高まっています。このテクノロジーでは、ユーザー データは中央サーバーに保存されず、プライベートかつ機密性が保たれ、携帯電話などの個人用エッジ デバイスにのみ保存されることが前提となっています。そのため、従来の機械学習方法と比較して、フェデレーテッド ラーニングはユーザーのプライバシーを根本的に強化します。フェデレーテッド ラーニングは、トレーニングのためにユーザー デバイスから収集されたデータに依存しません。代わりに、ユーザーのモバイル デバイス上で AI モデルをトレーニングし、トレーニングされたパラメータ情報をグローバル モデルに送り返します。このプロセスでは、ユーザー データを個人用デバイスから出す必要はありません。 この技術の急速な発展は、過去 2 年間に arXiv (プレプリントを提出するためのプラットフォーム) に投稿された論文の数からも明らかです。 巨人の技術レイアウト昨年以来、世界で最も人気の高い2つの機械学習フレームワークであるTensorFlowとPyTorchは、プライバシーを保護するためにフェデレーテッドラーニングなどのソリューションを追加してきました。 (1)グーグル フェデレーテッド ラーニングの概念は 2017 年に Google によって初めて導入され、昨年は Tensorflow の機械学習フレームワークを使用してフェデレーテッド ラーニングを簡素化する TensorFlow Federated (TFF) フレームワークをリリースしました。 下図に示すように、TFFフレームワークに基づいて構築された学習モデルは、多数の携帯電話(携帯電話Aなど)で局所的なモデルトレーニングを実行し、重みと集計を更新し(ステップB)、次に改善されたグローバルモデルを更新します(モデルC)。その後、グローバルモデルを各モバイル端末に適用して、アルゴリズムの適用効果を向上させます。 (2)フェイスブック プライバシー保護機械学習の分野で進歩を遂げるため、昨年、Facebookの優れたディープラーニングフレームワークPyTorchとOpenMinedは、プライバシー保護技術の研究を加速するための共同プラットフォームを開発する計画を発表しました。 OpenMined は、安全でプライバシーを保護する AI のためのツールの研究、開発、アップグレードに重点を置いたオープンソース コミュニティです。 OpenMined は、安全でプライバシーを保護する連合学習を構築するための初のオープンソース連合学習フレームワークである PySyft をリリースしました。 PySyft は非常に人気があり、Github で 5.2k のスターを獲得しています。現在、主要なディープラーニング フレームワーク (PyTorch、Tensorflow) でフェデレーテッド ラーニング、差分プライバシー、暗号化コンピューティング (マルチパーティ コンピューティングや準同型暗号化など) をサポートしており、プライベート データをモデル トレーニングから切り離しています。 国内開発状況国内のAI大手も、特に金融分野でプライバシーを保護する技術の導入をかなり前から始めている。金融分野では監督が厳しく、データのプライバシー要件は極めて高い。そのため、一方では金融機関はプライバシーデータの保護において技術的な困難に直面している。他方では、金融データの孤立により、「データアイランド」問題が金融機関がデータの真の価値を実現することを妨げている。 国内の多くの金融機関や金融テクノロジー企業は、顧客獲得、信用供与、リスク管理などにおけるデータプライバシーコンプライアンスの問題やデータ共有サイロの問題を解決するためにフェデレーテッドラーニングを活用し、金融データの価値を最大化しようと努めてきました。 現在、プライバシー保護に関する国内の監督は十分に成熟しておらず、個人や企業にはプライバシー保護に対する強い意識がありません。プライバシー保護に対する世界的な注目が徐々に高まり、プライバシーを保護するAI技術が発展するにつれて、AI技術は最終的により良い方向に発展すると信じています。科学者の努力により、AIのブラックボックスがパンドラの箱にならないことを願っています。 |
>>: AIを規制するための答えは何でしょうか?なぜこれが重要なのでしょうか?
予想外のことが起こらなければ、人類は人工知能の時代へと急速に進んでいくだろう。ウェイター、宅配便業者...
今日、ビジネスプロフェッショナルは市場での収益を増やすために高度なテクノロジーを求めています。人工知...
ミツバチは植物から植物へと飛び回って餌を探しながら、受粉という重要な役割も担っています。しかし、過去...
[[428165]]マイマイ人材ビッグデータによると、2021年以降、人工知能業界の人材需要と供給は...
負荷分散とは負荷分散(英語名は Load Balance)とは、複数のサーバーを対称的に構成したサー...
近年、人工知能の人気が急上昇しており、画像認識、音声認識、機械翻訳、自動運転車など、AI の能力と威...
エンタープライズ チャットボットは脳死状態です。彼らには認知力も深みもなく、リアルタイムの概念や状況...
海外メディアの報道によると、米国防総省は最近、トップレベルの設計を強化し、関連技術の急速な発展を促進...
規制は消費者と市場を保護するために設けられていますが、多くの場合、規制は複雑であり、遵守にはコストが...
[[426161]]ディープラーニングの研究は格闘技の競技のようなものですか?意外なことに、何でもや...
背景分割とは、推奨、広告、検索システムの結果に基づいてユーザーの視覚的なエクスペリエンスを向上させる...
変化だけが唯一不変です。これはあなたのキャリアにも当てはまります。テクノロジーが急速に進化していると...