この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 機械学習は、あらゆる分野で貴重なツールとなっています。機械学習は、人々が見落としがちな詳細を発見し、意思決定を支援するシステムの構築によく使用されます。驚くべき結果が得られましたが、すでに形成されたモデル内の特定のモジュールやデータ レコードをどのように変更または削除するかなど、問題点も数多くあります。 一部の学者は、ほとんどの場合、修正は再トレーニングを意味することが多いが、それでも疑わしいデータが含まれるのを避けることは不可能であると述べた。このデータは、システム ログ、画像、顧客管理システムなどから取得される場合があります。特に欧州の GDPR の導入により、モデルの忘却機能に対する要件が厳しくなりました。企業が解決策を見つけられなければ、コンプライアンス違反の罰則を受けることになります。 実際、完全な再トレーニングにはコストがかかり、機密データの問題を解決できる可能性は低いです。したがって、再トレーニングされたモデルが完全に正確かつ効果的であることを証明することはできません。 これらの問題を解決するために、学者たちは、データベースを分解したり、アルゴリズムを調整したりといった特殊な技術を使ってモデルに選択的健忘を誘発する「機械学習の学習放棄」と呼ばれる技術を定義しました。名前が示すように、機械学習のデラーニングは、モデル内の暗黙的なデータを保護するために、トレーニングされたモデルから特定のデータトレーニング効果/特定のパラメータを忘れさせることです。 1.モデルを破る機械学習の魅力は、膨大な量のデータを調べ、人間の認知範囲を超えた複雑な関係性を明らかにする能力にあります。同時に、この技術のブラックボックス性により、学者はモデルを変更する際に非常に慎重になります。結局のところ、特定のデータポイントがモデルのどこにあるかを知ることは不可能であり、データポイントがモデルに直接どのように影響するかを明確に知ることは不可能です。 もう 1 つの状況は、データに外れ値が現れた場合、モデルはそれを特にしっかりと記憶し、全体的な効果に影響を与えるというものです。 現在のデータ プライバシー ツールは、データを感度低下させながらモデルをトレーニングすることができ、データをローカルに残さずに共同トレーニングを実行することもできます。おそらく、機密データを null 値に置き換えてノイズを導入し、機密データを隠すことができる可能性があります。しかし、これらでは問題を根本的に解決することはできません。要素を置き換えて重要なデータを保持する差分プライバシー技術でさえ、選択的忘却の問題を解決するには不十分です。たとえば、再トレーニングは必要ないが、自分のデータをデータベースから削除することを要求する「機密性の高い」人がいる場合など、1 つのケースまたは少数のケースでのみ機能する可能性があります。削除リクエストがどんどん増えていくと、フレームワークの「忘却モデル」はすぐに崩壊します。 したがって、プライバシー技術と機械学習復号化技術は、問題を解決するという点では同等ではありません。 検証不可能な匿名性や差分プライバシー技術によるデータ削除の問題は、理論的な問題であるだけでなく、深刻な結果をもたらします。研究者たちは、いわゆる汎用アルゴリズムやモデルから機密データを抽出できることを実証しました。たとえば、2020年に学者たちは、個人のアイデンティティや著作権情報を含むトレーニングデータをGPT-2から取得できることを発見しました。 2選択的健忘機械学習モデルが選択的忘却の能力を獲得できるようにするには、次の 2 つの重要な問題を解決する必要があります。
この方向での最初の研究は 2019 年に発表されました。当時、ニコラス・ペパーノットは機械学習用のデータを複数の独立した部分に分割することを提案しました。多数のミニデータを確立することで、特定のコンポーネントのみを削除して再トレーニングし、それを完全なデータセットに再度挿入して、完全に機能する機械学習モデルを生成することが可能になります。 具体的な操作プロセスは、まずトレーニング データを重複しない複数のスライスに分割し、1 つのスライスに 1 つのトレーニング ポイントのみが含まれるようにします。次に、各スライスでモデルを個別にトレーニングし、スライスを結合してデータ要素を正常に削除します。したがって、トレーニング ポイントを忘れるように要求された場合、影響を受けるモデルのみを再トレーニングする必要があります。スライスはトレーニング セット全体よりも小さいため、忘却のコストが削減されます。 この方法は、Nicolas Papernot によってSISA (Sharded、Isolated、Sliced、Aggregated) と名付けられました。完全な再トレーニングと部分的な再トレーニングのベースラインと比較して、SISA は精度と時間コストのトレードオフを実現しました。単純な学習タスクでは、Purchase データセットでは 4.63 倍、SVHN データセットでは 2.45 倍になります。 同時に、著者らは、この概念は有望ではあるものの、限界もあることを認めている。たとえば、スライスあたりのデータ量を減らすと、機械学習に影響が及び、結果の品質が低下する可能性があります。さらに、この技術は必ずしも宣伝どおりに機能するとは限りません。 現在、機械学習による忘却に関する研究はまだ初期段階にあります。研究者やデータ サイエンティストが、データを削除することによる全体的なモデルへの影響について理解を深めるにつれて、機械学習フレームワークとアルゴリズムによって研究者がレコードまたは単一のデータ ポイントを削除し、最終的に関連データを「完全に忘れた」効果的なモデルを取得できるようにすることを目的とした成熟したツールが登場します。 |
<<: 研究者はディープラーニングを使用して巡回セールスマン問題を解決する上でどの程度進歩しましたか?
>>: 「宝くじ仮説」の著者による新しいPyTorchライブラリは人気があり、モデルのトレーニングが2〜4倍高速化されます。
デンマークは、1970年代初頭から国家政策の一環として風力タービンに投資した最初の国の一つであり、こ...
テンセントは12月30日、同社の人工知能チームが第1回Google Football Kaggleコ...
機械学習の応用は急速に成長しており、医療、電子商取引、銀行業務などのさまざまな分野で不可欠な要素とな...
1997 年、世界は現チェスチャンピオンのガルリ・カスパロフと IBM の Deep Blue AI...
[[382357]] 1990年代、米国はコンピュータ産業の早期発展の機会をいち早く捉え、デジタル...
電卓が普及した後、そろばんの使い方しか知らなかった会計士は失業した。ゴールドマン・サックスは最盛期に...
スマートフォンに生体認証指紋認証ロック解除技術が搭載されて以来、パスワードを入力する面倒なロック解除...
量子コンピュータは、従来のコンピュータでは解決に数十億年かかる問題を理論的に解決できますが、十分な量...
人工知能技術の発展に伴い、コンピューターを使って外国の文書を翻訳するなど、私たちの生活の多くのアプリ...
7 月 12 日のニュース、Anthropic は最近、新しい Claude 2 言語モデルをリリー...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
3か月前、同社のAIチームは、写真や動画に映る有名人やランドマークを分析するために機械学習を活用する...
[[233292]]最近、北京天壇病院は、世界初のCTおよびMRI神経画像人工知能支援診断製品「Bi...