オープンモデルの重みはAIを制御不能にすると言われ、Metaはプラカードで抗議され、LeCun:オープンソースAIコミュニティは活発化している

オープンモデルの重みはAIを制御不能にすると言われ、Metaはプラカードで抗議され、LeCun:オープンソースAIコミュニティは活発化している

AIの分野では、オープンソースとクローズドソースの選択については、常に意見が分かれてきました。しかし、ビッグモデルの時代において、オープンソースの強力な力が静かに台頭してきました。 Google から漏洩した内部文書によると、コミュニティ全体が Meta の LLaMA などのオープンソース モデルを中心に、OpenAI や Google の大規模モデルと同様の機能を備えたモデルを急速に構築しているという。

最近リリースされた Llama 2 などの継続的なオープンソースの取り組みにより、Meta がオープンソースの世界の絶対的な中心にあることは間違いありません。しかし、森で一番高い木は風で倒れてしまいます。最近、Meta はオープンソースのせいで「困った」状況に陥っています。

Metaのサンフランシスコオフィスの外では、プラカードを掲げた抗議者のグループが集まり、AIモデルを公開するというMetaの戦略に抗議し、その公開が潜在的に危険な技術の「取り返しのつかない増殖」につながると主張した。抗議者の中には、メタが発表した大型模型を「大量破壊兵器」に例える者もいた。

自らを「懸念する市民」と呼ぶ抗議者らは、ホリー・エルモア氏が率いている。 LinkedInの情報によると、彼女はAI一時停止運動の独立した支持者です。

写真提供: ミシャ・グレヴィッチ

彼女は、モデルが安全でないことが証明された場合、ユーザーが API 経由でのみアクセスできるようにする Google や OpenAI などの大規模なモデルなどの API がシャットダウンされる可能性があると指摘しました。

対照的に、Meta の LLaMA シリーズのオープンソース モデルでは、モデルの重みが一般に公開されており、適切なハードウェアと専門知識を持つ人なら誰でもモデルを複製して調整することができます。モデルの重みが公開されると、公開会社は AI の使用方法を制御する手段がなくなります。

ホリー・エルモア氏の見解では、モデルの重みを公開することは、誰でもモデルを変更でき、元に戻すこともできないため、危険な戦略です。 「モデルが強力になればなるほど、戦略は危険になります。」

オープンソースと比較すると、API を介してアクセスされる大規模なモデルには、危険な応答や不快な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまな安全機能が備わっていることがよくあります。

モデルの重みが解放されると、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングすることがはるかに簡単になります。これにより、これらのオープンソース モデルを使用してフィッシング ソフトウェアを作成し、サイバー攻撃を実行する可能性が高まります。

写真提供: ミシャ・グレヴィッチ

なぜなら、問題の一部は「モデルの公開に対するセキュリティ対策が不十分」であることであり、モデルのセキュリティを確保するためのより良い方法が必要だと彼女は考えているからです。

Metaはまだこれについてコメントしていない。しかし、Metaの主任AI科学者であるヤン・ルカン氏は、「オープンソースAIは禁止されなければならない」という発言に反応したようで、パリのオープンソースAIスタートアップコミュニティのグランドオープンの写真を投稿した。

また、ホリー・エルモア氏に反対し、AI開発のオープン戦略こそがテクノロジーへの信頼を確保する唯一の方法だと考える人も多くいます。

一部のネットユーザーは、オープンソースには利点と欠点の両方があると述べています。オープンソースは、人々の透明性を高め、イノベーションを促進できますが、悪意のある行為者による悪用(コードなど)のリスクにも直面しています。

予想通り、OpenAIは再び「オープンソースに戻るべきだ」と嘲笑された。

多くの人がオープンソースを懸念している

「高度なAIモデルの広範な公開は、その悪用を防ぐのがほぼ不可能になるため、将来特に問題になるだろう」と、MITでAI安全性を研究する博士研究員のピーター・S・パーク氏は述べた。

しかし、非営利の人工知能研究組織 EleutherAI のエグゼクティブ ディレクター、ステラ ビダーマン氏は次のように述べている。「これまでのところ、オープン ソース モデルが具体的な害を及ぼしたという証拠はほとんどありません。また、モデルを API の背後に置くだけでセキュリティ問題が解決するかどうかも不明です。」

「LLMを構築するための基本的な要素は、無料で入手できる研究論文で公開されており、世界中の誰もがその文献を読んで独自のモデルを開発することができます」とビーダーマン氏は語った。

彼女はさらに、「企業にモデルの詳細を秘密にするよう奨励することは、特に独立した研究者にとって、この分野の透明性、一般の認識、科学的発展に深刻な影響を及ぼす可能性がある」と付け加えた。

誰もがオープンソースの影響について議論していますが、Meta のアプローチが本当に十分にオープンであるかどうか、またオープンソースを活用できるかどうかはまだ不明です。

「オープンソース AI の概念は適切に定義されていません」と、オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクター、ステファノ マフーリ氏は語ります。「さまざまな組織がさまざまなものを指すためにこの用語を使用しています。つまり、『公開されているもの』のレベルが異なり、人々を混乱させています。」

マフルリ氏は、オープンソースソフトウェアの場合、ソースコードが公開されており、いかなる目的でも再現可能であるかどうかが重要な問題であると指摘した。ただし、AI モデルを再現するには、トレーニング データ、データの収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどを共有する必要がある場合があります。その中で最も重要なのは、トレーニング データにプライバシーや著作権の問題が発生する可能性があることです。

OSI は昨年から「オープンソース AI」の明確な定義に取り組んでおり、今後数週間以内に初期草案をリリースする予定です。しかし、いずれにせよ、彼はオープンソースが AI の発展に不可欠であると信じています。 「オープンソースでなければ、信頼できる責任あるAIは実現できない」と彼は語った。

今後もオープンソースとクローズドソースに関する意見の相違は続くでしょうが、オープンソースを止めることはもはやできません。


<<: 

>>:  マイクロソフトCEO、テクノロジー大手各社がAIを訓練するためのコンテンツをめぐって競争していると語る

ブログ    

推薦する

...

Alipayの顔認識が「クラック」されましたが、私たちのお金はもう安全ではないのでしょうか?

[[314955]]川沿いを頻繁に歩くと、足が濡れてしまいます。決済の兄貴分であるアリペイも小さな...

信頼とセキュリティの分野におけるデータサイエンスの典型的な 7 つの使用例

信頼とセキュリティとは何でしょうか? 現在の世界ではどのような役割を果たしているのでしょうか? 多く...

ビデオ分析以外に、AI と機械学習はどのようなメリットをもたらすのでしょうか?

人工知能 (AI) と機械学習 (ML) は物理セキュリティ市場に大きな影響を与え、ビデオ分析の精度...

大規模なオープンソースデータセットが衝撃的なスキャンダルを暴露、人気AI企業が関与していた

執筆者 | Qingzhu制作:51CTO テクノロジースタック(WeChat ID:blog)ビッ...

...

ビール会社がIoTとAIを活用する方法

ワイン、酒類、ビール会社を含むあらゆる業界が、モノのインターネット (IoT) と人工知能 (AI)...

AIがサイバーセキュリティにできること、できないこと

過去数か月間にネットユーザーを最も怖がらせたものは何かと問われれば、それは以下のウイルス攻撃だろう。...

スウェット物流からスマート物流へ、物流業界はよりスマートになっている

2020年は異例の年です。新型コロナウイルスの世界的な蔓延は人々の生活や仕事に多くの不便をもたらし、...

...

一言で女の子がN着の服を着替えてくれた。Googleが動画生成を新たな高みへ。ネットユーザー「競争が激化」

Google はたった 1 つの動きで、AI ビデオ生成を新たなレベルに引き上げました。文章からビ...

AIの将来はどうなるのでしょうか?

人間のような知能を実現するという永遠の夢を超えて、AI の将来は消費者市場と商業市場の両方で極めて重...

脳とコンピューターのインターフェースのための新しい「接着剤」が発明され、人間と機械の融合「サイボーグ」における新たな進歩がもたらされる

マスク氏の脳コンピューターインターフェースは「人間でテスト」されようとしているが、侵襲的な脳コンピュ...

...

ディープラーニングの限界と将来

[[227297]]注: この記事は、Keras の作者である François Chollet に...