こんなの今まで見たことないよ! AIの巨人たちが「人類絶滅説」に立ち向かい、ヒントン、アンドリュー・ン、ルカンが排除され、マスクは強く見守った

こんなの今まで見たことないよ! AIの巨人たちが「人類絶滅説」に立ち向かい、ヒントン、アンドリュー・ン、ルカンが排除され、マスクは強く見守った

こんなことは今まで見たことがありません。AIの巨人たちが袖をまくり上げて、オンラインで「戦い」始めました。その戦いはすぐにインターネット上で話題になりました。

ビッグネームが続々登場。

アンドリュー・ン、ヒントン、ルカン、ハサビス…とても落ち着いているヒントンでさえ、マイクで皮肉な発言を始めた。

はい、はい、善良な人々は大きな力を持っています。核兵器もオープンソースにすべきです。

皆がこんなに怒っている理由は、「巨大モデルは人類を滅ぼすのか?」というホットな話題のためです。

反対派は、市場を独占しているとしてテクノロジー大手を直接非難した。アンドリュー・ン氏は鋭く指摘した。

ただ金儲けをするためだけに(AIが人類を絶滅させるという)恐怖を広める人もいる。

肯定派も負けてはいない。最新のニュースでは、「金儲け派」の代表者だと非難されているディープマインド社のハサビスCEOが、次のように直接反応した。

これは脅迫ではありません。 AGI のリスクが今議論されなければ、その結果は深刻なものとなる可能性があります。
危険が発生する前に予防措置を講じ始めるのは望ましくないと思います。

つまり、現場は非常に熱く、ネットユーザーは非常に興奮していた。マスク氏も最前列から見守らずにはいられなかった。

多くのネットユーザーが興奮して手をこすった。

こんな光景は初めて見ました。議論をすることで真実が明らかになるので、皆さんの議論を応援します。

大物たちがこのように言い争っていたとき、一体何を議論していたのでしょうか?ベンチは準備ができています。見てみましょう。

現地復旧:3ラウンドの戦い

この戦争の直接の「発火点」は、昨夜のアンドリュー・ン氏の公式声明だった。

あなたは知っていますか? AIに関する私の最大の懸念は、 AIのリスクが過大評価されオープンソースとイノベーションが厳しい規制によって抑制されることです。

その後、Andrew Ng氏もこの問題について詳しく議論する長い記事を添付しました。

同氏は、ここ数カ月、AIが人類絶滅のリスクをもたらす可能性があるという見方を懸念していたと述べた。

しかし、その主張を慎重に評価すると、その主張は「曖昧で具体的でない」ものであることが判明した。

AIが人類の絶滅を引き起こさないことを証明することはできません。また、このような見解を持つ人々の中には、人類のことを心から心配している人もいることに疑いの余地はありません。

しかし、彼は、一部の人々が「お金」のためだけにそのような懸念を広めようと懸命に働いていると考えています。たとえば、

  • 個人はそこから注目を集め、スピーチをし、出演料やその他の報酬を受け取ることができます。
  • 非営利団体は、このリスクに対抗するために資金を調達することができます。

言い換えれば、これはちょっと「技術的な陰謀」のような感じがします

記事の中でアンドリュー・ン氏は、AIに対する肯定的な見解を促進し、強力な規制につながり技術の進歩を妨げる根拠のない懸念を広めないよう、すべての人に呼びかけた。

すぐに、この投稿はヒントン氏の注目を集めました。

「AIは危険である」という陣営の熱心な信奉者として、彼はアンドリュー・ン氏に最初に反対した人物でした。直接返信を投稿する:

これは技術的な陰謀だと言うのですか?では、なぜ私は Google を辞めたのでしょうか? ?

大物たちの間で口論が始まった。

第1ラウンド: ヒントン vs アンドリュー・ン

ヒントン氏の「質問」を見たアンドリュー・ン氏は、そこで止まらず、コメント欄で「返信」した。

彼はまず、「私はこれが陰謀だと言ったのではない」と説明した

そしてこう自問してください。「この過度の心配が実際に害を及ぼしていることを知っていますか?」

まず、人類の絶滅に加担したくないという理由で、業界に入ることを躊躇している若い学生がすでにいる。次に、宣伝が増えれば増えるほど、世界中で規制が厳しくなり、オープンソースが損なわれ、イノベーションが阻害される。

しかし、結局、アンドリュー・ンが雰囲気を和らげた

あなたの懸念は本物だとは思いますが、全体的には、良いことよりも悪いことの方が多くなります。

第2ラウンド: ルカン vs ヒントン

はい、ルカンはすぐに乱闘に加わり、古い友人に容赦しませんでした。

あなたとヨシュアの発言のおかげで、オープンソースを禁止することで AI 研究とビジネスを守りたい人たちが「成功」することができたのです。結果は深刻です。

実際、ルカンがアンドリュー・ンを支持したのは彼自身の理由によるものだった。それよりずっと前から、ルカンはすでにヨシュアや他の人たちに「不満」を抱いていた

毎日このような発言をすることで、オープンな AI 研究技術を禁止するようロビー活動する人々に弾薬を与えていることになります。

本当に成功すれば、「少数の企業が人工知能をコントロールする」という大惨事が差し迫っているかもしれない。

彼はまた、これらの「少数の企業」の名前を直接挙げました。

OpenAI、DeepMind、Anthropic ― これらの企業の CEO は、AI 業界の規制強化を狙って「大規模な企業ロビー活動」に関与したとして非難されている。

この投稿は多くの「いいね!」と支持を得ました。

以前、LeCun 氏は「私たちがすべきことは、一般的な/基本的な大規模モデル技術の研究を制限することではなく、そのアプリケーションを標準化することです」という投稿を転送しました。

そして怒って言った。

私は何年もこれを言い続けています。

第3ラウンド: ヒントン「1対2」

まだ終わりではありません。この 2 ラウンドの後、ヒントンは 1 対 2 で対戦することで新たな疑問を提起しました。これを第3ラウンドと呼びましょう。

AIは厳しく規制されるべきではないとおっしゃいますが、今後30年以内にAIが人類を絶滅させる確率はどれくらいかご存じですか?

Andrew Ng さんが真のベイジアンであれば、数字を提示できるはずです。私の現在の推定値は0.1です。 LeCun は 0.01 未満であると思われます。

これに対して、ルカン氏は直接答えた。

どの程度かは分かりませんが、人類絶滅につながる他のほとんどのリスクに比べればはるかに低いです。

なぜ?なぜなら、止めることのできない自然現象とは異なり、私たち人間にはこれに対する主体性があるからです。

そして、 AI が実際に人類を絶滅から救うかもしれないのです

ヒントン氏はこれに対して反応しなかった。

ちなみに、冒頭で述べたヒントン氏の反論もルカン氏の発言に向けられたものだった。

Andrew Ng 氏と同様に、LeCun 氏もオープンソースの力について懸念している。

もし SkyNet がオープンソースだったら、ターミネーターの物語は今でも起こるのでしょうか?

ヒントン氏の核兵器とAIの類似性については、ルカン氏とfast.aiの創設者ジェレミー・ハワード氏は意見が一致しない。

この2つがどのように関連しているのか分かりません。

しかし一方で、ディープマインドのハサビスCEOはヒントン氏を遠隔でサポートした。

彼はCNBCとの最近のインタビューで、ルカン氏の見解のほとんどに強く反対していると率直に述べた。

私たちも「数は力なり」と信じているため、オープン AI プラットフォームを強く支持しています。しかし今、私たちは AI がすでに生み出した有害な操作に対処する必要があります。そうしないと、悪意を持った人々によって AI が悪用されることになります。

私たちは長期的なリスクも考慮しました。AI が制御可能であることを確認し、危険が発生するまで開始を待つべきではありません。

この戦いでは双方とも自分の意見を主張し、どちらも相手を納得させることができなかったと言える。

マスク氏もこのプロセスを見に来ていたことは特筆に値する。彼は明らかに傍観者ではなかったが、次のように述べた。

本当の戦いは絶滅論者と人道主義者の間です。

一度この戦いに気づけば、もう忘れることはできない。

ルカンは、まだ非常に興奮しており、再びそのポストの下で自分の立場を述べ、馬がどちらの側に立つのかを尋ねた。

えーと、ネットユーザーの中にはこう答えた人もいる。「マスク氏はトランスヒューマニストだ」 (手動犬頭)

業界リーダーはAIのリスクに注目

マスク氏のXをめぐるこの「激戦」は業界全体の注目を集めたと言えるだろう。

しかし実際には、議論が始まる前から、「AIリスク」はすでに業界リーダーの間で懸念される焦点の1つとなっていた。

ほんの数日前、ディープラーニングの三大巨頭のうちの2人、ベンジオ氏とヒントン氏は、ヤオ・チジ氏やチャン・ヤキン氏といった人工知能の第一人者と共同で、「急速な進歩の時代におけるAIリスクの管理」と題する公開書簡を発表した。

この記事では以下の内容について説明します。

2019年現在、GPT-2はまだ10まで数えることができません。わずか 4 年後には、ディープラーニング システムは独自のソフトウェアを作成し、リアルなシーンを生成し、インテリジェントな提案を提供し、言語と画像処理を組み合わせてロボットの「頭脳」として機能できるようになります。

AI の進歩は急速かつ驚異的であり、今後も驚異的であり続けるでしょう。

現在のディープラーニング システムには依然として重要な機能が欠けており、その開発にどれくらいの時間がかかるかはわかりません。しかし、企業は、ほとんどの認知タスクにおいて人間の能力に匹敵するか、あるいはそれを凌駕する汎用人工知能システムの開発に競い合っています。

署名者は、AGI が今後 10 年または次の 10 年以内に多くの重要な分野で人間の能力を上回る可能性を人類は真剣に受け止めなければならないと考えています。

この公開書簡は、規制当局はAIの発展について包括的に理解する必要があり、数十億ドル相当のスーパーコンピューターで訓練された大規模モデルには特に注意する必要があると示唆している。

もう一つ

しかし、口論はさておき、つい最近、ルカンはツイッターで自分とヒントン、ベンジオの写真を次のようなキャプション付きでシェアした。

大きな問題について意見が違っていても、人々は良い友達でいられます。

それで、あなたはどちらの側を支持しますか?

<<: 

>>:  チップ設計に特化したNVIDIAが、カスタマイズされた大規模言語モデルChipNeMoをリリース!

ブログ    
ブログ    
ブログ    

推薦する

Golang か Python か? AIに適した言語はどれですか?

近年、AIが勢いを増し、多くの革新的な企業がAI分野に参入し始めました。同時に、コンピュータハードウ...

...

...

ディープフィードフォワードシーケンスメモリニューラルネットワークに基づく大語彙連続音声認識

【51CTO.comオリジナル記事】まとめ本研究では、ディープフィードフォワードシーケンスメモリニュ...

ボストン・ダイナミクスの二輪ロボット「ハンドル」がデビューします!物流ロボットOTTOと連携して商品を配送

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能の発展には限界が必要

一般的な理解によれば、人工知能とは、手動でしかできないタスクを、人間以​​外のツールで完了できること...

人工知能に対する期待と不安

AI は世界を変えようとしていますが、問題は、それがどのように起こるか誰も予測できないことです。過去...

自然言語処理にディープラーニングを使用するにはどうすればよいでしょうか?練習チェックリストはこちら

[[198324]]導入この記事は、自然言語処理 (NLP) にニューラル ネットワークを使用する方...

Google: LLM は推論エラーを見つけることはできないが、修正することはできる

今年、AI分野では大規模言語モデル(LLM)が注目を浴びています。 LLM はさまざまな自然言語処理...

TIC 2018: クラウド サービスが人工知能の急速な発展を支援

[51CTO.comよりオリジナル記事] 中国の大手中立クラウドサービスプロバイダーUCloudが主...

Uberの自動運転車の死亡事故から忘れてはならない10の教訓

自動運転技術は常に注目を集めてきたが、「幻滅」に直面している。これによって起きた初の交通事故死は、1...

...

勉強!機械学習アルゴリズムの長所と短所の概要

目次正規化アルゴリズムアンサンブルアルゴリズム決定木アルゴリズム回帰人工ニューラルネットワークディー...

AIによって書かれたコードは「手書きのコード」よりもはるかに安全性が低い

Github Copilot のような人工知能コードアシスタントは、開発者の開発効率と生産性を大幅に...

...