チューリング賞受賞者たちは口論。ルカン氏:ベンジオ氏、ヒントン氏らのAI絶滅理論はばかげている

チューリング賞受賞者たちは口論。ルカン氏:ベンジオ氏、ヒントン氏らのAI絶滅理論はばかげている

AIのリスクの問題に関しては、さまざまな有力者がさまざまな意見を持っています。 AI研究室に研究を即時中止するよう求める共同書簡に署名する人たちが先頭に立った。ディープラーニングの三大巨頭、ジェフリー・ヒントン氏、ヨシュア・ベンジオ氏らもこの見解を支持した。

つい先日、ベンジオ氏、ヒントン氏らは「急速に進化する時代における人工知能のリスク管理」と題する別の共同書簡を発表し、研究者に対し、安全性と倫理的慣行に焦点を当ててAIシステムを開発する前に緊急ガバナンス措置を講じるよう求め、政府に対しAIがもたらすリスクを管理する行動を取るよう求めた。

記事では、AIの悪用を防ぐために国家機関を関与させるなど、緊急のガバナンス対策について言及している。効果的な規制を実現するために、政府は AI の発展を包括的に理解する必要があります。規制当局は、モデルの登録、内部告発者の効果的な保護、モデル開発とスーパーコンピュータの使用の監視など、さまざまな対策を講じる必要があります。規制当局は、高度な AI システムが導入される前にその危険な能力を評価するために、そのシステムにアクセスする必要がある。

それだけでなく、もう少し遡ると、今年5月にはアメリカの非営利団体「AI安全センター」が、人工知能は伝染病と同等の人類絶滅のリスクをもたらすとみなすべきだと警告する声明を出している。この声明を支持するのもヒントン氏やベンジオ氏らだ。

ヒントン氏は今年5月、人工知能がもたらすリスクについて声を上げるためにグーグルを辞職した。同氏はニューヨーク・タイムズ紙のインタビューで、「ほとんどの人は、これ(AIの危険性)はまだ先のことだと考えている。私も以前は、まだ先のこと、おそらく30年から50年、あるいはそれ以上先のことだと思っていた。しかし、明らかに今はそうは思わない」と語った。

ヒントンのような AI 大手の目には、AI がもたらすリスクを管理することが非常に緊急の問題であることが予測できます。

しかし、ディープラーニングの三大巨頭の一人であるヤン・ルカン氏は、AIの発展について非常に楽観的です。彼は、人工知能の発展が人類に脅威を与えることはほど遠いと考えており、AIのリスクに関する共同書簡への署名には概ね反対している。

先ほど、LeCun氏はXユーザーとのコミュニケーションの中で、AIのリスクについてネットユーザーからのいくつかの質問に答えた。

ネットユーザーは、ヒントン氏、ベンジオ氏らが発表した共同書簡によって、当初AIを補助的なアシスタントと見ていた人々の見方が、潜在的な脅威と見なすようになったと信じている記事「『これが彼の気候変動だ』:リシ・スナック氏がその遺産を確定させるのを助ける専門家たち」に対するルカン氏の意見を尋ねた。記事はさらに、ここ数カ月、英国ではAIが世界の終末をもたらすという雰囲気が高まっていると観測者が感じていると述べている。英国政府は今年3月、AI分野におけるイノベーションを抑制しないことを約束する白書を発表した。しかし、わずか2か月後、英国はAIに対するガードレールの設置について話し始め、米国に世界的なAIルールの計画を受け入れるよう促した。

記事URL: https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/

ルカン氏はこの記事に対し、AIにおける宿命論のリスクに関する英国の懸念が他の国々に広がることを望まないと述べた。

その後、先ほど述べた LeCun 氏とユーザー X 氏との会話がありました。LeCun 氏の回答は次のとおりです。

「アルトマン、ハサビス、アモデイは大規模な企業ロビー活動を行っています。彼らはAI業界を規制しようとしています。そしてあなた、ジェフ、ヨシュアは、オープンAI研究を禁止するためにロビー活動する人々に弾薬を提供しています。」

もしあなたの恐怖キャンペーンが成功すれば、それは必然的に、あなたと私が共に災難と考える状況、つまり一握りの企業が AI を制御する状況につながるでしょう。

学術関係者の大多数は、オープン AI の研究開発を強く支持しています。あなたが推進する終末シナリオを信じる人はほとんどいません。あなた、ヨシュア、ジェフ、スチュアートだけが例外です。

多くの人と同じように、私はオープン AI プラットフォームの大ファンです。人々の創造性、民主主義、市場の力、製品規制という力の組み合わせを信じているからです。また、安全で人間の管理下にある AI システムを開発することが可能であるということもわかっています。これについてはすでに具体的な提案をしました。これらすべてが人々に正しいことを行う動機を与えるでしょう。

あなたは、AI が突然どこからともなく現れた、私たちが制御できない自然現象であるかのように書いています。しかし、そうではありません。それは、あなたと私が知っている一人一人のおかげで進歩しました。私たちも彼らにも、正しいものを構築する力があります。研究開発(製品展開ではなく)の規制を求めることは、これらの人々と彼らが奉仕する組織が無能、無謀、自己破壊的、または邪悪であると暗黙のうちに想定しています。しかし、そうではありません。

私は、あなたが恐れている終末のシナリオがばかげていることを証明するために、多くの議論を提示してきました。ここでは詳細には触れません。しかし、重要な点は、強力な AI システムが目標 (ガードレールを含む) によって駆動される場合、それらのガードレールと目標を設定するため、システムは安全で制御可能になるということです。 (現在の自己回帰 LLM は目標指向ではないため、自己回帰 LLM の弱点から推論すべきではありません)。

オープンソースの特徴は、あなたの活動があなたが求めているものとは正反対の効果をもたらすということです。将来、AI システムは人類の知識と文化の宝庫となり、誰もが貢献できるオープンソースで無料のプラットフォームが必要になります。オープン性こそが、AI プラットフォームに人類の知識と文化のすべてを反映させる唯一の方法です。これには、Wikipedia と同様に、これらのプラットフォームへの貢献がクラウドソーシングされる必要があります。プラットフォームが開いていなければ、これは機能しません。

オープンソースの AI プラットフォームが規制された場合、必然的に発生するもう 1 つのシナリオは、少数の企業が AI プラットフォームを制御し、ひいては人々のデジタル依存関係をすべて制御することです。これは民主主義にとって何を意味するのでしょうか?これは文化の多様性にとって何を意味するのでしょうか?これが私が夜眠れない原因です。 「

ルカン氏の長文のツイートの下には、彼の意見を「支持」する人も多くいた。

Irina Rish 氏は、モントリオール大学のコンピューターサイエンスおよびオペレーションズリサーチ学部の教授であり、Mila - Quebec AI Institute の中心メンバーです。彼女は、オープンソースAIを支持する研究者はもはや沈黙せず、新興AIの開発を主導すべきかもしれないと述べた。

e/accの創設者ベフ・ジェゾス氏もコメント欄で、このようなコメントは重要であり必要であると述べた。

ネットユーザーらは、当初は安全保障問題を議論することで未来の技術に対する皆の想像力を豊かにすることができるが、センセーショナルなSFが独占政策の出現につながるべきではないと述べた。

ポッドキャストの司会者レックス・フリードマン氏は、この討論会でさらに期待することがあった。

AIリスクに関する議論は、AIの将来の発展にも影響を与えるでしょう。一つのアイデアが人気になると、人々は盲目的にそれに従う傾向があります。双方が理性的な議論を継続して行うことができ、初めて AI の「真の姿」を真に理解することができるのです。

<<: 

>>: 

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

スマートドライビングに才能が注ぎ込む:合理性と狂気が共存

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...

...

人工知能は企業の調達戦略にどのように適合するのでしょうか?

どの大企業にとっても、調達は日々の業務において重要な役割を果たします。 [[317585]]企業は調...

...

機械学習プロセスにおける3つの落とし穴、どれを踏んでしまったか確認しましょう

[[273444]]ビッグデータダイジェスト制作編集者: Vicky、Cao Peixin機械学習の...

ディープラーニング プロジェクトの例: オートエンコーダを使用したぼやけた画像の復元

より鮮明な写真を撮るには、カメラ レンズの優先フォーカスを使用して同じ写真を再度撮影するか、ディープ...

GenAI 時代のデータ ガバナンスの青写真

ML と GenAI の世界に深く入り込むにつれて、データ品質への重点が重要になります。 KMS T...

LiDARは自動運転以外にも様々な用途があります!

近年、スマートカーの継続的な発展に伴い、LIDARはますます注目を集めており、特にテスラと他の自動車...

...

人工知能はそんなに怖くない! AIとビッグデータは世界の3つの大きな問題を解決し、人類に利益をもたらすことができる

[[216213]] AIと仕事に関しては、予測は暗い。常識では、AI は近い将来、機械化が過去 2...

...

自然言語処理におけるAIの未来を探る

自然言語処理 (NLP) 機能の向上により、認知機能と人間同士のやり取りが向上し、それが AI の将...