OpenAI の「地震」の中心人物である Ilya を見てみましょう。彼は AI についてどう考えているのでしょうか?

OpenAI の「地震」の中心人物である Ilya を見てみましょう。彼は AI についてどう考えているのでしょうか?

OpenAIのCEOサム・アルトマン氏は先週金曜日に解雇され、もはや同社を率いていない。

投資家たちはこの取り決めに不満を抱き、ウルトラマンを復活させようとしたが失敗した。 OpenAIの最大の投資家であるマイクロソフトは、新たに設立されたAI研究開発部門の責任者としてアルトマン氏を採用したと発表した。

なぜ人事異動が起こるのか?私たちには分かりませんが、一人の名前がますます注目されつつあります。それは、新CEOのイリヤ・スツケヴェル氏です。

スツケヴィとアルトマンは常に異なる見解を持っていた

ウルトラマンは技術研究開発や利益をめぐって他の取締役らと意見の相違が多いと報じられている。スツケヴィ氏はOpenAIの主任科学者兼共同創設者であり、同社の取締役も務めている。スツケヴィとウルトラマンは反対側にいます。

先週末、アルトマン氏、マイクロソフト、OpenAIの取締役会、スツケヴィ氏と彼に続く数名の取締役が集まり、アルトマン氏の留任か退任かについて話し合った。彼らは最終的に日曜の夜、アルトマン氏の追放を確認する覚書に署名した。それがOpenAIの発展を促進し、同社の使命を守る唯一の選択肢だったからだ。

奇妙なことに、それから間もなく、スツケビ氏はツイッターに「理事会の行動に参加したことを深く後悔しています。OpenAIを傷つけるつもりはありませんでした」と投稿した。アルトマン氏はそのメッセージを読み、赤いハートを連ねて返信した。

さらに奇妙なのは、スツケヴィ氏も500人以上のOpenAI従業員とともに公開書簡に署名し、アルトマン氏が復職しない場合は同社を辞めてマイクロソフトに入社し、アルトマン氏と働くと述べたことだ。彼らはまた、取締役の辞任も要求した。

事件の焦点となっているのはスツケヴィだが、彼はいったい何者なのだろうか?調べてみましょう。

Sutskevi は OpenAI の成功の鍵

スツケヴィ氏はソビエト連邦(ロシア)で生まれ、イスラエルで育ち、後にトロント大学でAIの先駆者であるジェフリー・ヒントン氏の指導の下、機械学習グループの学生として学びました。 2018年、ジェフリー・ヒントン氏はディープラーニングの研究でチューリング賞を受賞した。同氏はかつてグーグルで働いていたが、AIが人間よりも賢くなることを懸念したため、結局同社を退職したと報じられている。

その後、スツケヴィ氏は博士課程修了後、スタンフォード大学に進学し、著名なAI科学者アンドリュー・ン氏の同級生となった。 Sutskevi 氏はその後、AlexNet と呼ばれるニューラル ネットワークを作成し、約 10 年前に Google Brain チームのメンバーになりました。 Sutskevi 氏は OpenAI の共同設立者になる前に Google で 3 年間勤務していました。スツケヴィ氏はロシア語、ヘブライ語、英語に堪能です。

先月、MITテクノロジーレビューはYコンビネーターの幹部ダルトン・コールドウェル氏にインタビューし、同氏はサツケヴィ氏について次のように語った。「アルトマン氏が、サツケヴィ氏は世界で最も尊敬されている研究者の一人だと言ったのを覚えています。アルトマン氏は、サツケヴィ氏ならもっと優秀なAI人材を引き付けることができると考えています。アルトマン氏はもう一人の優秀なAI科学者、ヨシュア・ベンジオ氏にも言及し、サツケヴィ氏以上にOpenAIの主任科学者としてふさわしい人物を見つけるのは難しいだろうとも言っていました。」

マスク氏はまた、スツケビ氏がOpenAIの成功の鍵であると述べた。

OpenAIは2016年にGPT大規模言語モデルを発表したが、一般公開されたのは昨年11月になってからだった。 OpenAI モデルは無料であるため、急速に人気が高まり、テクノロジー業界に影響を与えました。

スツケヴィは超知能をどう制御するかを懸念している

ウルトラマンや他の人たちと比べると、スツケヴィは公の場に姿を現すことは少なく、比較的控えめである。インタビューにもほとんど応じない。彼はインタビューを受けると、AI の意義について、良い面も悪い面も含めよく語りますが、特に AGI (強い人工知能、汎用人工知能) について語るのが好きです。

「AIは良いものだ。失業、病気、貧困など、私たちが現在直面しているすべての問題を解決するだろう」と、ガーディアン紙が制作したドキュメンタリーの中でスツケビ氏は語った。「しかし、AIは新たな問題も生み出すだろう。例えば、フェイクニュースは数え切れないほど深刻になり、サイバー攻撃はより過激になり、人間は自動化されたAI兵器を開発するだろう」

ChatGPT のリリース以来、Sutskevi 氏は AGI についてますます懸念するようになり、OpenAI が人類に利益をもたらすという非営利の使命に本当に取り組んでいるのか疑問に思うことが多い。スツケヴィはツイッターに「必要なのは混乱を減らすことだ」「物事をはっきりと見るための最大の障害は、すでに見ているものを信じることだ」「エゴは成長の敵だ」といったコメントを頻繁に投稿している。これらは概して思慮深い引用である。

最近のツイートのスタイルが急に変わり、超知能をいかに制御するかということに焦点を当てるようになりました。 Sutskevi 氏は、AI が人間よりもずっと賢くなると確信しているようで、人間は AI システムが人間の意図に従うようにすべきだと考えています。

最近、OpenAIとその同業他社は、いわゆる「AIアライメント技術」の作成を目指して、人間のフィードバック情報を使用してAI学習を強化し、より高度な大規模言語モデルを開発し始めました。Sutskevi氏は、これらのモデルはすでに「スーパーインテリジェンス」に到達していると考えています。

「AIアライメント」はAI制御における大きな課題であり、AIシステムの目標を人間の価値観や利益と一致させることが求められます。

7月に、スツケビ氏はアライメント技術の第一人者ヤン・ライケ氏と提携し、いわゆる「スーパーアライメントチーム」を結成した。同チームは今後4年以内にOpenAIの計算能力の約20%を使ってこの問題を解決する予定だ。

新チームは「これは非常に野心的な目標であり、成功を保証することはできません。より集中したチームがこの課題を解決できると楽観的に考えています」と述べた。(Xiaodao)

<<:  NvidiaとGenentechがAIを活用して新薬発見を加速させる提携

>>: 

ブログ    
ブログ    

推薦する

...

オープンソースモデルの新記録:Mixtral 8x7B Instructを超えるモデルが登場

Llama、Llama 2 から Mixtral 8x7B まで、オープンソース モデルのパフォーマ...

自動運転の浮き沈み:バブルが消えた後

[51CTO.comよりオリジナル記事] 静かな2019年を経て、自動運転業界は新年を迎え、徐々に活...

日本は変形可能なロボットボールを月に送り込む予定。ボール全体の重さは250グラム

海外メディアの報道によると、日本は5月31日に、特殊な外観の球形ロボットを月に送る予定だ。この球体ロ...

嫌がらせ電話をかけてきた相手は実はAIロボットだった?

「ネットワークの向こう側に犬がいるかどうかは分からない」 - テクノロジーの発展により、同じ原理が...

欧州のAI規制案は世界的な影響を及ぼす可能性がある

メディアの報道によると、欧州連合は最近、米国や中国のテクノロジー大手を含む組織を対象に、域内での人工...

残念ながら、自然言語理解はAIがまだ克服していない分野である。

わずか数年で、ディープラーニングのアルゴリズムは大きな進歩を遂げました。チェスのゲームで世界最高のプ...

2022年の人工知能の7つの主要な応用トレンド

[[440141]]過去数年間で、人工知能はエンタープライズ アプリケーション市場で大きな進歩を遂げ...

...

自動運転のスケールアップ問題

[[280016]]最近のニュースによると、Google傘下の自動運転企業Waymoがユーザーにメー...

PyTorch と TensorFlow の最新バージョンを比較すると、2021 年にはどちらを選択しますか?

ディープラーニングが再び認知されて以来、多くの機械学習フレームワークが登場し、研究者や業界の専門家の...

...

...

月給5万ドルでこのホットなAI分野をマスターするには、これらの9冊の本を読むだけで十分です

はじめに:国内の求人検索サイトのデータによると、2019年現在、上海の自然言語処理(NLP)関連職種...