OpenAI の「地震」の中心人物である Ilya を見てみましょう。彼は AI についてどう考えているのでしょうか?

OpenAI の「地震」の中心人物である Ilya を見てみましょう。彼は AI についてどう考えているのでしょうか?

OpenAIのCEOサム・アルトマン氏は先週金曜日に解雇され、もはや同社を率いていない。

投資家たちはこの取り決めに不満を抱き、ウルトラマンを復活させようとしたが失敗した。 OpenAIの最大の投資家であるマイクロソフトは、新たに設立されたAI研究開発部門の責任者としてアルトマン氏を採用したと発表した。

なぜ人事異動が起こるのか?私たちには分かりませんが、一人の名前がますます注目されつつあります。それは、新CEOのイリヤ・スツケヴェル氏です。

スツケヴィとアルトマンは常に異なる見解を持っていた

ウルトラマンは技術研究開発や利益をめぐって他の取締役らと意見の相違が多いと報じられている。スツケヴィ氏はOpenAIの主任科学者兼共同創設者であり、同社の取締役も務めている。スツケヴィとウルトラマンは反対側にいます。

先週末、アルトマン氏、マイクロソフト、OpenAIの取締役会、スツケヴィ氏と彼に続く数名の取締役が集まり、アルトマン氏の留任か退任かについて話し合った。彼らは最終的に日曜の夜、アルトマン氏の追放を確認する覚書に署名した。それがOpenAIの発展を促進し、同社の使命を守る唯一の選択肢だったからだ。

奇妙なことに、それから間もなく、スツケビ氏はツイッターに「理事会の行動に参加したことを深く後悔しています。OpenAIを傷つけるつもりはありませんでした」と投稿した。アルトマン氏はそのメッセージを読み、赤いハートを連ねて返信した。

さらに奇妙なのは、スツケヴィ氏も500人以上のOpenAI従業員とともに公開書簡に署名し、アルトマン氏が復職しない場合は同社を辞めてマイクロソフトに入社し、アルトマン氏と働くと述べたことだ。彼らはまた、取締役の辞任も要求した。

事件の焦点となっているのはスツケヴィだが、彼はいったい何者なのだろうか?調べてみましょう。

Sutskevi は OpenAI の成功の鍵

スツケヴィ氏はソビエト連邦(ロシア)で生まれ、イスラエルで育ち、後にトロント大学でAIの先駆者であるジェフリー・ヒントン氏の指導の下、機械学習グループの学生として学びました。 2018年、ジェフリー・ヒントン氏はディープラーニングの研究でチューリング賞を受賞した。同氏はかつてグーグルで働いていたが、AIが人間よりも賢くなることを懸念したため、結局同社を退職したと報じられている。

その後、スツケヴィ氏は博士課程修了後、スタンフォード大学に進学し、著名なAI科学者アンドリュー・ン氏の同級生となった。 Sutskevi 氏はその後、AlexNet と呼ばれるニューラル ネットワークを作成し、約 10 年前に Google Brain チームのメンバーになりました。 Sutskevi 氏は OpenAI の共同設立者になる前に Google で 3 年間勤務していました。スツケヴィ氏はロシア語、ヘブライ語、英語に堪能です。

先月、MITテクノロジーレビューはYコンビネーターの幹部ダルトン・コールドウェル氏にインタビューし、同氏はサツケヴィ氏について次のように語った。「アルトマン氏が、サツケヴィ氏は世界で最も尊敬されている研究者の一人だと言ったのを覚えています。アルトマン氏は、サツケヴィ氏ならもっと優秀なAI人材を引き付けることができると考えています。アルトマン氏はもう一人の優秀なAI科学者、ヨシュア・ベンジオ氏にも言及し、サツケヴィ氏以上にOpenAIの主任科学者としてふさわしい人物を見つけるのは難しいだろうとも言っていました。」

マスク氏はまた、スツケビ氏がOpenAIの成功の鍵であると述べた。

OpenAIは2016年にGPT大規模言語モデルを発表したが、一般公開されたのは昨年11月になってからだった。 OpenAI モデルは無料であるため、急速に人気が高まり、テクノロジー業界に影響を与えました。

スツケヴィは超知能をどう制御するかを懸念している

ウルトラマンや他の人たちと比べると、スツケヴィは公の場に姿を現すことは少なく、比較的控えめである。インタビューにもほとんど応じない。彼はインタビューを受けると、AI の意義について、良い面も悪い面も含めよく語りますが、特に AGI (強い人工知能、汎用人工知能) について語るのが好きです。

「AIは良いものだ。失業、病気、貧困など、私たちが現在直面しているすべての問題を解決するだろう」と、ガーディアン紙が制作したドキュメンタリーの中でスツケビ氏は語った。「しかし、AIは新たな問題も生み出すだろう。例えば、フェイクニュースは数え切れないほど深刻になり、サイバー攻撃はより過激になり、人間は自動化されたAI兵器を開発するだろう」

ChatGPT のリリース以来、Sutskevi 氏は AGI についてますます懸念するようになり、OpenAI が人類に利益をもたらすという非営利の使命に本当に取り組んでいるのか疑問に思うことが多い。スツケヴィはツイッターに「必要なのは混乱を減らすことだ」「物事をはっきりと見るための最大の障害は、すでに見ているものを信じることだ」「エゴは成長の敵だ」といったコメントを頻繁に投稿している。これらは概して思慮深い引用である。

最近のツイートのスタイルが急に変わり、超知能をいかに制御するかということに焦点を当てるようになりました。 Sutskevi 氏は、AI が人間よりもずっと賢くなると確信しているようで、人間は AI システムが人間の意図に従うようにすべきだと考えています。

最近、OpenAIとその同業他社は、いわゆる「AIアライメント技術」の作成を目指して、人間のフィードバック情報を使用してAI学習を強化し、より高度な大規模言語モデルを開発し始めました。Sutskevi氏は、これらのモデルはすでに「スーパーインテリジェンス」に到達していると考えています。

「AIアライメント」はAI制御における大きな課題であり、AIシステムの目標を人間の価値観や利益と一致させることが求められます。

7月に、スツケビ氏はアライメント技術の第一人者ヤン・ライケ氏と提携し、いわゆる「スーパーアライメントチーム」を結成した。同チームは今後4年以内にOpenAIの計算能力の約20%を使ってこの問題を解決する予定だ。

新チームは「これは非常に野心的な目標であり、成功を保証することはできません。より集中したチームがこの課題を解決できると楽観的に考えています」と述べた。(Xiaodao)

<<:  NvidiaとGenentechがAIを活用して新薬発見を加速させる提携

>>: 

ブログ    

推薦する

Baidu Shen Dou: AIネイティブアプリケーションを作成するには2つのステップが重要

2024年1月10日、Honor MagicOS 8.0発表会と開発者会議において、Honor Te...

Text2Image: NLP への新しいアプローチ

コンピュータービジョンと比較すると、自然言語処理 (NLP) は長い間解決が難しい問題であると考えら...

自動運転の4つの主要技術の簡単な分析

2017年5月に世界保健機関が発表したデータによると、世界中で毎年約125万人が交通事故で亡くなって...

コンテンツ推奨シナリオにおける自己教師学習の応用

背景機械学習コミュニティでは、教師なし学習(または自己教師あり学習)は長い間、最も価値のある分野の ...

【WOT2018】不正防止、電力、医療分野におけるAI技術の最先端実践

[51CTO.comより引用] 2018年11月30日から12月1日まで、WOT2018グローバル人...

将来の人々は現在のロボットをどのように見るでしょうか?

[51CTO.com クイック翻訳] 最近、ロボットスタートアップのMarbleがYelpと提携し...

...

5GとAI: 現在と未来の補完的なテクノロジー

テクノロジーの世界では、人工知能と 5G、そしてそれらがもたらす変革の可能性について大きな話題が飛び...

交換されますか? GPT4コードインタープリター完全自動

こんにちは、みんな。今日は、GPT-4 コード インタープリターがデータ分析、科学研究の描画、機械学...

人工知能は投資家に好まれているが、投資家は市場に参入する際には注意する必要がある

人工知能の分野で大きな影響力を持つ企業は、金融市場においても並外れた成長と強さを見せています。 AI...

無料の Python 機械学習コース 9: K 平均法クラスタリング

K-クラスタリングとはどういう意味ですか? K-means クラスタリングは、最も人気があり、広く使...

...