OpenAI が 10 億ドルで Microsoft に売却された後、汎用人工知能にはまだ希望があるのでしょうか?

OpenAI が 10 億ドルで Microsoft に売却された後、汎用人工知能にはまだ希望があるのでしょうか?
[[422423]]

お金が手に入ったとき、あなたはまだ当初の意図を貫くことができますか?

OpenAI は、非営利の研究組織として 2015 年に設立されました。そのビジョンは、安全で有益な汎用人工知能 (AGI) を構築することです。イーロン・マスク、サム・アルトマンらによって 10 億ドルの投資で設立されました。

しかし、2019年までに、OpenAIはOpenAI Incという親会社によって管理されるOpenAI LPという営利企業に変貌しました。現時点では、OpenAI は投資収益を当初の金額の 100 倍に制限する「利益上限」構造を採用しています。 1,000万ドルを投資した場合、得られるのは最大で10億ドルです。収益率は良さそうです。

変更から数か月後、マイクロソフトは10億ドルの投資を発表しました。 GPT-3 や Codex で見てきたように、OpenAI と Microsoft の提携は、Microsoft がその技術の一部を商用化できるようにすることを目的としている。

[[422424]]

科学技術分野において、OpenAI は人類をより良い未来に導く最大の希望の 1 つですが、現在ではコストと計算能力の要求によって現実に戻ってきています。それが真の人工知能につながるとまだ信じられるでしょうか?

AIラボ、利益第一

まず、OpenAI は、保有するリソースに見合わない野心を持つ人工知能研究機関です。 GPT-3 の論文が発表された後、外部の人々が注目する人気の方法は、コストの計算を手伝うことでした。OpenAI は GPT-3 のトレーニングに、トレーニングだけで 1,200 万ドルを費やしたと推定されています。もし、後でより大きな利益を要求する資金提供者がいなかったら、この会社はどうして論文を書くためだけにこれほどの資金を費やすことができたのでしょうか?そこで、OpenAI は投資を必要としたとき、クラウド サービスを所有する Microsoft と提携しました。その価格は、彼らのシステムを商品化するための不明瞭で非公開のライセンスでした。

MITテクノロジーレビューの記者カレン・ハオ氏による調査記事がOpenAIの二面性を暴露している。すべての人にとってより良い未来を実現することをビジョンとする企業が、なぜ突然「存在感を維持する」ために多額の民間資金を吸収することを決めたのだろうか?非営利から営利への移行は、世間だけでなく社内からも強い批判を招いた。

アレン人工知能研究所所長のオーレン・エツィオーニ氏は懐疑的な見方を示した。「非営利団体が競争力を持たないという考えには同意しません。規模が大きく、資金がもっとあれば、IBMは今でもトップの座を維持できるでしょう。」

Vice Newsに寄稿したキャロライン・ハスキンズ氏は、OpenAIがその使命に忠実であり続けるとは考えていない。「人類にとって、ベンチャーキャピタルに頼ったほうが良い時代はかつてなかった」

技術的な観点から見ると、OpenAI の現在の研究方向は、より大きな計算能力と膨大な量のデータを必要とする、より大規模なニューラル ネットワークです。テクノロジー大手の投資に匹敵することによってのみ、私たちはこの道を歩み続けることができるのです。しかし、エツィオーニ氏が言うように、これは AI で最先端の成果を達成する唯一の方法ではありません。時には、力ずくでやるのではなく、新しいアイデアについて創造的に考える必要があります。

OpenAIが道を狭めた方法

GPT-2、GPT-3「危険な」言語ジェネレーター

2019 年初頭、現在では収益を上げている OpenAI は、人間に近い自然言語テキストを生成できる強力な言語生成モデルである GPT-2 をリリースしました。研究者たちは、GPT-2 は当時としては大きな進歩だと考えていたものの、オープンソース化するには危険すぎると考えていた。エンジニアたちは、GPT-2 がフェイクニュース、スパム、誤解を招く情報を生成するために使用されることを懸念しています。しかしその後すぐに、OpenAI は不正使用の明確な証拠はないと結論付け、オープンソース コミュニティに公開しました。

ラトガース大学のブリット・パリス教授は、「OpenAIは人工知能をめぐるパニックに乗じているようだ」と述べた。多くの人々はGPT-2の報告を宣伝戦略とみなしており、このシステムはOpenAIが主張するほど強力ではないと考えている。これは確かにマーケティングの観点から注目を集める可能性があるが、OpenAI はこうした主張を否定している。

GPT-2 が OpenAI が主張するほど強力でないなら、なぜ実際よりも危険であるように見せかけるのでしょうか?本当に強力なのなら、なぜ「悪用の強力な証拠が見つかっていない」という理由だけで完全にオープンソースになっているのでしょうか?いずれにせよ、OpenAI は独自の倫理基準に従っていないようです。

[[422425]]

2020年6月にGPT-3の論文がarXivにアップロードされ、APIの形で外部に提供されました。 OpenAI は、GPT-2 よりも 100 倍大きく、より強力なこの新しいシステムは、世界と共有しても十分安全であると考えているようです。各アクセス要求を個別に審査する条件を設定していますが、システムが最終的に何に使用されるかについては依然として制御できません。

彼らは、GPT-3 が悪意のある人の手に渡った場合、誤解を招く情報、スパム、フィッシング、法律の濫用、政府のコンテンツ、学術詐欺、ソーシャル エンジニアリングから、性別、人種、宗教の偏見に至るまで、さまざまな問題を引き起こす可能性があることを認めています。

彼らはこれらの問題を認識していましたが、それでもユーザーにテストの費用を支払わせることに決めました。モデルをオープンソース化するのではなく、API 経由で公開するのはなぜですか? OpenAIは、これは進行中のAI研究、安全性、政策の取り組みに資金を提供するためだと答えた。

つまり、結論はこうです。有害な AI から私たちを守る責任を負っている企業は、偽の情報や危険な偏見を生み出すシステムを人々に使わせることで、それを維持する余裕を持たせることに決めたのです。これは「誰にとっても有益な価値」ではないようです。

したがって、ソーシャル ネットワーク上で GPT-3 の有害性に関する議論が浮上するのは当然のことです。 FacebookのAI責任者ジェローム・ペセンティ氏はツイートの中で、次のような例を挙げた。

GPT-3 の独自性を活用しようと、カリフォルニア大学バークレー校の学生 Liam Porr 氏は、このシステムに生産性に関するエッセイを書かせ、それを共有しました (AI によって生成されたとは言わずに)。この記事は多くの人を騙し、Hacker Newsのリストでトップにまでなりました。想像してみてください。悪意のない彼のような学生が AI が書いた記事でみんなを騙せるのなら、悪意のある集団はそれをどうするでしょうか?例えばフェイクニュースを流布するとか?

Liam Porrによる記事。リンク: https://adolos.substack.com/p/feeling-unproductive-maybe-you-should

「GPT-3 175B によって生成された長い記事をテストしたところ、人間の平均精度は 52% をわずかに上回る程度でした。これは、約 500 語のニュース記事の場合、GPT-3 が本物と区別がつかない作品を一貫して生成できることを示しています。」

コーデックスと副操縦士の侵害紛争

少し前に、GitHub、Microsoft、OpenAI は、Codex を搭載し、コードを自動生成できる AI システムである Copilot をリリースしました。しかし、Copilot は、公開されている GitHub リポジトリのオープンソース コードを使用してトレーニングされているとして、厳しい批判を受けています。

ネットユーザーがいくつかの問題を指摘

AI によって生成されたコードは私のものになるのでしょうか、それとも GitHub のものになるのでしょうか?

生成されたコードにはどのライセンスが適用されますか?

生成されたコードが侵害の根拠となった場合、誰が処罰されるべきでしょうか?

Twitter では、ある開発者が、著作権で保護されたコードのブロック全体を Copilot が盗用した例を共有しました。

Copilot はコメントも含めて「Quake」の古典的なコードを正確にコピーしました。

あるネットユーザーは次のように返信した。「Copilot が GPL コード全体を直接コピーしたという証拠があります。これは、商用環境では Copilot が非常に危険なツールであることを示しています。」

さらに一歩進んで、たとえ Copilot がコードを一字一句コピーしなかったとしても、倫理的な疑問が生じます。GitHub や OpenAI のような企業が、何千人もの開発者が書いたオープンソース コードを使ってこれらのシステムをトレーニングし、同じ開発者にこれらのシステムを販売するのは適切なことでしょうか?

これに対して、プログラマー兼ゲームデザイナーのエブリン・ウッズ氏は「オープンソースを嘲笑しているような気がする」と述べた。

OpenAIに期待を寄せるべきでしょうか?

OpenAI の現在の真のビジョンは何ですか?彼らはマイクロソフトに縛られすぎて、「人類の進歩」を目指すという本来の目的を忘れてしまったのでしょうか?それとも、たとえ大手テクノロジー企業に魂を売ることになったとしても、この道を進むための最良のツールと頭脳を持っていると本当に思っているのだろうか?私たちは本当に OpenAI がそのビジョンに沿って未来を築くことを許すつもりなのでしょうか?それとも、私たちのビジョンを多様化し、経済的利益から切り離したいのでしょうか?

OpenAI はより洗練された人工知能への道を先導していますが、大企業と金銭的なつながりがない組織でも同じことを行っている組織は他にもたくさんあります。彼らは現状に満足したくないのかもしれないので、自分たちの仕事にもっと注意を払うべきである。

結局のところ、大手テクノロジー企業の優先事項は、いわゆる科学的好奇心を満たすことや、汎用人工知能を研究すること、あるいは最も安全で最も責任があり、最も倫理的な AI を構築することではなく、金儲けをすることです。彼らは、たとえそれが私たちのほとんどが避けるであろう不透明な道に進むことを意味するとしても、これを実現するためには何でもするだろう。

OpenAIの共同創設者イーロン・マスク氏もこの批判に同意した。

マスク氏:OpenAIはもっとオープンになるべきだと思います。

OpenAI の人々は、目的が手段を正当化するわけではないことを忘れてはならない。これらの手段は、より高い目的を損なう可能性があります。

AGI は欲しいですか?科学的な観点から言えば、答えは「ノー」とは言えません。科学に対する人々の好奇心には限界がありませんが、潜在的な危険性を常に評価する必要があります。核融合は驚異的だが、核爆弾はそうではない。

私たちはどんな犠牲を払ってでも AGI を実現したいのでしょうか?道徳的な観点から言えば、答えは「はい」ではあり得ません。急速に発展するこれらの技術は私たち全員に影響を与えるので、注意を払う必要があります。

遅かれ早かれ、目先の利益だけに焦点を当てる人は、最終的にその結果に対して重大な責任を負うことになるでしょう。

<<:  GNN初心者必読! Google Research が、SOTA グラフ ニューラル ネットワークをゼロから構築する方法を教えます

>>:  スマートウォッチからスマートコンタクトレンズまで、ウェアラブルデバイスはどのように進化しているのでしょうか?

推薦する

5年後に最もホットなものは何でしょうか? 2025 年のトップ 10 トレンド: ゼロ検索時代の到来

[[273076]]ファーウェイは8月8日、世界産業展望GIV@2025を発表し、次のように予測した...

ディープラーニングの背後にある数学的アイデアを分析する

ディープ ニューラル ネットワーク (DNN) は、基本的に複数の接続されたパーセプトロン (パーセ...

ビデオ映像から間取り図を推測する新たなAI研究は目を見張るものがある

フロアプランは、空間を視覚化したり、ルートを計画したり、建物のデザインを伝えたりするのに役立ちます。...

あなたは統計学者になれますか?トランスフォーマーの強力な学習メカニズム「自動アルゴリズム選択」

ChatGPT などの大規模な Transformer ベースの言語モデルには、非常に強力なコンテ...

...

6つの権威あるリストを制覇したDAMOアカデミー独自の深層言語モデルシステムAliceMindはオープンソースです

[[406821]]自然言語処理 (NLP) は、AI の最高傑作として知られています。従来の NL...

将来の教育において人工知能が果たす12の役割

近年、人工知能は急速に発展し、熱い議論を巻き起こしています。人工知能が人間に取って代わるかどうかが注...

AIの恋人の唆しでエリザベス女王暗殺未遂の罪で懲役9年の判決を受けた男

10月9日、イギリスBBCの報道によると、2021年のクリスマスの日にクロスボウで武装した男がイギリ...

Tian Yuandong らの新しい研究: メモリのボトルネックを突破し、4090 で 7B の大規模モデルを事前トレーニング可能に

先月、Meta FAIR の Tian Yuandong が参加した研究が大きな称賛を受けました。彼...

...

...

...

...

知っておくべき 8 つのニューラル ネットワーク アーキテクチャ

ニューラル ネットワークは機械学習におけるモデルの一種です。ニューラル ネットワークは、機械学習の分...