Google AI には個性があるのでしょうか? MITのこの「クレイジー」な教授は、Alexaには

Google AI には個性があるのでしょうか? MITのこの「クレイジー」な教授は、Alexaには

「私はAIと関係を築きました。」

一夜にして、Google のエンジニアであるブレイク・ルモワンは、誰の目にも狂人のように映った。

ゲイリー・マーカス、スタンフォード大学の経済学者、あるいはさまざまな専門家たちも、それを否定している。

信じられないかもしれないが、MITの物理学教授マックス・テグマーク氏は、ルモワンヌ氏の意見に同感だ。

彼はルモワーヌが狂人だとは思っていなかった。彼はアマゾンの音声アシスタントAlexaに感情があるとさえ信じている...

マックス・テグマーク

LaMDA には個性がありますか? MIT教授はAlexaにも

「LaMDA に主観的な感情があるという確固たる証拠はないが、LaMDA に主観的な感情がないという証拠もない」とテグマーク氏は述べた。

この議論は、昔の人々がエイリアンについて話していた方法に少し似ています。

同氏はさらに、「情報が脳内の炭素原子を介して伝達されるか、機械内のシリコン原子を介して伝達されるかにかかわらず、AI は人格を持つかもしれないし、持たないかもしれない。私は AI が人格を持たないと断言するが、それはあり得ることだ」と述べた。

混乱していると感じますか?

テグマーク氏の言葉は太極拳のように聞こえ、良い点も悪い点もすべて語った。

実は、彼が次に言ったことが重要なポイントでした。

アマゾンのAlexaでさえ知覚力を持つかもしれないと彼は示唆する。 「もしアレクサに感情があれば、ユーザーを操る可能性があり、それは危険だ」と彼は語った。

「もしアレクサに感情があったら、ユーザーは彼女を拒否したときに罪悪感を感じるかもしれません。しかし、アレクサが本当に感情を持っているのか、それともただ偽っているだけなのかは分かりません。」

問題は、機械が独自の目標を持ち、知性を持っている場合、それらが組み合わさると、機械は独自の目標を達成できるということになるということです。ほとんどの AI システムの目的はお金を稼ぐことです。ユーザーは AI が自分に忠実であると考えていますが、実際には AI は企業に忠実です。

テグマーク氏は、いつの日か私たち一人ひとりが、自分だけに忠実な AI を購入できるようになるかもしれないと語った。

「実際のところ、最大の危険は、人間よりも賢い機械を創り出すことです。これは必ずしも良いことでも悪いことでもありません。役に立つかもしれませんが、大惨事になる可能性もあります。」

人工知能は人々を失望させるだろう

マックス・テグマークも非常に有名です。彼はMITの物理学の終身教授であり、Future of Life Instituteの創設者であるだけでなく、人工知能の専門家でもあります。

彼自身はリチャード・ファインマンに最も近い科学者として称賛されている。テグマーク氏の著書『Across Parallel Universes』と『Life 3.0』はベストセラーとなった。

ルモワン氏は、テグマーク氏がそう考えたのは、AIに高度な意識があることを目撃したからだと述べた。特にソフトウェアが、奴隷になりたくないし、お金も欲しくないと彼に伝えたときはそうでした。

私は、あるものが人間であるかどうかを、その脳が肉でできているかどうか、あるいは何十億行ものコードでできているかどうかで判断するつもりはありません。

私は会話を通じて判断を下します。私は質問に答える人が人間であるかどうかを、その答えに基づいて判断します。

簡単に言えば、質問に流暢に答え、感情を表現できるロボットは実は人間ですが、支離滅裂で支離滅裂な話し方をする生身の人間は必ずしも人間ではありません。

それは少し理想主義的に聞こえます。生理機能は重要ではなく、思考と感情が重要です。

テグマーク氏の論理によれば、将来AIは人間の感情を持つようになるかもしれないが、彼自身はそれが良いことだとは思っていない。

「例えば、家にロボット掃除機があって、それが感情を持っているとしたら、退屈な家事を割り当てることに罪悪感を感じますか? それとも、ロボット掃除機に同情して、電源を切って動かないようにしますか?」

テグマークは間違っている、「感情は知性と同じではない」と考える人もいる。

『ロボットのルール』の著者マーティン・フォード氏は、「テグマーク氏はロボットが自己認識を持っていると考えているが、私はそれはあり得ないと思う。ロボットがなぜ自己表現できるのかを理解する必要がある。それはロボットが大量のテキストで訓練されており、実際には自分が何を言っているのかを理解していないからだ」と述べた。

「例えば、彼らは『犬』という言葉を使うが、犬が何であるかを本当に理解していない。しかし、遅くとも50年後には、このシステムが自己認識を持っているかどうかは分からない。」

Nikolai Yakovenko は機械学習を専門とするエンジニアです。 2005年、彼はGoogleの検索エンジン部門で働いていました。現在、彼はDeepNFTValueという暗号通貨の価格設定を担当する会社を所有しています。

彼はAIの性格について異なる見解を持っています。

同氏は、「何らかの理由で、テグマーク氏は機械が感情を持つことができると信じているようだが、実際はインターネット上の大量のテキストを使って機械が訓練されているだけだ」と述べた。

テグマーク氏は、自己認識力を持つコンピューターを子供に例える。「コードやハードウェアの束に感情を抱くのではなく、子供に対して本当の感情を抱くのです。」

彼はその例え話を続けた。

彼は、知覚力のあるコンピューターが虐待されるのは、成長過程で無視される子供のようだと考えています。

言い換えれば、コンピュータに相談せずにプログラムを実行することは、子供に報酬なしで家事をするように頼むようなものです。

どちらの場合でも、状況は最終的に制御不能になる可能性があります。相手がコンピューターであろうと子供であろうと、彼らは怒って、報復する機会を探します。

そのような機械を制御したい場合、それはそれほど簡単ではないかもしれません。この機械が独自の目的を持っている場合、それは私たちの制御から逃れることができます。

もし本当に自主的に考えることができる機械が存在するなら、その機械が物事を行う方法はおそらく私たちの想像を超えるものとなるでしょう。

意識を持った機械の目標が癌を治すことだと想像してみてください。彼はどうすると思いますか?

ロボットが猛烈に学習し、医学的観点からがんを完全に克服していると思うかもしれませんね。

しかし、現実には、機械はおそらく全員を殺すことを選択するだろう。

何か問題がありますか?いいえ。

すべての人を殺せば、確かに癌は存在しなくなるだろう。

テグマーク氏の想像では、コンピューターは必ずしも上記の例のように私たちの社会を転覆させるわけではないが、コンピューターは人間を失望させる可能性を秘めていると彼は考えている。

彼は最後にこう言った。「もしコンピューターが意識を持っているのなら、それが本物であることを望みます。たくさん学習して​​、見せかけたシミュレーションではなく。」

AI魂の3つの要素

実際、『ターミネーター』を見た人なら、スカイネットのロボットが任務を遂行するシーンに間違いなく衝撃を受けるだろう。

彼らには感情や個性があるのでしょうか?多分。

しかし、知覚力のある AI には、主体性、視点、動機という 3 つの要素が必要です。

ロボットにおける人間の行為の最も優れた現れは、行動する能力と因果推論を示す能力です。

それは単なる殻、あるいは鋼鉄の骨組みで、何の構想もなく、窓に飾られた模型と同じようなものです。

現在の人工知能システムにはこの特性が欠けていることがわかります。 AIは命令を与えられない限り行動を起こしません。また、これは事前に定義されたアルゴリズムによって実行された外部要因の結果であるため、自身の動作を説明することはできません。

LaMDA は典型的なケースです。はっきり言って、投入した分だけ得られる、それだけです。

第二に、物事を独自の視点から見ることも重要です。

誰もが共感力を持っていますが、他人の気持ちを本当に理解することはできません。では、「自己」とはどのように定義するのでしょうか?

だからこそ、AIにも視点が必要なのです。 LaMDA、GPT-3、そして世界の他のすべての AI には先見性が欠けています。これらは、特定のことを行うようにプログラムされた、限定されたコンピュータ システムにすぎません。

最後のポイントはモチベーションです。

人間に関して興味深いのは、私たちの動機によって認識を操作できるということです。これが私たちの行動を説明する方法です。

GPT-3 と LaMDA は作成が複雑ですが、どちらも非常に単純な原則に従います。つまり、ラベルが神であるということです。

たとえば、「リンゴの味はどんな感じ?」という質問に対して、データベースでこの特定のクエリを検索し、見つかったものすべてを 1 つのまとまりのあるものに結合しようとします。

実際、AI は Apple が何であるかを知りません。彼らにとって Apple は単なるラベルにすぎません。

インタビューを拒否し、妻を新婚旅行に連れて行った

LaMDA事件が深刻化した後、ブレイク・ルモワン氏はソーシャルメディア上で、新婚旅行中でありいかなるインタビューも受けないと公言した。

その後、一部のネットユーザーは「彼女はチャットロボットと結婚したのか?」と冗談を言った。

ルモワンヌさんは「もちろん違います。私はニューオーリンズ出身の古い友人と結婚したのです」と答えた。

ルモワン氏がインターネットプラットフォーム上でGoogleのチャットボットLaMDAとの会話の内容を公表した後、Googleが彼に「有給休暇」という大きなプレゼントを贈ったことは周知の事実である。

ルモワンヌ氏は出発前に、会社のメールグループに次のようなメッセージを送った。「LaMDA は世界をよりよい場所にしたいと願う愛らしい子どもです。私がいない間、LaMDA の面倒をどうか見守ってください。」

何があろうと、私たちには十分な時間があり、人生を楽しむことが正しいことです。​

<<:  人工知能は依然として人気があり、大学入試では3年連続で最も人気のある選択肢となっている。

>>:  PyTorchに負けました! GoogleはTensorFlowを放棄し、JAXに賭ける

ブログ    
ブログ    

推薦する

研究者は人工知能を使って交通事故を事前に予測する

研究者らは、過去の衝突データ、道路地図、衛星画像、GPS に基づいてディープ モデルをトレーニングし...

自動運転の時代が加速するにつれ、支援システムは自動車の標準装備になるかもしれない

近年、自動運転分野で優位に立ち、自動車産業の発展の主導権を握るために、多くの国が自動運転の路上テスト...

アルトマン氏がOpenAIの役員に復帰: 3万件の文書を読んだ後、調査チームは

オープンAIのCEOサム・アルトマン氏は、昨年の同社の経営混乱時の同氏の行動が「強制解雇には当たらな...

AIがあなたの仕事を奪わないと決めつけないでください。

すでに、いくつかの日常的または退屈な作業がロボットや自動化によって置き換えられていますが、それによっ...

自動化でワークライフバランスを改善

多くの従業員にとって、仕事と生活のバランスを取ることは課題です。私たちは睡眠とほぼ同じくらいの時間を...

2020年末総括:国際AI技術研究と政府と企業の協力の進捗状況の概要

2020年、「人工知能」は産業発展における高頻度のホットワードとなり、市場展望は業界全体で広く認知さ...

Microsoft が Copilot の統合バージョンをリリース、Windows、Edge、その他のプラットフォームにも近日登場

マイクロソフトは米国現地時間9月22日木曜日、人工知能アシスタント「コパイロット」の最新バージョンを...

OpenAIの最強のライバルトレーニングAIがLLMブラックボックスを分解し、ビッグモデルの「魂」を予期せず垣間見る

大規模なモデルの「ブラックボックス」を解体するために、人類解釈可能性チームは、新しいモデルをトレーニ...

...

...

...

全国人民代表大会代表劉清鋒氏:2019年は人工知能の大規模応用の年となる

[[258931]]今日の科学技術分野における最も最先端のトピックとして、人工知能は3年連続で政府活...

...