生成型人工知能に関する簡単な議論

生成型人工知能に関する簡単な議論

生成AIには長い歴史があります。いくつかの情報源によれば、1950 年代にはすでに登場していたようです。他の情報源によると、最初の初歩的なチャットボットは 1960 年代に登場したそうです。本当の起源が何であれ、過去 1 年間に登場した膨大な数の研究論文、アプリケーション、ニュース レポート、ブログ投稿、会話、特にコンピューター ビジョン モデル (Stable Diffusion、Midjourney、DALL-E などの画像とビデオのディープラーニング) や大規模言語モデル (GPT-3、GPT-4、およびこの記事のタイトルで言及した優れた例を含むテキストと言語のディープラーニング) における生成 AI の出現と比較すると、これらは歴史のタイムライン上の単なる小石に過ぎないと考えます。

生成 AI は、特定の種類のコンテンツの過去のトレーニング例から新しいテキスト、画像、音楽、ビデオを作成するなど、新しい独自のコンテンツを生成できるシステムのトレーニングと展開に重点を置いた人工知能 (AI) の分野です。これは構造化データ(データ テーブル、時系列、データベースなど)に適用できますが、非構造化データ(画像やテキスト)に適用すると、さらに画期的かつ世界的に注目されるものになります。事前に定義されたルールやパターンに依存する従来の AI モデルとは異なり、生成 AI モデルは大量の過去のデータから学習することで新しい出力を生成できます。生成 AI の中核となるのは、機械学習 (ML) と統計の概念です。 (もちろん、統計学習と機械学習はすでに密接に関連しています。)

生成 AI に現れる ML の特定の側面に関して言えば、ML のサブセットは教師なし学習と呼ばれ、特定のデータセット内の繰り返しパターンと構造を学習するために使用されます。これらのパターンは「統計的な超能力を備えた構成要素」(誇張表現はご容赦ください)となり、論理的に意味があり、統計的に実行可能なグループに組み合わせて、トレーニング データ(テキストまたは画像)に非常に類似した新しいコンテンツ(多くの場合、非常に新しいコンテンツ)を生成することができます。このプロセスは教師なし学習です。その目的は、既知のパターンを分類、ラベル付け、または複製すること (教師あり学習) ではなく、非構造化データ内の複雑なパターンを発見すること (独立成分分析 ICA の一般的な形式に似ていますが、主成分分析 PCA に似ていますが同じではありません) であるためです。 ICA は、ブラインド ソース分離や「カクテル パーティー問題」などの信号処理で使用され、複雑な信号を識別して独立した加法サブコンポーネントのセットに分離する計算手法です。

生成 AI における統計の出現に関しては、マルコフ モデルとベイズ学習の基礎となる重要な統計概念の多くに遭遇します (したがって、生成 AI の起源は 1950 年代にあります)。これらの方法の基礎となる条件付き確率の歴史は、はるか昔、最も有名なのはトーマス・ベイズ牧師まで遡ります (ベイズの定理は 1763 年に発表されました)。生成 AI は条件付き確率を使用して、非常に複雑で大規模な多変量データを処理し、ユーザーのクエリ (つまり、ユーザープロンプト) に応じてこれらの構成要素 (教師なし ML によって学習されたパターンと構造) の最も可能性の高い組み合わせを計算します。

したがって、生成 AI が新しい出力を構築できるようにする「秘密のソース」は、次の 3 つの基本構造で構成されます。(1) すべての可能な材料のリポジトリ (つまり、トレーニング データ内の ML 学習パターンと構造)、(2) ユーザーの意図 (つまり、ユーザーのクエリで提供される多数のパーソナライズされたリクエストのオプション メニュー。これは、ユーザーのニーズを示すプロンプトのカテゴリです)、(3) レシピ (つまり、統計的にユーザーのクエリを満たす可能性が最も高い出力を生成する材料の組み合わせと順序を計算する統計モデル)。

ここで少し補足すると、クエリの「コンテキスト」も基本的に重要ですが、生成 AI の「パーソナライゼーション」の部分が、ユーザーの意図を示すプロンプトにすでに反映されていることを期待しています。最善の(最も有益で、満足度が高く、パーソナライズされた)応答を得るには、適切なコンテキストを適切なプロンプト エンジニアリングで提供することが大きく関係します。これは、「仕事の未来」における新しい職務スキルになりつつあります。

この投稿を書いているときに、ChatGPT を使用して食べ物の比喩をインスタンス化することにしました。そこで、私は ChatGPT に質問しました。「ハワイの地元フルーツとスパイスを使ったパイのレシピを教えてください。」返信は次のとおりです。「Kirk Borne が ChatGPT にハワイアン パイのレシピを尋ねました」(この記事では具体的なレシピは省略されています)。このブログを終わらせて、パイを作りに行きます。

これらはすべて魅力的で、刺激的で、爽快で、爆発的な変革をもたらすものですが、私たちも教育を受ける必要があります。もっと正確に言えば、経営幹部やその他のリーダーが FOMO に陥り、競合他社や他の市場に遅れをとることを恐れて「今すぐ生成 AI をください」と言う前に、企業内でそのような展開が成功し、生産的になるための基盤を築く必要があります。配合されている主な成分は何ですか?ここに3つあります:

  • データ リテラシー: 人々は、データとそれがビジネス上の洞察と価値をどのように提供するかを理解する必要があります。企業にはどのような種類のデータが存在するか、このデータはどこに保存されているか、誰がこのデータを使用しているか、データはどのようなビジネス目的に役立つか、このデータにアクセスして使用するための倫理的 (ガバナンスまたは法的) 要件は何か、そして最終的に、このデータは生成 AI (大規模言語またはビジョン モデル) のトレーニングに十分かどうかを理解する必要があります。
  • データの品質: これ以上言う必要はありますか?さて、ここに来ました: GIGO「ゴミを入れればゴミが出る!」ブラックボックス ML モデル、特に大量のデータを消費するモデル (ディープラーニング、人工知能、生成 AI など) では、ダーティ データはさらに有害です。データがクリーンでない場合、モデルの解釈可能性は無意味になり、モデルの信頼性が失われます。
  • データ/ML エンジニアリング インフラストラクチャ: データ サイエンティストのラップトップで実行される探索的 ML モデルと、企業が大きな賭けと信頼を寄せる、ビジネス全体で実行される展開、検証、管理された企業全体のモデルとの間には大きな違いがあります。ネットワーク、ストレージ、コンピューティング インフラストラクチャなど、インフラストラクチャは AI に対応している必要があります。この強靭な基盤がなければ、最悪のタイミングで現れる生成 AI の「デモ デーモン」よりも、会議室の CEO のラップトップで実行される ML モデルのほうが優れている可能性があります。

元のタイトル:この記事はChatGPTに関するものだと思っているでしょう

オリジナル記事:カーク・ボーン


<<:  スペイン・ラ・リーガ:AIと機械学習でファン体験の変革に取り組む

>>: 

ブログ    

推薦する

...

ResNet仮説は覆されたか? Redditの人:長年誰もその原理を理解していなかった

[[429626]] 2015 年に、画期的なニューラル ネットワーク モデル ResNet がリ...

MITの新しい研究により、熱太陽光発電の効率が40%に向上

この熱光起電力セルは、太陽電池パネルに似ており、白熱熱源から高エネルギー光子を受動的に捕捉し、電気に...

2017年人工知能に関する消費者意識調査

[[192924]] Pegasystems の調査によると、消費者は人工知能が人間の顧客サービスと...

Pytorchの核心部分である自動微分化を突破! !

こんにちは、Xiaozhuangです! PyTorch での自動微分演算に関して、この論文では Py...

Python のデータ構造とアルゴリズム - 優先度キュー

[[405132]]序文キュー ライブラリは、マルチスレッド プログラミングに適した先入れ先出し (...

IBM LinkedIn が教えてくれる: 職場と AI はどれくらい離れているのか?

[51CTO.com からのオリジナル記事] 少し前に、LinkedIn と IBM が多数の専門...

...

ヘルスケアにおける自然言語処理 (NLP) の 8 つの例

翻訳者 | 夏東偉校正 | 梁哲、孫淑娟医療においては、データは患者の健康記録、医師の指示、処方箋か...

GPT-4より18倍高速、世界最速の大型モデルGroqが登場!毎秒500トークンが記録を破る、自社開発LPUはNVIDIA GPUの10倍

気がつくと、1 秒あたり 500 トークンを出力できる Groq モデルがインターネット上に広まって...

...

...

生成型人工知能とは何かについて話しましょう

ジェネレーティブ AI は、これまでビジネス パーソンに依存していたモデルをアルゴリズム担当者が生成...

空飛ぶ車の将来展望は?

空飛ぶ車というアイデアは何十年も私たちの想像力をかき立て、交通渋滞の上を飛ぶことができる未来のビジョ...

大規模モデルの推論速度が 3.6 倍に向上しました。「Medusa」の論文はこちらです。Jia Yangqing: 最もエレガントな加速推論ソリューションの 1 つ

ご存知のとおり、大規模言語モデル (LLM) の動作ロジックでは、サイズが大きくなるにつれて言語生成...