今年3月、Googleは生成AI「Bard」のベータ版のリリースを発表しました。当時、このバージョンは米国と英国のユーザー向けにのみ公開テストされており、一時的に英語のみをサポートしていました。 キャプション: Bard にはすでに独自の中国語インターフェースがあります。カスタマイズされた中国語サービス 本日、Bard がメジャーアップデートをリリースしました! Bard は現在、アラビア語、中国語 (簡体字/繁体字)、ドイツ語、ヒンディー語、スペイン語など 40 を超える新しい言語をサポートしています。 写真 同時に、Google は、Bard が利用可能な地域も拡大し、欧州連合の 27 か国とブラジルも含まれるようになりました。しかし、中国はまだ含まれていません。 写真 このアップデートは壮大なものと言えます。今日、私たちはバードのこれまでで最大の拡張を発表します。 1. Bard は Google スマート レンズをサポートします。Bard に話しかけるときに、写真やテキストをアップロードしたり、写真に関する情報を提供するよう Bard に依頼したりできます。関連機能は現在英語のみをサポートしています。 写真 2. Bard が回答を音声で読み上げられるようになりました: Bard にテキスト読み上げ機能が追加されました。この機能は、ヒンディー語、スペイン語、英語(米国)を含む 40 以上の言語をサポートしています。 3. 固定された最近の会話: いつでも Bard との以前の会話に戻ってやり取りを続けることができ、必要に応じて会話を整理することもできます。 4. Bard の会話を他のユーザーと共有する: 共有可能なリンクを使用すると、他のユーザーがワンクリックで簡単にスムーズに Bard の会話コンテンツと関連情報ソースを表示できるようになります。 注: 回答を修正する 5. バードの回答を変更する: バードの回答を変更するための 5 つの新しいオプションが導入されました。オプションをタップするだけで、回答をよりシンプルに、より詳細に、より簡潔に、よりプロフェッショナルに、またはよりカジュアルにすることができます。 6. Python コードを Replit にエクスポートする: Google Colab に加えて、Python コードを Replit にエクスポートすることもできます。 Google の Project Bard について現在、Bard は、ユーザーが生成 AI と連携できるようにする Google の PaLM 2 モデルを搭載した実験的なプロジェクトです。 OpenAIが2022年11月にChatGPTをリリースして以来、Googleは同社のAI開発に追いつこうと努めてきたようだ。 2023 年 5 月に開催された Google I/O 年次カンファレンスでは、大きな動きがありました。 2時間にわたる基調講演中、Google CEOのサンダー・ピチャイ氏と他の幹部講演者は「生成AI」について140回以上言及した。 Google はテクノロジーのトレンドに全力で取り組んでいます。 Bard はユーザー数では ChatGPT のレベルには達していませんが、最近は著しい成長を見せており、本日のアップデートによりさらに成長が加速する可能性があります。 ChatGPTと比較すると、Bardの最大の利点は膨大な情報リソースです。Googleの検索ツールを利用して最新の情報を入手し、独自の分析に基づいて回答することができます。これまで、ChatGPTのトレーニングデータは2021年までしかなく、2022年以降の情報の問い合わせには答えることができませんでした。さらに、Bard の返信速度は ChatGPT よりも大幅に高速です。 Bard はオンラインで情報を検索できるため、ユーザーは今日のスポーツのスコア、株価の動向、一連のニュース更新などを直接問い合わせることができます。 中国語の資料を検索する機能を試してみましたが、非常に貧弱だと感じました。 図: バードの中国語検索機能 しかし、一部のネットユーザーは、Bardの正確な画像認識機能は非常に強力だと述べています。更新されたGoogle Bardは、私の時計の写真を表示し、時計の特定のブランドとモデルを正確に識別し、時計の表面からデータを読み取ることができます。 写真 グーグルの人工知能の現状:主要研究者が「逃亡」経験から、Google Bard の機能は、テキストの生成とコンテンツの理解においては GPT-4 ほど優れておらず、コンテキスト ウィンドウの調整においては Claude ほど優れていないことがわかります。 「精密画像認識」機能が追加されましたが、それによって得られる生産性は明らかに以前ほど良くはありません。 過去 2 年間、Google の AI への取り組みは常に一歩遅れていたようです。その理由は、ChatGPTと同様のチャットボットをリリースするかどうかの迷いに加え、「もじ」というキャラクターや「人材が定着しない」という企業文化も関係しているのかもしれません。ブルームバーグによると、トランスフォーマーの協力者であるリオン・ジョーンズ氏が今月末にグーグルを退社する予定だ。 写真 Transformer は、今日の生成 AI と大規模モデルの基礎を築いた論文「Attention is All You Need」から生まれました。リオン・ジョーンズ氏を含め、当時この論文に署名したグーグルの研究者6人全員が現在は辞職している。 写真 Ashish Vaswani 氏は 5 年間勤務した Google Brain を退職し、Adept (生成 AI ツール) を設立しました。 写真 Noam Shazeer 氏は Google で 21 年間勤務し、現在は Character.AI の CEO を務めています。 写真 ニキ・パーマーはグーグルで働いた後、ヴァスワニと共にアデプトを設立したが、彼女もアデプトを離れ、新しい会社を立ち上げた。 写真 Jakob Uszkoreit 氏は Google で 13 年間勤務し、現在は Inceptive の共同創設者です。 写真 Aidan Gomez 氏は現在、Cohere の共同創設者兼 CEO です。 写真 Lukasz Kaiser は Google を退職後 OpenAI に加わり、OpenAI の GPT-4 に重要な貢献をしました。 写真 Illia Polosukhin 氏は、Google で 3 年間勤務し、Web3 システムの構築に専念した後、NEAR を設立しました。 さらに、主要な論文の重要な著者数名も Google を去りました。たとえば、一般的なエンドツーエンドのシーケンス学習方法を提案する論文「ニューラル ネットワークによるシーケンス ツー シーケンス学習」などです。 写真 イリヤ・スツケヴァー氏は、有名な論文「Sequence-to-Sequence」の第一著者です。同氏は Google で 3 年間勤務し、2015 年に Google を退職し、現在は OpenAI の主任科学者を務めています。 写真 Google の最初のチャットボット Meena に関する技術論文「人間のようなオープンドメイン チャットボットに向けて」は、大規模言語モデルにおけるもう 1 つの重要なマイルストーンと考えられています。この論文では、ハードコードされたトレーニングなしで、あらゆる質問に対して人間のような応答を生成できる大規模言語モデルを作成するというアイデアを提案しています。 しかし、ダニエル・デ・フレイタスとロマル・トッピランという2人の研究者は、どちらも退職した。前者はGoogle Brainで5年間、後者は7年間勤務した。現在、2人は共同でCharacter.AIを設立している。 写真 論文「LaMDA: 対話アプリケーションのための言語モデル」は、Meena よりも強力な Bard チャットボットの技術的基礎です。現在、前述の Noam Shazeer 氏や Daniel De Freitas 氏を含む LaMDA の主要研究者数名が Google を離れ、Character.AI に加わっています。さらに、Googleで4年間勤務したAlicia Jin氏もCharacter.AIに入社しました。 写真 BERT は、隠された単語や「マスクされた」単語を予測することでテキストをよりよく理解する Transformer モデルに基づく自然言語処理ツールです。たとえば、「薬局で他の人のために薬を買うことはできますか?」とクエリすると、「他の人」がクエリの重要な部分であると理解されます。 Google は 2019 年に BERT を検索に組み込んで以来、検索の精度を大幅に向上させました。この論文は、OpenAIで短期間働いたが最近Googleに戻ってきたジェイコブ・デブリン氏が主導した。 写真 論文「統合テキストツーテキストトランスフォーマーによる転移学習の限界の探究」では、有名な T5 アーキテクチャが提案されました。この論文のリーダーである Colin Raffel 氏も 2021 年に Google Brain を退社しました。ラフェル氏は現在、ノースカロライナ大学チャペルヒル校の助教授であり、ユーザーが大規模な言語モデルやデータセットを共有するHugging Faceで研究者として週に1日働いています。 写真 写真 論文「ディープ強化学習によるチップ配置」と「高速チップ設計のためのグラフ配置方法論」では、AI を活用して、面積と電力使用量を削減しながらチップ設計のパフォーマンスを最大限に高めています。これらの発見は、Google が機械学習タスク専用の TPU チップを設計するのに役立ちました。論文の主要著者であるミルホセイニ氏とゴールディ氏は2022年にGoogleを退職し、大規模な言語モデルとClaudeと呼ばれるチャットボットを開発したAnthropicに入社した。 退職理由について、一部の従業員は、AI開発の非常にエキサイティングな時期に、スタートアップ企業は研究者にさらなる自律性を与え、より大きな影響を与える可能性を秘めた機会を提供していると述べた。 言い換えれば、Google で新しいアイデアを立ち上げるのは「難しすぎる」のです。失敗すれば会社の評判に大きな影響が出るからです。 |
>>: Google の医療モデルが Nature に掲載、Med-PaLM が重要な秘密を明らかに! AI医師は人間と同等の能力を発揮する
本日、DeepMind の「Alpha」ファミリーに新しいメンバーが加わりました。プログラミング競技...
Keras と PyTorch は確かに最も初心者に優しいディープラーニング フレームワークであり...
多くのニューラル ネットワーク モデルと同様に、オブジェクト検出モデルは大量のデータでトレーニングす...
11月3日、研究者らは脳内の神経ネットワークを模倣することで動的に学習し記憶できる物理的なニューラル...
2020年、国内の新たな消費が活況を呈する一方で、海外市場も急速な成長機会の新たな波を迎えています...
世界中で人気のiPhone Xがついに登場。バージョン番号を埋めるためだけに名付けられたiPhone...
MIT の新しいテクノロジーは、視覚データでトレーニングされたニューラル ネットワークの内部の仕組み...
[[212221]] Ele.meについてほとんどの人がテイクアウトを注文したことがあるでしょう。テ...
人工知能 (AI) は、現在、デジタル マーケティング革命における否定できないトレンドとなっています...
劉玉秀、ザ・ペーパーの研修記者ラオ・ドンヤン氏の抵抗により、コミュニティ内で顔認識によるアクセス制御...
2020年は、厳しい防疫活動のさなか、静かに過ぎていきました。今年も人工知能の進歩は止まりませんでし...