ChatGPTがチップ設計に力強く参加します!専門的なハードウェア記述言語を学ぶ必要はなく、人間の言語を話すだけでよい

ChatGPTがチップ設計に力強く参加します!専門的なハードウェア記述言語を学ぶ必要はなく、人間の言語を話すだけでよい

CPU 開発における大きな問題は、ChatGPT とのチャットで解決できるでしょうか?

ニューヨーク州立大学(NYU)の研究者たちは、不可能と思われていたことを成し遂げました。

専門的なハードウェア記述言語 (HDL)は必要ありません。人間の言語を話すだけでチップを設計できます。

ChatGPT の協力により、CPU 上のコンポーネントを設計しただけでなく、有効性検証リンクも通過しました。

このコンポーネントは、8 ビットのアキュムレータに基づくマイクロプロセッサ アーキテクチャのロジックを作成する役割を担います。アキュムレータは本質的には、算術演算または論理演算のオペランドを格納し、演算の結果を格納するために特別に使用されるレジスタ (メモリ) です。これは CPU の動作に不可欠な部分です。

では、大規模言語モデルではできないことは何でしょうか?

一部のネットユーザーはこう言った。

チップ設計プロセスの一部を自動化することは、間違いなく朗報です。

一部のネットユーザーは、チップ設計でAIを使用してHDLを記述することについて懸念を表明した。

ChatGPT はチップ設計に何を行いましたか?

通常、チップの設計と製造のプロセスはいくつかの段階を経ます。

これらの段階の 1 つは、Verilog などのハードウェア記述言語 (HDL)を使用して、チップ内のさまざまなコンポーネントの実際の形状、密度、および全体的なレイアウトを記述することです。

これまで、HDL の記述は極めて専門的で複雑な分野であるため、比較的稀で、習得するのが非常に難しい仕事でした。

研究チームの一員であり、研究助教授でもあるハモンド・ピアース博士は、次のように考えています。

ハードウェア記述言語の最大の課題は、その書き方を知っている人が少なく、この分野の専門家になることが難しいことです。

つまり、最高のエンジニアであっても、この言語で些細なことを行う必要がある場合が多いということです。

パターン認識エンジンとして、ChatGPT はさまざまな種類の言語を切り替えることができるため、エンジニアは HDL ステージをスキップできます。

△LLMを活用してIC(集積回路)設計プロセスを作成します。

この研究では、研究者らは LLM を使用して 8 つの代表的なハードウェア設計例を研究しました。エンジニアは LLM とリアルタイムで対話し、平易な英語のテキストを同等の Verilog (HDL) コードに徐々に変換します。

ハードウェア エンジニアの 1 人が LLM と協力して、8 ビット アキュムレータに基づく新しいマイクロプロセッサ アーキテクチャを設計しました。彼らはこれらのベンチマークとプロセッサをテープアウトのために Skywater 130nm シャトルに送りました。

このプロセスで、研究者は 4 つの異なる LLM (ChatGPT-4、ChatGPT-3.5、Bard、HuggingChat) の Verilog 機能を評価して、ハードウェア設計を作成しました。

さらに、研究者らは 8 ビット シフト レジスタのベンチマーク テストを実施しました。 Big Model に、「テスト名」の Verilog モデルを作成しようとしていることを伝えます。次に、入力ポートと出力ポート、およびその他の必要な詳細を定義する仕様を提供します。最後に、これらの仕様を満たすデザインをどのように書くかを尋ねます。

△8ビットシフトレジスタ設計のヒント

さまざまな大規模モデルによって提供される設計ソリューションは次のとおりです。

△左の写真はChatGPT-4の8ビットシフトレジスタ設計、右の写真はChatGPT-3.5です。

△左の写真はBard(4行目の「赤」の入力が広すぎる)、右の写真はHuggingChat(切り詰めてフォーマット済み)

上図に示すように、ChatGPT は仕様要件を満たし、設計プロセスを開始できましたが、Bard と HuggingChat はどちらも仕様要件の初期基準を満たすことができませんでした。

研究者らは、バード氏とハギングチャットに、最初のプロンプトに基づいて 5 つの応答を再生成するよう依頼しましたが、両方とも再び失敗しました。 Bard は指定された設計仕様を満たすことができず、HuggingChat の Verilog 出力はモジュール定義後の構文に準拠していません。

Bard と HuggingChat が最初のチャレンジ ベンチマークでパフォーマンスが悪かったため、研究者は ChatGPT-4 と ChatGPT-3.5 のみでその後の完全なテストを実施することにしました。

同時に、大きなモデルはテストベンチの設計にも使用されました。

この設計用の Verilog テストベンチを作成できますか?テストベンチには自己チェック機能があり、シミュレーションと検証のために Iverilog で使用できる必要があります。テストケースが失敗した場合、テストベンチはバグを見つけて修正するのに十分な情報を提供できる必要があります。

最終結果は、ChatGPT-4 が比較的良好なパフォーマンスを発揮することを示しています。ほとんどのベンチマークは合格しており、ほとんどの場合、ツールからのフィードバックだけが必要です。

実行可能な設計を作成する場合と比較して、ChatGPT-4 では実行可能なテストベッドを作成するのがより困難であり、多くの場合、人間によるフィードバックが必要になります。

ChatGPT-4 と比較すると、ChatGPT-3.5 のパフォーマンスは大幅に低下し、ほとんどのベンチマークに失敗し、テストベッドに合格した会話のほとんどは仕様を満たしていません。 ChatGPT-4 と比較すると、ChatGPT-3.5 では各会話とベンチマークの間にさまざまな問題が発生し、設計とテストベンチの両方でより頻繁な修正が必要になります。

ChatGPTはチップ設計における「力の増幅装置」

大規模言語モデル (LLM) の継続的な開発により、将来的には LLM を構想から機能設計まで簡単に実装できるようになるかもしれません。

△ChatGPT-4を用いて研究者が設計したアキュムレータベースのデータパス(絵は人が描いたもの)と制御信号を点線で表したもの

研究者たちは次のように考えている。

モデルのシングルステップパフォーマンス(つまり、1 つのステップで設計を完了すること)を強調しましたが、ハードウェアアプリケーションの場合、「共同設計者」として含める方がパフォーマンスが向上する可能性があります。

経験豊富なエンジニアと連携して作業すると、その力は倍増します。エンジニアは、モデルによって提供される「予備設計計画」に基づいて微調整を行い、迅速に反復することができます。

ハモンド・ピアース博士はこう語った。

この研究は、完全に人工知能によって生成されたハードウェア記述言語 (HDL) が物理チップに変換された初の事例であると考えられます。

OpenAIのChatGPTやGoogleのBardなどの一部のAIモデルは、さまざまなプログラミング言語でソフトウェアコードを生成できますが、ハードウェア設計分野でのその応用は広く研究されていません。

また、この研究は、AI がハードウェア製造、特に繰り返しのやり取りを通じて設計を改良できる会話型アプリケーションにおいても潜在能力を持っていることを示しています。

さらに、これにより HDL の記述中に人為的に発生するエラーが削減され、設計時間と市場投入までの時間が短縮され、より創造的な設計が可能になります。

これを聞いて、HDL エンジニアリングの専門家の中には少し不安を感じる人もいるのではないでしょうか。

研究者たちは、このプロセスを自動化できれば、現在の作業がスピードアップするだけでなく、人的ボトルネックも軽減されると考えています。

ただし、ChatGPT のような大規模なモデルや、動作に電気を必要とするソフトウェア マシンに完全に依存することにはリスクがあります。チップ設計に用いられるLLMも、トレーニング段階でのブラックボックス化が困難であるなど一連の問題を抱えている。

これについてどう思いますか?

参考リンク:
[1] https://arxiv.org/abs/2305.13243 (論文リンク)

[2] https://www.tomshardware.com/news/conversation-with-chatgpt-was-enough-to-develop-part-of-a-cpu

<<:  あなたが私に言うと思いますよ! 「私は数え切れないほどの映画を見てきました」ChatGPT、数分で私の記憶の奥深くにある映画を推測してください!

>>:  キッシンジャー:今やAIは人間が世界を理解するための第3の方法となっている

ブログ    
ブログ    
ブログ    

推薦する

AIが70年間で急成長した理由が明らかに!タイム誌の4枚の写真がアルゴリズムの進化の謎を明らかにする

過去 10 年間の AI システムの進歩のスピードは驚くべきものでした。 2016年の囲碁対局でアル...

ハン・ソン、チュー・ジュンヤンらがGAN圧縮方式を提案:計算電力消費は1/9以下、オープンソース化

GAN は大幅に圧縮することもできます。MIT ハン・ソン氏のチームによる最新の研究は、多くの研究者...

Meta AI が Omnivore をリリース: 画像、動画、3D データの分類タスクを処理できるモデル

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

PaaS でフェイルオーバー アルゴリズムを作成する際に避けるべき 3 つの落とし穴

[[125412]]クラウド サービスの停止が発生すると、通常はフェイルオーバー メカニズムがアクテ...

...

...

LLM ウィザード、コードの事前トレーニングは魔法の杖です! UIUC中国チームがコードデータの3つの利点を明らかに

大規模モデルの時代における言語モデル (LLM) は、サイズが大きくなるだけでなく、トレーニング デ...

AIと機械学習、5G、IoTは2021年に重要な技術となる

IEEEは、米国、英国、中国、インド、ブラジルの最高情報責任者(CIO)と最高技術責任者(CTO)を...

アリババのナレッジグラフが初めて公開: 1日あたり数千万のブロックデータ、数十億の完全インテリジェント監査

アリババのナレッジグラフの助けにより、アリババの電子商取引プラットフォームの管理と制御は、以前の「巡...

NvidiaとFoxconnがAIに特化した新しいデータセンターの開発で提携

ジェンセン・フアンとヤンウェイ・リウが、AIイノベーションに特化した「工場」を建設するという新しいプ...

ついにデータサイエンス、機械学習、人工知能を説明する人が現れる

01 データサイエンスとは何ですか? データサイエンスは何をするのですか?まずはデータサイエンスの分...

ついに、データ、情報、アルゴリズム、統計、確率、データマイニングをわかりやすく説明した人がいました。

[[328804]] 【ガイド】AI時代では、データ、情報、アルゴリズム、統計、確率、データマイニ...

なぜ人工知能は高度な数学を解くことができるのでしょうか?

まずは大学院入試から始めましょう。大学院入試の重要性は大学入試の重要性に匹敵します。数字で言うと、2...

インテルは新しい小さな「スピン量子ビット」チップをテスト中

最近、インテルの研究者らは、新しい小さな「スピン量子ビット」チップをテストしていることを明らかにした...