最近、テクノロジー界の巨人イーロン・マスクが再び注目を集めています。彼はTwitter/Xで、「世界で最も強力なAIトレーニングクラスター」を始動させ、今年12月までに「すべての指標で世界最強のAI」を構築する計画を発表しました。このシステムは、10万枚のNvidia H100 GPUを使用し、単一のリモートダイレクトメモリアクセス(RDMA)ファブリックで接続されており、驚異的な計算能力を示しています。
xAIのメンフィススーパークラスターは既に稼働しており、10万枚の液冷Nvidia H100 GPUを使用してAIトレーニングを行っています。マスクが自らスーパークラスターを始動させた可能性は低いですが、この巨大なタスクは中央夏時間の午前4時20分に開始されたとされています。とはいえ、彼はファイバーテック担当者の仕事を支援したことは確認されています。
今年5月、マスクは2025年秋までに計算力スーパーファクトリーを開設する計画を発表しました。当時、彼はスーパークラスターの作業を急ぎ、現在の世代の「ホッパー」H100 GPUを購入しました。これは、H200チップの登場を待つ忍耐力がなく、ましてや今後登場予定のブラックウェルベースのB100およびB200 GPUを待つことができなかったことを示しています。新しいNvidia BlackwellデータセンターGPUは2024年末までに出荷される予定ですが、マスクは先行することを決意しました。
このニュースは、計算力スーパーファクトリーが前倒しで完成したのかどうかに関する議論を呼びました。プロジェクトが前倒しである可能性もありますが、今年初めにロイターやThe Informationと話していた情報源がタイミングについて誤解していた、あるいは誤引用された可能性が高いです。さらに、xAIメンフィススーパークラスターが既に稼働していることで、なぜxAIがより強力な次世代GPUを待たなかったのかという疑問も解決されました。Supermicroは多くのハードウェアを提供し、同社のCEOであるチャールズ・リャンもマスクのツイートにコメントし、チームの実行力を称賛しました。これは、最近リャンがマスクの液冷AIデータセンターに対して称賛の言葉を送ったことと一致しています。
続くツイートで、マスクは新しいスーパークラスターが「すべての指標で世界最強のAIをトレーニングする」ことを説明しました。これまでの声明から推測すると、xAIの10万枚のH100 GPUは現在、Grok 3のトレーニングに向けられていると考えられます。マスクは、改良された大規模言語モデル(LLM)が今年12月までにトレーニング段階を完了するべきだと述べました。
メンフィススーパークラスターの計算リソースを理解するために、規模から見ると、新しいxAIメンフィススーパークラスターは、最近のTop500リストのどのスーパーコンピューターよりもGPUの馬力で上回っています。世界最強のスーパーコンピューターであるFrontier(37,888個のAMD GPU)、Aurora(60,000個のIntel GPU)、Microsoft Eagle(14,400個のNvidia H100 GPU)は、xAIマシンに比べて明らかに劣っています。
イーロン・マスクのこの行動は、AI技術の進歩を再び促進し、将来の人工知能の発展に無限の可能性をもたらすことでしょう。私たちは世界最強のAIが今年12月に登場するのを見守りたいと思います。
オリジナル記事、著者:AIの番人,転載の際には、出典を明記してください:https://nipponai.jp/article/elon-musk-ai/