NVIDIA、AIワークロード管理ソフトウェアプロバイダーRun:aiを取得、統合計算基盤の最適化を推進

AI計算リソースの効率的な使用において、NVIDIAは新たなマイルストーンに向かっています。NVIDIAは、イスラエルのスタートアップ企業であるRun:aiを取得するための最終契約を締結しました。Run:aiは「Kubernetes」ベースのワークロード管理およびオーケストレーションソフトウェアプロバイダーとして、共有加速計算インフラストラクチャのAIワークロード向けのクラスタリソース利用率を向上させることに取り組んでいます。

AIデプロイメントはますます複雑になり、ワークロードはクラウド、エッジ、オンプレミスのデータセンターインフラストラクチャ間で分散されています。生成AI、推薦システム、検索エンジンなどのワークロードの管理とオーケストレーションには、システムレベルおよび基盤インフラストラクチャのパフォーマンスを最適化するための洗練されたスケジューリングが必要です。これがまさにRun:aiが行っていることです。Run:aiは、企業顧客がオンプレミス、クラウド、混在環境のどこにあっても、計算基盤を管理し最適化するのに役立ちます。

Run:aiはKubernetes上にオープンプラットフォームを構築しており、これは現代のAIおよびクラウドインフラストラクチャのオーケストレーション層となっています。プラットフォームはすべての一般的なKubernetesバリアントに対応し、第三者のAIツールおよびフレームワークと統合しています。Run:aiの顧客には、幅広い業界でデータセンタースケールのGPUクラスタをRun:aiプラットフォームで管理している世界最大級の企業もいます。

“NVIDIAと協力できることをうれしく思っています。” とRun:aiの共同創設者兼CEOのOmri Geller氏は述べています。”顧客がインフラストラクチャを最大限に利用するのを助けるという共有の情熱を持っており、NVIDIAの参加と、共有の旅の続行を楽しみにしています。”
AI開発者として、Run:aiのプラットフォームを使用すれば、タスクを異なるGPUに割り当てることができます。タスクが複数のGPUで実行されている場合でも、複数のクラスターで実行されている場合でもです。GPUの効率的な利用により、顧客は彼らの計算投資からより大きな利益を得ることができます。

Run:aiの製品とNVIDIAのビジネスモデルの互換性を見て、これからもNVIDIAが同じビジネスモデルでRun:aiの製品を推進し続けるだろうと期待しています。NVIDIAはRun:aiの製品ロードマップへの投資を続け、NVIDIA DGX Cloudの一部としてそれを提供します。これは、リーディングクラウドサービスと共同で設計されたAIプラットフォームを、エンタープライズ開発者に統合全体のサービスとして提供するもので、生成型AI向けに最適化されています。

オリジナル記事、著者:AIの番人,転載の際には、出典を明記してください:https://nipponai.jp/article/nvidia-runai/

(0)
AIの番人AIの番人
上一篇 2024-04-24 08:13
下一篇 2024-06-11 09:48

関連推薦