ビハインド・ザ・コンピュート: 新しい AI スーパーコンピューターの構築
世界をリードする独立したマルチモーダルかつオープンな生成AI企業として、私たちは人間の知性を増幅させるための未知の道を進むにあたり、「オープン」に Stability AI を構築する私たちの旅を記録することが重要だと考えています。
この「ビハインド・ザ・コンピュート」は、生成AIのパワーを活用するための洞察を提供する、私たちのビジネスの要素を記録したブログ記事のシリーズです。
第一回目では、新しい最先端のAIスーパーコンピューターを構築するためのインテルとの取り組みについてご紹介します。
次世代生成AIモデルを動かすために新しい AI スーパーコンピューターを構築する際、GPU に代わる選択肢を検討することが理にかなっていると考えた主な理由は3つあります:
アクセシビリティ: 現在の競争環境では、製品を迅速に市場に投入することが重要です。リードタイムが1年に及ぶ多くのシリコン・プロバイダーとは異なり、インテルは最先端のジェネレーティブ AI チップであるインテル(R) Gaudi(R) 2 AI アクセラレータを市場に投入する準備ができていました。この即時性は、私たちの競争力を維持する上で非常に貴重です。人気のある画像モデルや言語モデルのコードは、直接互換性のない他の多くのアクセラレータとは異なり、HPU 上でシームレスに動作します。
手頃な価格: 簡単に言えば、Gaudi 2 は、同世代の製品よりも経済的な価格帯でトップクラスの性能を提供します。この手頃な価格は、運用コストを管理しながら、モデルの迅速なトレーニングと推論を促進する上で非常に重要です。8ビット精度はさらに性能を向上させ、同世代のチップを凌駕します。
高い拡張性: インテルのソフトウェアスタックは、私たちのモデルアーキテクチャとのシームレスな互換性で際立っています。主要な利点は、競合するチップよりも16GB多い96GBのHBM2eメモリで、これにより、特に大規模な言語モデルやマルチモーダルモデルを実行する際、企業の要求に応えるシステムの拡張性が向上します。2.4 Gb/sのインターコネクトは、以前のスーパーコンピューターであるEzra-1よりも6倍速く、ほぼ線形のスケーリングで大規模モデルのトレーニングを可能にします。
計算能力は生成AIの生命線です。私たちのモデルを実行するには、膨大な量のコンピューティング・パワーが必要です。また、多様な開発者コミュニティや企業クライアントに効率的にサービスを提供するためには、堅牢なコンピューティング・リソースが欠かせません。このような革新的なモデルを採用しようとするテクノロジーでは、CUDAや従来のGPUソリューションに代わる確かな選択肢が見落とされがちです。
インテルのAIスーパーコンピューターは、AIコンピューティング・パワーに対する絶え間ない需要に応え、世界に選択肢と代替手段を提供する重要な一歩を踏み出したことを意味します。
次回の「ビハインド・ザ・コンピュート」では、さらなる洞察をお届けします。