メタプラットフォームには、 発表 最新のカスタム人工知能アクセラレータ チップの詳細。
Facebook、Instagram、WhatsApp で AI アプリケーションを実行するための計算需要の増大に対処するために、独自のデータセンター チップの新しいバージョンを発売するという Meta の計画が今年初めに報じられました。社内では「Artemis」と呼ばれるこのチップは、Meta の Nvidia の AI チップへの依存を減らし、全体的なエネルギーコストを削減することを目的としています。
同社はブログ投稿の中で、このチップの設計は、ランキングおよび推奨モデルに対応するために、コンピューティング能力、メモリ帯域幅、メモリ容量の最適なバランスを達成することに主に焦点を当てていることを明らかにした。
新しく導入されたチップは、Meta Training and Inference Accelerator (MTIA) と呼ばれます。これは、他のハードウェア システムの調査を含む、Meta の広範なカスタム シリコン イニシアチブの一部を形成します。 Meta はチップ開発と並行して、インフラストラクチャの力を効率的に利用するためにソフトウェア開発にも多額の投資を行ってきました。
さらに、同社はNvidiaやその他のAIチップの調達に数十億ドルを投資しており、CEOのマーク・ザッカーバーグ氏は約350,000万個の主力チップを買収する計画を発表している。 H100 今年はNvidiaからチップが登場します。他のサプライヤーからのチップと組み合わせると、Meta は年末までに 600,000 個に相当する H100 チップを蓄積することを目指しています。
このチップは台湾積体電路製造会社が5nmプロセスを使用して製造する予定だ。 Meta は、以前のバージョンの XNUMX 倍のパフォーマンスを提供すると主張しています。
このチップはすでにデータセンターに導入されており、AI アプリケーションにサービスを提供しています。
著者 アリウス・ノレイカ
続きを読む: