大手テクノロジー企業全体でNvidiaへの依存を減らす戦いが激化する中、MetaはカスタムAIチップへの取り組みを強化している。.
同社は、2023年にメタトレーニングおよび推論アクセラレーター(MTIA)を開始し、今後2年間で4世代の新しいチップを準備していると述べた。.
Metaによれば、これらのチップはMetaの製品全体のランキング、推奨、GenAIジョブ用に構築されているとのことだ。.
同社はまた、特定のサプライヤーやハードウェアに賭けるつもりはないとも述べた。Metaは、MTIAを自社のAIインフラ計画の中心に据えつつ、複数の業界プレーヤーからシリコンを調達し続ける計画だ。.
同社によれば、AIワークロードの成長と変化に伴い、同社は「ポートフォリオアプローチ」を採用しているという。これは、スタック全体を1つのベンダーに委託するのではなく、外部チップと自社製チップを混在させることを意味する。.
Metaは、同社のアプリ全体でオーガニックコンテンツと広告の両方に関連する推論作業にすでに数十万個のMTIAチップを使用していると述べた。.
これらのチップは、一般的な用途ではなく、同社独自の業務向けに開発されている。メタ氏によると、このハードウェアはカスタムメイドのフルスタックソリューションの一部であり、日々の業務に合わせてより最適化されたシステムを実現しているため、この点は重要だ。.
同社によれば、このセットアップにより、特定のユースケースで優れたコンピューティング効率が実現され、より汎用的なチップに比べてコストが削減されるという。.
次のフェーズは、より大規模な展開です。Meta社は、MTIA 300、400、450、500を開発中であり、各バージョンでコンピューティング、メモリ帯域幅、効率性が向上していると述べています。MTIA 300はすでに実稼働しており、ランキングとレコメンデーションのトレーニングを処理します。
MTIA 400、450、500はあらゆるワークロードを実行できるが、Meta社によると、これらのチップは短期的には、そして2027年までは主にGenAI推論の生産に使用されるという。.
同社はまた、このシリコンはモジュール式であるため、新しいチップを既存のラックシステムインフラに組み込むことができると述べている。これにより、設計から導入までの待ち時間が短縮される。.
リリース速度についてメタ氏は、業界では通常1~2年ごとに新しいAIチップをリリースするが、現在はモジュール設計を再利用することで6か月以下ごとに独自のチップをリリースできる能力があると述べた。.
同社によれば、MTIA戦略は、迅速な反復、推論優先の設計、共通標準による容易な導入という3つの要素に基づいているという。.
最初の点について、Meta 氏述べました。
2点目について、Metaは自社の計画と通常の市場モデルとの間に一線を画しました。同社によると、主流のチップのほとんどは、まず大規模なGenAI事前学習ジョブ用に開発され、その後、多くの場合、よりコストの高い他の用途に使用されているとのことです。.
Meta社は、その逆のことを行っていると述べています。MTIA 450と500は、まずGenAI推論用に調整され、その後、ランキング、推奨トレーニングと推論、そして必要に応じてGenAIトレーニングに使用されます。.
同社はまた、MTIAはPyTorch、vLLM、Triton、Open Compute Projectなどの標準的なツールとシステムを基盤として構築されていると述べた。システムとラックの設計は、データセンターでの使用を目的としたOCP標準にも準拠している。.
Meta 氏は、単一のチップですべての需要を満たすことはできないと付け加え、そのため同社は「すべての人のためのパーソナル スーパーインテリジェンス」と呼ぶものを目指しながら、さまざまなワークロードにさまざまなチップを導入する予定だと述べた。
あなたのプロジェクトを暗号通貨業界のトップに紹介したいですか?データと影響力が融合する、次の業界レポートで特集しましょう。