IntelとAMDは共同で、CPUベースの人工知能処理に革命をもたらすことを目的とした新しいx86命令セット拡張「AI Compute Extensions(ACE)」を発表しました。x86エコシステム・アドバイザリー・グループ(EAG)のもとで、過去にAVX-512のような業界標準を歴史的に悩ませてきた分断化を防ぐために開発されたACEは、特化した2Dタイルレジスタと外積(outer-product)アルゴリズムを導入し、1クロックサイクルあたり最大1,024回の乗算を実行できるようにします。これは従来のAVX命令で可能だった64回と比べて大幅に高い性能です。このアーキテクチャ上の転換により、CPU上で行列演算を同時に実行できるようになり、既存のAVX10技術に対して計算密度を実質16倍に引き上げます。これによって、標準的なプロセッサ・アーキテクチャにGPUのようなテンソルコアの機能をもたらしつつ、完全な下位互換性を維持します。
この統一規格がもたらす影響は、計算エコシステム全体におけるエネルギー効率とソフトウェアのスケーラビリティの両面で非常に大きなものです。軽量なAIワークロードを、GPUよりも大幅に低い消費電力でCPU上に直接実行できるようにすることで、ACEはデータセンターにおけるエネルギー使用量とレイテンシの重要なボトルネックに対処します。さらに、協調的なアプローチにより、PyTorch、TensorFlow、NumPy、SciPyといった主要フレームワーク向けに最適化されたカーネルやライブラリが、コンシューマ向けノートPCからエンタープライズ向けサーバまで、IntelとAMDのハードウェア上で一貫して改修なしで動作することが保証されます。ACEに対応したハードウェアはまだリリースされていませんが、この動きはシームレスなAI導入のための堅牢な土台を確立するものであり、今後数年の一般用途プロセッサが機械学習タスクをどのように扱うかを再定義する可能性すらあります。
[link] [comments]




