第3世代Xeon SPは競合より最大1.5倍高速。40コア化やメモリ/キャッシュも改善
Intelは4月6日の8時(米国時間)から記者会見を開催し、データセンター向けの第3世代Xeon Scalable Processors(以下第3世代Xeon SP)の1~2ソケット版を発表した。開発コードネーム「Ice Lake」ないしは「Ice Lake-SP」で呼ばれてきた同製品は、同社のデータセンター向け製品としてはじめて10nmプロセスルールに微細化されたものとなる。
競合のAMDは、Zenマイクロアーキテクチャに基づいた初代EPYCを2017年にリリース。2019年には7nmで製造されるZen 2ベースの第2世代EPYCを投入して、歴史上はじめて製造プロセスルールの世代でIntelを追い越し、じょじょに市場シェアを拡大しつつある。
さらに3月には、マイクロアーキテクチャをZen 3へと進化させた第3世代EPYCをリリースし、Intelを追い上げる体制を整えている。そうしたなかでの同社のカウンターが今回の第3世代Xeon SPとなる。
第3世代Xeon SPの詳細を見ていくと、CPUコアは従来製品の28コアから40コアに増やしながら、パッケージのなかに大きなダイが1つのモノリシックダイ構造を維持しつつ、キャッシュやメモリを最適化していき、パッケージ全体で性能を上げていく設計が見えてくる。同時にAVX512の新しい命令セットを導入することで、暗号化や復号化時の性能も大きく引き上げている。
本レポートでは、第3世代Xeon SPの内部アーキテクチャや、その性能などについて解説していきたい。Intelによれば、第3世代EPYCと比較してディープラーニング/マシンラーニングの推論時に最大1.5倍の性能を発揮するという。