反撃を開始したAMD

AMDでは2003年4月、サーバー向けCPU「Opteron」の初代モデルをリリース。Intelより先行して64(AMD64 / Intel64)と総称されるx86の64ビット命令に対応するなど、革新的な特徴を備えているほか、価格性能比が高い点、省電力技術に優れる点なども評価されて順調に採用メーカー数を増やし、サーバー向けCPUの領域において、一時期は20%を超える市場シェアを獲得するに至った。

しかし、その後は製品開発に失敗。魅力的な製品を出せず、Intelの巻き返しを許してしまう。復権を狙って2011年にリリースした新アーキテクチャ「Bulldozer(開発コード名)」も不発に終わるなど、Intelの攻勢を止めることはできず、AMDの名前がサーバー市場からほぼ消えてしまう事態となっていた。

こうした流れを打破したのが、2017年6月に発表されたサーバー向けCPU「EPYC」である。

新開発の「Zenマイクロアーキテクチャ」をCPUコアに採用することで、コアのクロック当たり性能が前世代に比べて大幅に引き上げられているのが売りで、初代のEPYCである「AMD EPYC 7001シリーズ(開発コード名:Naples、ネイプルス)」は、ODMメーカーのサーバー製品をはじめ、Dell、Hewlett Packard Enterprise(HPE)などの大手サーバーメーカーにも採用されるようになった。

EPYCの特徴は、CPUのサブ基板上に四つのダイが搭載され、そこにヒートスプレッダをかぶせるという、独特の形で提供されていること。一般的なCPUでは、CPUの一つのダイごとにヒートスプレッダをかぶせている形式である点からみても、EPYCが特殊な形になっているのが分かるだろう。

この方式では、デスクトップPC向けのRyzenと共通のダイを使用するため、製造の効率が良く、結果、低コストで製品を提供可能になる。また、それぞれのCPUダイに、最大8コアのCPU、PCI Expressやメモリーコントローラーが実装されており、CPUパッケージ全体で、使えるPCI Expressのレーン数やメモリーコントローラーの数を増やせることもメリットが大きい。

具体的に言うと、一つのCPUダイで、8コア、32レーンのPCI Express、2チャンネルのメモリーコントローラーを実現。ダイが四つあるため、EPYCは一つのCPUパッケージで、最大32コアのCPUコア、最大128レーンのPCI Express、最大8チャンネルのメモリーコントローラー、最大2TBのメインメモリーというスペックを実現できている。

こうしたスペックをIntelのCPUで実現するには、二つのCPUが必要とされているので、つまりEPYCでは、従来の2ソケットサーバーと同等の性能を1ソケットサーバーで実現できる、ということになる。実際に、Naplesを採用したHPEの1ソケットサーバー「HPE ProLiant DL325 Gen10 サーバー」では、これが大きな売り文句となっていた。

第2世代のRomeが登場

こうした状況は、第2世代のEPYCとなるRomeが登場してさらに加速した。Romeではパッケージ内部のアーキテクチャが大きく改良され、CPUコア数が最大で64コア(従来世代は32コア)へと強化されたほか、それぞれのCPUに内蔵されているL3キャッシュも増量。インターフェイスでは、PCI Expressが最新のGen4に対応した。

なおRomeでは、CPUダイはCPUコアだけを内蔵する形になり、新しくIOD(アイオーディー、I/O Die)と呼ばれる、PCI Expressコントローラーとメモリーコントローラーなどから構成される、I/O機能を集中させたダイに分離された。一つのCPUパッケージには、最大で八つのCPUダイと一つのIODという構成になり、8ダイ×8コアで最大64コアの構成を実現できているのだ。

2019年8月に行われたRomeの製品発表会では、HPE、Dellなどのサーバーメーカーに加え、Twitterのような大規模データセンターを展開する顧客、そしてMicrosoftやGoogleといったパブリッククラウド事業者の幹部が登壇。データセンター、そしてクラウドでの採用が進んでいることを印象づけた。国内でも、Naplesではあるが、ヤフーがEPYCの採用を発表している。

サーバーメーカーによる採用は加速している。2020年1月、HPEはRomeを採用するとともに、設計を一新した「HPE ProLiant DL325 Gen10 Plus」をリリース。それに先立ち2019年12月には、ついに国産メーカーの富士通から、Romeを採用した「FUJITSU Server PRIMERGY LX1430 M1」(以下、LX1430 M1)の出荷が開始された。

日本AMDによれば、ほかのサーバーメーカーとの話し合いも行っているとのことで、採用はまだまだ広がる可能性がある。今後も、提供される製品のバリエーションが拡大していきそうだ。

EPYCの採用が期待される分野は?

では、EPYC搭載サーバーを採用するメリットは何だろうか。

やはり大きな理由は「コストパフォーマンス」の高さだ。RomeになってCPU一つ当たりのコア数が増えたということは、CPU一つ当たりの処理能力を強化できるということ。そして、CPU二つ分のプラットフォームをCPU一つで実現できれば、その分マザーボードを小さくしてコストを抑えたり、サーバーの密度(デンシティ)を上げたりすることが可能になり、TCOの削減に大きな効果が出てくる。

もちろん、コア数が多くてもコア一つ当たりの性能が低ければ意味がないが、EPYCでは絶対性能でも十分な性能を提供できるほか、消費電力当たりの性能も優れているとのこと。同じ消費電力でより高い性能を提供できるのであれば、データセンターに集約するサーバーとしては効果的だ。

またサーバーのソケット数が少なければ、ライセンスコストが安く済むというメリットも見逃せない。データベースなどではコア当たりの課金が増えているが、ソケット(CPU数)当たりで課金されるソフトウェアであれば、1ソケットサーバーは2ソケットサーバーの半額で済む。

こうしたことから、EPYCで最も期待される用途は仮想化だといわれている。現在、仮想化ハイパーバイザーとして大きなシェアを持っているVMwareはソケット数に応じた課金体系となっているためだ。

前述した富士通の「LX1430 M1」はインターネットサービス事業者のデータセンター向けに設計された製品で、高い仮想集約率、優れた消費電力、ソフトウェアライセンス削減によるTCO削減といったメリットを提供できるとしており、TCOの削減効果を評価してEPYCが採用されている。

今では、企業システムにおけるメガクラウドの利用は当たり前になっており、集約されたインフラの利用、あるいはSaaSとしての提供はこれからもますます進展するだろう。クラウド事業者がハードウェアを検討する際に、TCO削減効果の高いEPYCを選択するケースはこれからも増えてくることは容易に想像が付く。

ただし1点注意しておきたいのは、EPYCとIntel製CPUを搭載したサーバーとの間で、仮想マシンのライブマイグレーションを行えない点だ。このためEPYC搭載サーバーは、新規で導入するサーバー群で利用されるケースが多くなると思われる。

なお、TCO削減以外のEPYCのメリットとしては、メモリー容量が大きいこととスループットが高いことが挙げられるとのことで、これはHPC用途でシステムに求められる要件と合致するため、HPC分野での採用にも期待が集まっている。米国エネルギー省がオークリッジ国立研究所に導入する予定のスーパーコンピューター「Frontier」には、カスタム使用のEPYCが採用されるという。

期待される用途としては、ビッグデータもある。ビッグデータ処理には、多数のメモリーチャンネルで接続された高速な大量メモリーと、多数の高性能コアが必要とされているため、EPYCはこの用途にも向くというわけだ。こちらも既に導入事例があり、奈良先端科学技術大学院大学がAI・マシンラーニング(機械学習)の演算用に、HPEのサーバーを採用している。

いずれにしても、サーバー向けCPUの分野でAMDが復権し健全な競争が生まれたことは、消費者にとって大きなメリットをもたらすだろう。Intel1社による独占ではなくなり、選択肢が拡大していく過程で、両社の製品、そしてそれを搭載したシステムがより成熟していくことを期待したい。

  • * 本稿に記載された各種IT製品、テクノロジーにつきましては、記事制作時の技術動向に関する幅広い知見を基にして構成されています。これは制作を担当したクラウドWatch編集部(株式会社インプレス)の所見であり、大塚商会においてお取り扱いのないものも含まれております。あらかじめご了承いただきますようお願いします。