LLM トレーニング/運用用途 ハイエンド HPCサーバー
LLM(大規模言語モデル)トレーニング用途の機種と推論用の機種をそれぞれご紹介!
※掲載製品は参考価格となりますので、最新価格については都度お問い合わせください。
製品紹介
LLM(大規模言語モデル)トレーニング用途であればコチラ!
APPLIED
HPC Deep Type-AS4UX2S8GP-AU019
■ CPU:Xeon Gold 6530 (32コア/64スレッド/2.1GHz/tb4.0GHz)
■ メモリ: 2,048GB (64GB×32)
■ ストレージ:1.92TB SSD + 7,68TB SSD
■ GPU:NVIDIA H100 94GB
■ OS: Ubuntu 22.04 LTS
■フレームワーク:TensorFlow / Pytorch / Chainer (DockerDesktop)
■ 光学ドライブ: なし
■ 電源: [4基] 3,000W/200V- 冗長化仕様(2+2)
- 80 Plus Titanium 認証
■ 3年間センドバック方式ハードウェア保証
APPLIED
HPC Deep Type-AS4UX2S8GP-AU019
■ CPU:Xeon Gold 6530 (32コア/64スレッド/2.1GHz/tb4.0GHz)
■ メモリ: 2,048GB (64GB×32)
■ ストレージ:1.92TB SSD + 7,68TB SSD
■ GPU:NVIDIA H100 94GB
■ OS: Ubuntu 22.04 LTS
■フレームワーク:TensorFlow / Pytorch / Chainer (DockerDesktop)
■ 光学ドライブ: なし
■ 電源: [4基] 3,000W/200V- 冗長化仕様(2+2)
- 80 Plus Titanium 認証
■ 3年間センドバック方式ハードウェア保証
仕様・スペック
APPLIED
WST-XW93475XS3Q2TTNVM
■ CPU:Xeon W9-3475X
■ メモリ: 256GB(32GB×8) DDR5-4800
■ ストレージ:2TB M.2 NVMe-SSD
■ GPU:【2GPU】NVIDIA RTX6000 Ada 48GB-GDDR6
■ OS: Ubuntu 22.04 LTS
■ 電源【2PSU】1000W
■ 3年間センドバック方式ハードウェア保証
APPLIED
WST-XW73465XS3Q2TTNVM
■ CPU:Xeon W7-3465X
■ メモリ: 256GB(32GB×8) DDR5-4800
■ ストレージ:2TB M.2 NVMe-SSD
■ GPU:NVIDIA RTX6000 Ada 48GB-GDDR6
■ OS: Ubuntu 22.04 LTS
■ 電源【2PSU】1000W
■ 3年間センドバック方式ハードウェア保証
WST-XW93475XS3Q2TTNVM
■ CPU:Xeon W9-3475X
■ メモリ: 256GB(32GB×8) DDR5-4800
■ ストレージ:2TB M.2 NVMe-SSD
■ GPU:【2GPU】NVIDIA RTX6000 Ada 48GB-GDDR6
■ OS: Ubuntu 22.04 LTS
■ 電源【2PSU】1000W
■ 3年間センドバック方式ハードウェア保証
APPLIED
WST-XW73465XS3Q2TTNVM
■ CPU:Xeon W7-3465X
■ メモリ: 256GB(32GB×8) DDR5-4800
■ ストレージ:2TB M.2 NVMe-SSD
■ GPU:NVIDIA RTX6000 Ada 48GB-GDDR6
■ OS: Ubuntu 22.04 LTS
■ 電源【2PSU】1000W
■ 3年間センドバック方式ハードウェア保証
用途・実績例
LLM(大規模言語モデル)用途