大規模言語モデル研究基盤「gpt-oss-120b」向けHPC

ローカルMML用 大規模言語モデル研究基盤「gpt-oss-120b」向けHPC

※掲載製品は参考価格となりますので、最新価格については都度お問い合わせください。

製品紹介

NVIDIA H200 Tensor コア GPUを搭載しているため、快適な処理が可能!
1基あたりのGPUメモリが驚異の141GBを誇る超高性能なモデル!

仕様・スペック

APPLIED
GP-EP9454x2A3Q960U4U3
■ CPU:【2CPU】AMD EPYC 9454 (2.75GHz/最大3.8GHz/48コア)
■ メモリ: 1,024GB (64GB×16)
■ ストレージ:960GB U.3 NVMe SSD
■ オンボード:ASPEED AST2600 BMC 64GB
(Mini DisplayPort x1)
■ GPU:NVIDIA H200 Tensor Core GPU 141GB
■ OS: Ubuntu 22.04 LTS
■ 電源: [4基] 3,000W/200V - 80 Plus Titanium 認証
■ 3年間センドバック方式ハードウェア保証

用途・実績例

<代表的な活用事例>
■オンプレミスLLM
自社顧客向けに gpt-oss-120B をオンプレ環境で動かすAI基盤として
■生成AI議事録ソリューション
社内ネットワーク内で音声ファイルから高精度議事録を生成(専門用語カスタマイズ可能)。
■業務自動化
カスタマーサポート:問い合わせ自動分類+自動返信で工数削減。
■レポート生成
定型レポートや分析文書を自動生成し、意思決定を高速化。

お問い合わせ

お問い合わせ

DXソリューション導入のご相談他、サーバー や NAS製品についてもお気軽にお問い合わせください。
弊社のプロフェッショナルなスタッフがご相談にお答えいたします。

お電話でのお問い合わせ

お電話でのお問い合わせ
092-481-7812 月~金 10:00~17:00(祝日・年末年始は除く)

メールでのお問い合わせ

メールでのお問い合わせ
24時間受け付けております。
通常、2営業日ほどで返信いたします。
(時期によって前後いたします。ご了承ください)
×