ローカルLLM・RAG環境構築済みワークステーション
環境構築済みだから、導入後すぐに使える!ローカルLLMスターターセットです。
※掲載製品は参考価格となりますので、最新価格については都度お問い合わせください。
製品紹介
■お客様の用途に最適なモデルをご提案を致します。
DifyやOllamaを用いた小規模な検証環境から、LlamaやGemmaによるモデル評価、RAG構成を含む社内データ活用、さらにはXinferenceやGPTOSSを用いた本格的な研究開発まで、用途や運用規模によって求められるシステム要件は大きく異なります。特にGPU性能VRAM容量、複数プロセスの並列実行可否は、応答速度や安定性に直結する重要な要素です。本チラシでは、想定される用途や使用規模に応じて、最適なGPU構成・拡張性を備えたPCをご紹介します。研究開発の目的に合わせた構成提案も可能ですの
で、お気軽にご相談ください。
DifyやOllamaを用いた小規模な検証環境から、LlamaやGemmaによるモデル評価、RAG構成を含む社内データ活用、さらにはXinferenceやGPTOSSを用いた本格的な研究開発まで、用途や運用規模によって求められるシステム要件は大きく異なります。特にGPU性能VRAM容量、複数プロセスの並列実行可否は、応答速度や安定性に直結する重要な要素です。本チラシでは、想定される用途や使用規模に応じて、最適なGPU構成・拡張性を備えたPCをご紹介します。研究開発の目的に合わせた構成提案も可能ですの
で、お気軽にご相談ください。
仕様・スペック
❶MSI EdgeXpert
RAG・LLM環境 セットアップ済
開発ツール:Dify
実行ツール:LMStudio/Ollama/Xinference
AIモデル:Llama/Gemma/gpt-oss-20B
<仕様>
■ OS:NVIDIA DGX OS
■ GPU:NVIDIA Blackwell Architecture
■ CPU:Arm 20 core, 10 Cortex-X925 +10 Cortex-A725
■ メモリ:128GB(統合システムメモリ)
■ SSD:1 or 4 TB NVME.M2
■ 150mm × 150mm × 50.5mm (L×W×H)
❷CERVO Grasta TypeALIS25WCPRO6000MQ
RAG・LLM環境 セットアップ済
開発ツール:Dify
実行ツール:LMStudio/Ollama/Xinference
AIモデル:Llama/Gemma/gpt-oss-20B
<仕様>
■ Ubuntu 24.04 LTS インストール代行
■ インテル Xeon w3-2525 プロセッサー(8C/12T)
■ 128GB(16GB x8)DDR5-5600
Registered ECC DIMM
■ 2TB M.2 NVMe-SSD 高耐久仕様
■ NVIDIA RTX PRO 6000 Blackwell
Max-Q Workstation Edition 96GB | GDDR7
■ 3年間センドバック方式ハードウェア保証
■ 約(W)175 x(D)500 x(H)435 mm
❸HPC AI Server Type-MSHP4UEP1S12BH200 NVL
RAG・LLM環境 セットアップ済
開発ツール:Dify
実行ツール:LMStudio/Ollama/Xinference
AIモデル:Llama/Gemma/gpt-oss-20B
<仕様>
■ Ubuntu 24.04 LTS インストール代行
■ インテル AMD EPYC 9365(36C/72T)
■ 512GB(64GB x8)DDR5-5600
Registered ECC DIMM
■ 3.84GB U.3 NVMe-SSD 高耐久仕様
■ NVIDIA H200 NVL 141GB
■ 3年間センドバック方式ハードウェア保証
■ 約(W)438 x(D)831 x(H)176 mm
RAG・LLM環境 セットアップ済
開発ツール:Dify
実行ツール:LMStudio/Ollama/Xinference
AIモデル:Llama/Gemma/gpt-oss-20B
<仕様>
■ OS:NVIDIA DGX OS
■ GPU:NVIDIA Blackwell Architecture
■ CPU:Arm 20 core, 10 Cortex-X925 +10 Cortex-A725
■ メモリ:128GB(統合システムメモリ)
■ SSD:1 or 4 TB NVME.M2
■ 150mm × 150mm × 50.5mm (L×W×H)
❷CERVO Grasta TypeALIS25WCPRO6000MQ
RAG・LLM環境 セットアップ済
開発ツール:Dify
実行ツール:LMStudio/Ollama/Xinference
AIモデル:Llama/Gemma/gpt-oss-20B
<仕様>
■ Ubuntu 24.04 LTS インストール代行
■ インテル Xeon w3-2525 プロセッサー(8C/12T)
■ 128GB(16GB x8)DDR5-5600
Registered ECC DIMM
■ 2TB M.2 NVMe-SSD 高耐久仕様
■ NVIDIA RTX PRO 6000 Blackwell
Max-Q Workstation Edition 96GB | GDDR7
■ 3年間センドバック方式ハードウェア保証
■ 約(W)175 x(D)500 x(H)435 mm
❸HPC AI Server Type-MSHP4UEP1S12BH200 NVL
RAG・LLM環境 セットアップ済
開発ツール:Dify
実行ツール:LMStudio/Ollama/Xinference
AIモデル:Llama/Gemma/gpt-oss-20B
<仕様>
■ Ubuntu 24.04 LTS インストール代行
■ インテル AMD EPYC 9365(36C/72T)
■ 512GB(64GB x8)DDR5-5600
Registered ECC DIMM
■ 3.84GB U.3 NVMe-SSD 高耐久仕様
■ NVIDIA H200 NVL 141GB
■ 3年間センドバック方式ハードウェア保証
■ 約(W)438 x(D)831 x(H)176 mm
用途・実績例
ローカルLLM(大規模言語モデル)は、インターネットに接続せず自社サーバーやPC環境で動作するため、機密情報の漏洩リスクなしに、セキュアなAI運用(ドキュメント要約、チャットボット、コード生成など)を実現できる技術です。
外部への情報流出を避ける社内文書検索、金融・医療等の個人情報・機密情報を扱う業務で高い利便性を発揮します。
外部への情報流出を避ける社内文書検索、金融・医療等の個人情報・機密情報を扱う業務で高い利便性を発揮します。