VRAM(ビデオメモリ)32GBのローカルLLM環境(AI PC)をコスパ重視で構築してみる
2026年4月14日 21:36
ローカルでそれなりに使えるLLM環境(AI PC)を用意してみようと思い、それならVRAMはやはり32GBは欲しいなということで、コスパ重視の構成を考えて実際に構築してみたという内容になります。
※2026/04時点での情報です。
コスパ重視
VRAM 32GBは欲しい
NVIDIA GPU
NVIDIA GeForce RTX 5060 Ti 16GB x2という選択肢
NVIDIAのGPUで32GBのVRAMを用意しようとすると、選択肢としてはお値段約60万ほど(かそれ以上)のRTX 5090になるかと思います。お高い。。。
ただ今回はコスパ重視ということで、RTX 5060...