ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27)
!
リンクの紹介は目視で確認。文章ドラフトおよび調査においてGPTを利用しています。
TL;DR
・RTX 3090(VRAM 24GB)+5bit量子化で Qwen3.5-27B (Reasoning) を実用速度でローカル動作させた話。
・Artificial Analysis の Intelligence Index 上では、
Qwen3.5-27B (42) > o3-pro (41) > Qwen3.5-35B-A3B (37) という並びになっている。
・実際のコーディング体験でも、長めのタスクのやり切り/コードの一貫性/プロンプト耐性の3点で 27B が 35B-A3...