はじめに
生成AIに「先週調べたRAGの話を踏まえて」と打ち込んだとき、気づきました。先週の自分はここにいない、と。
セッションが終われば、与えた情報も、引き出した考察も消える。次に同じ文脈を作るには、また同じ資料を貼り直す必要があります。
Andrej Karpathyが公開した「LLM知識ベース」というパターンを見たとき、これだと思いました。Obsidian + Claude Codeで実装した仕組みと手順を紹介します。
生成AIの知識ベースに関する問題点
「LLM知識ベース」が解決しようとしている問題は、生成AIの根本的な制約です。生成AIにファイルをアップロードして質問し...