Gemma 3

AI×コーディング

ローカルRAGとは?Ollama・ChromaDB・Gemma 3で作る自分専用AI【初心者向け】

ローカルRAGとは、自分のマシン内で外部知識を検索してLLMに回答させる仕組み。結論から言えば、個人の知識管理をAIに任せたいなら、現時点ではOllama・ChromaDB・Gemma 3の3点セットが最も現実的な構成。クラウド型のチャット...
LLM開発・技術

ローカルLLMとは?Ollama × Gemma 3でコードを外に出さずに使うAI環境を初心者向けに解説

ローカルLLMとは、自分のPC上で動く大規模言語モデルのこと。社内の受託コードや未公開機能のソースを、クラウドAI にコピペして貼り付ける瞬間、少し手が止まった経験はありませんか?便利なのは確かなのに、「このコード、外に出して大丈夫だっただ...