requests

LLM開発・技術

ローカルLLMとは?Ollama × Gemma 3でコードを外に出さずに使うAI環境を初心者向けに解説

ローカルLLMとは、自分のPC上で動く大規模言語モデルのこと。社内の受託コードや未公開機能のソースを、クラウドAI にコピペして貼り付ける瞬間、少し手が止まった経験はありませんか?便利なのは確かなのに、「このコード、外に出して大丈夫だっただ...