ローカルLLMを活用した推論モデルの立ち上げ方法(Ollama)
OllamaでLocal LLMを試してみます。 使用環境はMacBook Air M4 24GB memoryです。 Ollamaのインストールと起動 brew install ollamaでOllamaをインストールします。 > brew install ollama ==> Downloading https://formulae.brew.sh/api/formula.jws.json ==> Downloading https://formulae.brew.sh/api/cask.jws.json Warning: Treating ollama as a formula. For…
2025/04/02 06:00