メインカテゴリーを選択しなおす
llama.cppの実行ファイル大全:llama-cli・llama-server以外も徹底解説
llama.cppで生成される実行ファイルの特徴と使い方を徹底解説。llama-cliやllama-server以外にも、モデルの評価・量子化・検索・状態管理など多彩なツールの役割を紹介し、ローカルLLM活用の幅を広げます。
【2025最新版】llama.cppをWindowsでビルド!公式マニュアル超アップデート:CMake専用手順で完全解説(CURL無効化版)
2025年最新版のllama.cppをWindows環境でCMake専用手順により簡単にビルド・実行する方法を解説。Visual Studio Build ToolsとCMakeだけでOK、CURL無効化でエラーなし。初心者でも手順通りに進めばローカルAIをすぐに体験できます。
【2025年最新】WSL2+Intel UHD Graphicsでllama.cppを動かす完全ガイド
近年、ローカル環境で大規模言語モデル(LLM)を動かしたいというニーズが急速に高まっています。特に、WindowsユーザーにとってはWSL2(Windows Subsystem for Linux)を活用することで、Linux向けのAIツー...