Skip to main content
Manusで任意のスキルを実行
ワンクリックで

llama-cpp

// Run LLM inference with llama.cpp on CPU, Apple Silicon, AMD/Intel GPUs, or NVIDIA — plus GGUF model conversion and quantization (2–8 bit with K-quants and imatrix). Covers CLI, Python bindings, OpenAI-compatible server, and Ollama/LM Studio integration. Use for edge deployment, M1/M2/M3/M4 Macs, CUDA-less environments, or flexible local quantization.

$ git log --oneline --stat
stars:98,568
forks:13,915
updated:2026年4月18日 04:36
ファイルエクスプローラー
6 ファイル
SKILL.md
readonly