返回模型
说明文档
jagan546/SmolLM2-1.7B-Instruct-Q4_K_M-GGUF
此模型是从 HuggingFaceTB/SmolLM2-1.7B-Instruct 通过 llama.cpp 经由 ggml.ai 的 GGUF-my-repo 空间转换为 GGUF 格式的。
有关该模型的更多详情,请参阅原始模型卡片。
使用 llama.cpp
通过 brew 安装 llama.cpp(适用于 Mac 和 Linux)
brew install llama.cpp
启动 llama.cpp 服务器或命令行工具。
命令行:
llama-cli --hf-repo jagan546/SmolLM2-1.7B-Instruct-Q4_K_M-GGUF --hf-file smollm2-1.7b-instruct-q4_k_m.gguf -p \"The meaning to life and the universe is\"
服务器:
llama-server --hf-repo jagan546/SmolLM2-1.7B-Instruct-Q4_K_M-GGUF --hf-file smollm2-1.7b-instruct-q4_k_m.gguf -c 2048
注意:你也可以直接按照 Llama.cpp 仓库中列出的使用步骤来使用此检查点。
第一步:从 GitHub 克隆 llama.cpp。
git clone https://github.com/ggerganov/llama.cpp
第二步:进入 llama.cpp 文件夹,并使用 LLAMA_CURL=1 标志以及其他硬件特定标志(例如:Linux 上的 Nvidia GPU 使用 LLAMA_CUDA=1)进行编译。
cd llama.cpp && LLAMA_CURL=1 make
第三步:通过主程序运行推理。
./llama-cli --hf-repo jagan546/SmolLM2-1.7B-Instruct-Q4_K_M-GGUF --hf-file smollm2-1.7b-instruct-q4_k_m.gguf -p \"The meaning to life and the universe is\"
或
./llama-server --hf-repo jagan546/SmolLM2-1.7B-Instruct-Q4_K_M-GGUF --hf-file smollm2-1.7b-instruct-q4_k_m.gguf -c 2048
jagan546/SmolLM2-1.7B-Instruct-Q4_K_M-GGUF
作者 jagan546
text-generation
transformers
↓ 1
♥ 0
创建时间: 2025-11-12 10:09:34+00:00
更新时间: 2025-11-12 10:09:42+00:00
在 Hugging Face 上查看文件 (3)
.gitattributes
README.md
smollm2-1.7b-instruct-q4_k_m.gguf