ONNX 模型库
返回模型

说明文档

JulienElkaim/SmolLM2-1.7B-Instruct-Q6_K-GGUF

该模型是从 HuggingFaceTB/SmolLM2-1.7B-Instruct 通过 llama.cpp 转换为 GGUF 格式,使用了 ggml.ai 的 GGUF-my-repo 空间。 有关模型的更多详细信息,请参阅原始模型卡

使用 llama.cpp

通过 brew 安装 llama.cpp(适用于 Mac 和 Linux)

brew install llama.cpp

调用 llama.cpp 服务器或 CLI。

CLI:

llama-cli --hf-repo JulienElkaim/SmolLM2-1.7B-Instruct-Q6_K-GGUF --hf-file smollm2-1.7b-instruct-q6_k.gguf -p \"The meaning to life and the universe is\"

服务器:

llama-server --hf-repo JulienElkaim/SmolLM2-1.7B-Instruct-Q6_K-GGUF --hf-file smollm2-1.7b-instruct-q6_k.gguf -c 2048

注意:你也可以直接通过 Llama.cpp 仓库中列出的使用步骤来使用此检查点。

第一步:从 GitHub 克隆 llama.cpp。

git clone https://github.com/ggerganov/llama.cpp

第二步:进入 llama.cpp 文件夹,并使用 LLAMA_CURL=1 标志以及其他特定于硬件的标志(例如:Linux 上的 Nvidia GPU 使用 LLAMA_CUDA=1)进行构建。

cd llama.cpp && LLAMA_CURL=1 make

第三步:通过主二进制文件运行推理。

./llama-cli --hf-repo JulienElkaim/SmolLM2-1.7B-Instruct-Q6_K-GGUF --hf-file smollm2-1.7b-instruct-q6_k.gguf -p \"The meaning to life and the universe is\"

./llama-server --hf-repo JulienElkaim/SmolLM2-1.7B-Instruct-Q6_K-GGUF --hf-file smollm2-1.7b-instruct-q6_k.gguf -c 2048

JulienElkaim/SmolLM2-1.7B-Instruct-Q6_K-GGUF

作者 JulienElkaim

text-generation transformers
↓ 1 ♥ 0

创建时间: 2024-12-19 13:01:48+00:00

更新时间: 2024-12-19 13:01:56+00:00

在 Hugging Face 上查看

文件 (3)

.gitattributes
README.md
smollm2-1.7b-instruct-q6_k.gguf