返回模型
说明文档
https://huggingface.co/Maykeye/TinyLLama-v0,包含 ONNX 权重,以兼容 Transformers.js。
用法 (Transformers.js)
如果您还没有安装,可以通过 NPM 安装 Transformers.js JavaScript 库:
npm i @huggingface/transformers
示例: 文本生成。
import { pipeline } from '@huggingface/transformers';
const generator = await pipeline('text-generation', 'Xenova/TinyLLama-v0');
const output = await generator('Once upon a time, there was', { max_new_tokens: 10 });
注意:为 ONNX 权重设置单独的仓库是一个临时解决方案,直到 WebML 获得更多关注。如果您想让您的模型支持网页端使用,我们建议使用 🤗 Optimum 转换为 ONNX,并按照此仓库的结构组织(将 ONNX 权重放在名为 onnx 的子文件夹中)。
makoha/test
作者 makoha
text-generation
transformers.js
↓ 0
♥ 0
创建时间: 2025-10-30 23:41:02+00:00
更新时间: 2025-10-31 00:49:14+00:00
在 Hugging Face 上查看文件 (23)
.gitattributes
README.md
config.json
generation_config.json
onnx/decoder_model.onnx
ONNX
onnx/decoder_model_fp16.onnx
ONNX
onnx/decoder_model_merged.onnx
ONNX
onnx/decoder_model_merged_quantized.onnx
ONNX
onnx/decoder_model_quantized.onnx
ONNX
onnx/decoder_with_past_model.onnx
ONNX
onnx/decoder_with_past_model_quantized.onnx
ONNX
onnx/model.onnx
ONNX
onnx/model_bnb4.onnx
ONNX
onnx/model_fp16.onnx
ONNX
onnx/model_int8.onnx
ONNX
onnx/model_q4.onnx
ONNX
onnx/model_q4f16.onnx
ONNX
onnx/model_uint8.onnx
ONNX
quantize_config.json
special_tokens_map.json
tokenizer.json
tokenizer.model
tokenizer_config.json