返回模型
说明文档
qwen1.5-0.5b-chat
模型描述
这是阿里巴巴云 Qwen 1.5 0.5B 模型的量化版本,针对内存有限的设备上的高效推理进行了优化。量化通过使用 8 位整数代替 32 位浮点数来减小模型大小并提高计算速度。
文件
config.jsontokenizer.jsontokenizer_config.jsononnx/decoder_model_merged_quantized.onnx
在 Transformers.js 中使用
import { pipeline, AutoTokenizer } from '@xenova/transformers';
async function runTextGeneration() {
const generator = await pipeline(
'text-generation',
'jestevesv/qwen1.5-0.5b-chat',
{ quantized: true }
);
const prompt = 'Hola, ¿cómo estás hoy?';
const output = await generator(prompt, {
max_length: 100,
do_sample: true,
temperature: 0.7,
});
console.log(output);
}
runTextGeneration().catch(err => {
console.error('Error:', err);
});
jestevesv/qwen1.5-0.5b-chat
作者 jestevesv
text-generation
transformers.js
↓ 1
♥ 0
创建时间: 2025-09-12 11:20:17+00:00
更新时间: 2025-09-12 22:18:04+00:00
在 Hugging Face 上查看文件 (7)
.gitattributes
LICENSE
README.md
config.json
onnx/decoder_model_merged_quantized.onnx
ONNX
tokenizer.json
tokenizer_config.json