ONNX 模型库
返回模型

说明文档

Transformers.js

如果你还没有安装,可以通过 NPM 安装 Transformers.js JavaScript 库:

npm i @huggingface/transformers

然后你可以按如下方式生成文本:

import { pipeline, TextStreamer } from "@huggingface/transformers";

// 创建文本生成管道
const generator = await pipeline(
  "text-generation",
  "onnx-community/ettin-decoder-400m-ONNX",
  { dtype: "fp32" },
);

// 生成回复
const text = "Q: What is the capital of France?\nA:";
const output = await generator(text, {
  max_new_tokens: 128,
  streamer: new TextStreamer(generator.tokenizer, { skip_prompt: true, skip_special_tokens: true }),
});
console.log(output[0].generated_text);

onnx-community/ettin-decoder-400m-ONNX

作者 onnx-community

text-generation transformers.js
↓ 1 ♥ 0

创建时间: 2025-07-20 02:59:27+00:00

更新时间: 2025-07-20 20:41:15+00:00

在 Hugging Face 上查看

文件 (14)

.gitattributes
README.md
config.json
onnx/model.onnx ONNX
onnx/model.onnx_data
onnx/model_fp16.onnx ONNX
onnx/model_fp16.onnx_data
onnx/model_q4.onnx ONNX
onnx/model_q4.onnx_data
onnx/model_q4f16.onnx ONNX
onnx/model_q4f16.onnx_data
special_tokens_map.json
tokenizer.json
tokenizer_config.json