ONNX 模型库
返回模型

说明文档

FunctionGemma Tasky (ONNX)

本仓库包含 functiongemma-tasky 的 ONNX 导出版本,这是一个基于 google/functiongemma-270m-it 微调的变体,专门针对任务/待办事项函数调用进行训练。该模型面向 Transformers.js,同时提供全精度和 Q4 量化权重。

文件

  • onnx/model.onnx:全精度权重 (fp32)
  • onnx/model_q4.onnx:4 位量化权重 (q4)

用法 (Transformers.js)

import { pipeline } from '@huggingface/transformers';

// Q4(更小、更快)
const pipe = await pipeline('text-generation', 'REPLACE_WITH_HF_REPO', {
  dtype: 'q4',
});

const out = await pipe('Add a task to call Alice tomorrow at 9am', {
  max_new_tokens: 128,
});
console.log(out[0].generated_text);

如需加载全精度版本:

const pipe = await pipeline('text-generation', 'REPLACE_WITH_HF_REPO', {
  dtype: 'fp32',
});

Transformers.js 期望 ONNX 权重位于 onnx/ 子目录下,本仓库已提供该结构。

训练摘要

  • 基础模型:google/functiongemma-270m-it
  • 微调数据:合成任务/待办事项函数调用提示词,混合英语/意大利语,包含用户风格的拼写错误
  • 评估成功率:在 1500/500 的训练/评估划分上约 99.5%

注意事项

  • 量化模型以牺牲部分精度换取更快的推理速度和更小的体积。
  • 输出可能不是严格的 JSON 格式;如需要请进行验证和后处理。

independently-platform/functiongemma-tasky-ONNX

作者 independently-platform

text-generation transformers.js
↓ 1 ♥ 0

创建时间: 2026-01-12 03:46:46+00:00

更新时间: 2026-01-12 03:49:27+00:00

在 Hugging Face 上查看

文件 (10)

.gitattributes
README.md
chat_template.jinja
config.json
generation_config.json
onnx/model_q4.onnx ONNX
quantize_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json