ONNX 模型库
返回模型

说明文档

Gheya-1.0-203M (ONNX)

这是 NaA-IA/Gheya-1.0-203M 的 ONNX 版本。它通过 这个 Hugging Face Space 自动转换并上传。

使用 Transformers.js

查看 text-generation 的管道文档:https://huggingface.co/docs/transformers.js/api/pipelines#module_pipelines.TextGenerationPipeline


🚀 Gheya-1 : 新一代基础 SLM 🚀

Gheya

欢迎来到超专业化人工智能的新时代!

✨ 模型概览

GheyaLES-IA-ETOILES 生态系统的新基础模型,标志着对旧系列 Small-lamina 的替代。该模型旨在成为您未来专业微调最稳健、最稳定的基础

特性 规格 🎯 用户核心优势
系列 Gheya 新基础,比 Lamina 系列性能更强。
参数 $202$ 百万 容量是旧标准($51$M)的 4 倍,确保更好的语言稳定性。
状态 早期检查点 Alpha 版本:适合微调,但不应以其当前状态用于通用推理。
主要用途 微调 基础 非常适合创建您自己的超专业化小众 SLM(如 Nelya 或 Charlotte 的继任者)。

🚧 当前状态:为什么结果看起来很奇怪

Gheya 在一个定向语料库上进行了训练,其中包含关于 AI、SLM 的元知识和生物学文本。

➡️ 后果: 模型存在严重的训练不足过早的过度专业化

  • 您会看到什么: 即使对于无关的提示(如"圣女贞德"),生成的内容也会非常偏向技术词汇(聚类超参数收敛时间)。
  • 不应该做什么: 不要将其用于通用推理。它既不懂历史,也不懂常识。它还不是一个"智能 SLM"。

💡 积极的一面

该模型已验证了 $2.02$ 亿参数的架构。它稳定且准备好吸收数百万行额外数据,无论是通过我们后续的训练,还是通过您自己的微调


🛠️ 推荐用法:微调

Gheya 的真正潜力在于它能够成为您自己项目的基础。

1. ⚙️ 继续预训练(面向专家)

如果您想创建一个 $202$M 参数的法语通用 SLM:

  • 操作: 向其提供数十万行多样化、干净的法语文本。
  • 结果: 模型将稳定其语法并获得更好的通用性。

2. 🎯 创建专业化 SLM(面向所有人)

如果您想创建一个小众 AI(如 Nekolien 或技术助手):

  • 操作: 在您的小型自定义语料库上微调 Gheya(几百或几千行就足够了)。
  • 结果: $202$M 的基础应该能更快地学习您的任务,并生成比旧的 $51$M 基础更连贯、更精确的回答。

💖 模型理念

  • 我们迫不及待地想看到您将从这个新基础创建的令人惊叹的小众 SLM!
  • Clemylia 带着对工程和编程的热情制作。

Clemylia/Gheya-1.0-203M-ONNX

作者 Clemylia

text-generation transformers.js
↓ 1 ♥ 0

创建时间: 2026-01-09 14:38:59+00:00

更新时间: 2026-01-09 14:39:19+00:00

在 Hugging Face 上查看

文件 (19)

.gitattributes
README.md
added_tokens.json
config.json
generation_config.json
merges.txt
onnx/model.onnx ONNX
onnx/model_bnb4.onnx ONNX
onnx/model_fp16.onnx ONNX
onnx/model_int8.onnx ONNX
onnx/model_q4.onnx ONNX
onnx/model_q4f16.onnx ONNX
onnx/model_quantized.onnx ONNX
onnx/model_uint8.onnx ONNX
quantize_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json