返回模型
说明文档
Gheya-1.0-203M (ONNX)
这是 NaA-IA/Gheya-1.0-203M 的 ONNX 版本。它通过 这个 Hugging Face Space 自动转换并上传。
使用 Transformers.js
查看 text-generation 的管道文档:https://huggingface.co/docs/transformers.js/api/pipelines#module_pipelines.TextGenerationPipeline
🚀 Gheya-1 : 新一代基础 SLM 🚀

欢迎来到超专业化人工智能的新时代!
✨ 模型概览
Gheya 是 LES-IA-ETOILES 生态系统的新基础模型,标志着对旧系列 Small-lamina 的替代。该模型旨在成为您未来专业微调最稳健、最稳定的基础。
| 特性 | 规格 | 🎯 用户核心优势 |
|---|---|---|
| 系列 | Gheya | 新基础,比 Lamina 系列性能更强。 |
| 参数 | $202$ 百万 | 容量是旧标准($51$M)的 4 倍,确保更好的语言稳定性。 |
| 状态 | 早期检查点 | Alpha 版本:适合微调,但不应以其当前状态用于通用推理。 |
| 主要用途 | 微调 基础 | 非常适合创建您自己的超专业化小众 SLM(如 Nelya 或 Charlotte 的继任者)。 |
🚧 当前状态:为什么结果看起来很奇怪
Gheya 在一个定向语料库上进行了训练,其中包含关于 AI、SLM 的元知识和生物学文本。
➡️ 后果: 模型存在严重的训练不足和过早的过度专业化。
- 您会看到什么: 即使对于无关的提示(如"圣女贞德"),生成的内容也会非常偏向技术词汇(
聚类、超参数、收敛时间)。 - 不应该做什么: 不要将其用于通用推理。它既不懂历史,也不懂常识。它还不是一个"智能 SLM"。
💡 积极的一面
该模型已验证了 $2.02$ 亿参数的架构。它稳定且准备好吸收数百万行额外数据,无论是通过我们后续的训练,还是通过您自己的微调。
🛠️ 推荐用法:微调
Gheya 的真正潜力在于它能够成为您自己项目的基础。
1. ⚙️ 继续预训练(面向专家)
如果您想创建一个 $202$M 参数的法语通用 SLM:
- 操作: 向其提供数十万行多样化、干净的法语文本。
- 结果: 模型将稳定其语法并获得更好的通用性。
2. 🎯 创建专业化 SLM(面向所有人)
如果您想创建一个小众 AI(如 Nekolien 或技术助手):
- 操作: 在您的小型自定义语料库上微调 Gheya(几百或几千行就足够了)。
- 结果: $202$M 的基础应该能更快地学习您的任务,并生成比旧的 $51$M 基础更连贯、更精确的回答。
💖 模型理念
- 我们迫不及待地想看到您将从这个新基础创建的令人惊叹的小众 SLM!
- 由 Clemylia 带着对工程和编程的热情制作。
Clemylia/Gheya-1.0-203M-ONNX
作者 Clemylia
text-generation
transformers.js
↓ 1
♥ 0
创建时间: 2026-01-09 14:38:59+00:00
更新时间: 2026-01-09 14:39:19+00:00
在 Hugging Face 上查看文件 (19)
.gitattributes
README.md
added_tokens.json
config.json
generation_config.json
merges.txt
onnx/model.onnx
ONNX
onnx/model_bnb4.onnx
ONNX
onnx/model_fp16.onnx
ONNX
onnx/model_int8.onnx
ONNX
onnx/model_q4.onnx
ONNX
onnx/model_q4f16.onnx
ONNX
onnx/model_quantized.onnx
ONNX
onnx/model_uint8.onnx
ONNX
quantize_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json