返回模型
🌞 SolaraV2 —
说明文档
🌞 SolaraV2 — summerstars/SolaraV2
✨ 由高中生创建 | 基于 Google Colab(T4 GPU)构建
SolaraV2 是原版 Solara 的升级版本 —— 一个基于 HuggingFaceTB/SmolLM2-360M-Instruct 的轻量级指令微调语言模型。
本版本在更大且更多样化的数据集上进行训练,包括基础数学相关样本,提升了其处理日常对话和教育任务的能力。
所有开发工作均由一名高中生使用 Google Colab 和 T4 GPU 完成。
📌 模型详情
| 特征 | 说明 |
|---|---|
| 基础模型 | HuggingFaceTB/SmolLM2-360M-Instruct |
| 参数量 | 360M |
| 架构 | Decoder-only Transformer |
| 语言 | 英语 |
| 许可证 | Apache 2.0 |
| 训练新增内容 | 基础数学、事实问答数据 |
🚀 主要用途
- 🤖 轻量级聊天机器人
- 📱 在 CPU 或移动设备上进行推理
- 📚 教育或爱好者项目
- 🧾 指令跟随任务
- ➗ 基础数学问题解答
🛠️ 使用方法
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "summerstars/SolaraV2-coder"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "What is 15 * 4?"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=64)
# 打印结果
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
summerstars/SolaraV2-coder
作者 summerstars
text-generation
transformers
↓ 1
♥ 0
创建时间: 2025-04-23 12:22:17+00:00
更新时间: 2025-04-30 06:23:57+00:00
在 Hugging Face 上查看文件 (11)
.gitattributes
README.md
added_tokens.json
config.json
generation_config.json
merges.txt
model.safetensors
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json