ONNX 模型库
返回模型

说明文档

stabilityai/stable-diffusion-3.5-medium - AMD 优化版 ONNX

本仓库托管的是与 AMD 合作创建的 AMD 优化版 Stable Diffusion 3.5 Medium

模型描述

更多详情请参阅 Stable Diffusion 3.5 Medium 模型卡

_io32 与 _io16 的区别

  • _io32:模型输入为 fp32,模型会将输入转换为 fp16,以 fp16 执行运算,并以 fp32 输出最终结果

  • _io16:模型输入为 fp16,以 fp16 执行运算,并以 fp16 输出最终结果

运行方式

使用 Amuse GUI 应用程序运行:https://www.amuse-ai.com/ 请使用 *_io32 版本配合 Amuse 应用程序运行

推理结果

介绍图片 Prompt="一只雄伟的皇家孟加拉虎站在山顶,俯瞰美丽的太浩湖,雪山和深蓝色的湖泊,深蓝色的天空,超高清,8K,逼真写实"

许可证

  • 社区许可证:对于年度总收入低于 100 万美元的组织或个人,可免费用于研究、非商业和商业用途。更多详情请参阅社区许可协议。阅读更多信息:https://stability.ai/license
  • 对于年度收入超过 100 万美元的个人和组织:请联系我们获取企业许可证。

模型来源

出于研究目的,我们推荐使用我们的 SD3.5 Github 仓库(https://github.com/Stability-AI/sd3.5),该仓库提供了 SD3.5 推理的参考实现。

仓库:https://github.com/Stability-AI/sd3.5

Stable Diffusion 3.5 博客:https://stability.ai/news/introducing-stable-diffusion-3-5

训练数据和策略

该模型在多种数据上进行了训练,包括合成数据和经过筛选的公开数据。

用途

预期用途

预期用途包括:

  • 艺术作品生成,以及在设计和其他艺术创作流程中使用。
  • 教育或创意工具中的应用。
  • 对生成式模型的研究,包括理解生成式模型的局限性。

模型的所有使用必须符合我们的可接受使用政策

超出范围的用途

该模型并未针对生成人物或事件的真实或事实性表征进行训练。因此,使用该模型生成此类内容超出了该模型的能力范围。

安全性

作为我们"设计即安全"和负责任 AI 部署方法的一部分,我们在开发的早期阶段就采取有意识的措施来确保完整性。我们在模型开发的整个过程中都实施了安全措施。我们已实施旨在降低某些危害风险的安全缓解措施,但我们建议开发者根据其具体用例进行自己的测试并应用额外的缓解措施。 有关我们安全方法的更多信息,请访问我们的安全页面

完整性评估

我们的完整性评估方法包括结构化评估和针对某些危害的红队测试。测试主要在英语环境中进行,可能无法覆盖所有可能的危害。

已识别的风险和缓解措施:

  • 有害内容:我们在训练模型时使用了经过筛选的数据集,并实施了旨在平衡实用性和防止危害的安全防护措施。然而,这并不能保证所有可能的有害内容都已被移除。所有开发者和部署者应根据其具体的产品政策和应用用例谨慎行事,并实施内容安全防护措施。
  • 滥用:技术限制以及开发者和最终用户的教育可以帮助缓解模型的恶意应用。所有用户必须遵守我们的可接受使用政策,包括在应用微调和提示词工程机制时。请参阅 Stability AI 可接受使用政策,了解我们产品的违规使用信息。
  • 隐私侵犯:鼓励开发者和部署者遵守隐私法规,采用尊重数据隐私的技术。

联系方式

请报告模型的任何问题或联系我们:

stabilityai/stable-diffusion-3.5-medium_amdgpu

作者 stabilityai

text-to-image diffusers
↓ 0 ♥ 10

创建时间: 2025-04-09 20:54:02+00:00

更新时间: 2025-04-09 21:24:04+00:00

在 Hugging Face 上查看

文件 (52)

.gitattributes
LICENSE.md
README.md
sample1.png
stable-diffusion-3.5-medium_io16/config.json
stable-diffusion-3.5-medium_io16/scheduler/scheduler_config.json
stable-diffusion-3.5-medium_io16/text_encoder/model.onnx ONNX
stable-diffusion-3.5-medium_io16/text_encoder_2/model.onnx ONNX
stable-diffusion-3.5-medium_io16/text_encoder_2/model.onnx.data
stable-diffusion-3.5-medium_io16/text_encoder_3/model.onnx ONNX
stable-diffusion-3.5-medium_io16/text_encoder_3/model.onnx.data
stable-diffusion-3.5-medium_io16/tokenizer/merges.txt
stable-diffusion-3.5-medium_io16/tokenizer/special_tokens_map.json
stable-diffusion-3.5-medium_io16/tokenizer/tokenizer_config.json
stable-diffusion-3.5-medium_io16/tokenizer/vocab.json
stable-diffusion-3.5-medium_io16/tokenizer_2/merges.txt
stable-diffusion-3.5-medium_io16/tokenizer_2/special_tokens_map.json
stable-diffusion-3.5-medium_io16/tokenizer_2/tokenizer_config.json
stable-diffusion-3.5-medium_io16/tokenizer_2/vocab.json
stable-diffusion-3.5-medium_io16/tokenizer_3/model.onnx ONNX
stable-diffusion-3.5-medium_io16/tokenizer_3/special_tokens_map.json
stable-diffusion-3.5-medium_io16/tokenizer_3/spiece.model
stable-diffusion-3.5-medium_io16/tokenizer_3/tokenizer.json
stable-diffusion-3.5-medium_io16/tokenizer_3/tokenizer_config.json
stable-diffusion-3.5-medium_io16/transformer/model.onnx ONNX
stable-diffusion-3.5-medium_io16/transformer/model.onnx.data
stable-diffusion-3.5-medium_io16/vae_decoder/model.onnx ONNX
stable-diffusion-3.5-medium_io16/vae_encoder/model.onnx ONNX
stable-diffusion-3.5-medium_io32/config.json
stable-diffusion-3.5-medium_io32/scheduler/scheduler_config.json
stable-diffusion-3.5-medium_io32/text_encoder/model.onnx ONNX
stable-diffusion-3.5-medium_io32/text_encoder_2/model.onnx ONNX
stable-diffusion-3.5-medium_io32/text_encoder_2/model.onnx.data
stable-diffusion-3.5-medium_io32/text_encoder_3/model.onnx ONNX
stable-diffusion-3.5-medium_io32/text_encoder_3/model.onnx.data
stable-diffusion-3.5-medium_io32/tokenizer/merges.txt
stable-diffusion-3.5-medium_io32/tokenizer/special_tokens_map.json
stable-diffusion-3.5-medium_io32/tokenizer/tokenizer_config.json
stable-diffusion-3.5-medium_io32/tokenizer/vocab.json
stable-diffusion-3.5-medium_io32/tokenizer_2/merges.txt
stable-diffusion-3.5-medium_io32/tokenizer_2/special_tokens_map.json
stable-diffusion-3.5-medium_io32/tokenizer_2/tokenizer_config.json
stable-diffusion-3.5-medium_io32/tokenizer_2/vocab.json
stable-diffusion-3.5-medium_io32/tokenizer_3/model.onnx ONNX
stable-diffusion-3.5-medium_io32/tokenizer_3/special_tokens_map.json
stable-diffusion-3.5-medium_io32/tokenizer_3/spiece.model
stable-diffusion-3.5-medium_io32/tokenizer_3/tokenizer.json
stable-diffusion-3.5-medium_io32/tokenizer_3/tokenizer_config.json
stable-diffusion-3.5-medium_io32/transformer/model.onnx ONNX
stable-diffusion-3.5-medium_io32/transformer/model.onnx.data
stable-diffusion-3.5-medium_io32/vae_decoder/model.onnx ONNX
stable-diffusion-3.5-medium_io32/vae_encoder/model.onnx ONNX