ONNX 模型库
返回模型

说明文档


license: other license_name: stabilityai-ai-community license_link: LICENSE.md base_model:

  • stabilityai/stable-diffusion-3-medium pipeline_tag: text-to-image library_name: diffusers

stabilityai/stable-diffusion-3-medium - AMD 优化版 ONNX 和 Ryzen(TM) AI NPU

本仓库托管了 Stable Diffusion 3 Medium 的 AMD 优化版本以及与 AMD 合作创建的 AMD Ryzen™ AI 优化版 SD 3 Medium

AMDGPU 模型是 Stable Diffusion 3 Medium 模型的 AMD 优化版 ONNX 移植版本,在兼容的 AMD 硬件上提供比基础模型显著更高的推理速度

ONNX 移植版 Ryzen™ AI 模型是世界上首个 Block FP16 模型,UNET 和 VAE 解码器完全采用 Block FP16。该模型专为基于 AMD XDNA™ 2 的 NPU 构建,结合了 FP16 的精度和 INT8 的性能。

模型描述

请参阅 Stable Diffusion 3 Medium 模型卡了解更多详情。

_io32 与 _io16 的区别

  • _io32:模型输入为 fp32,模型会将输入转换为 fp16,以 fp16 执行运算,并以 fp32 输出最终结果

  • _io16:模型输入为 fp16,以 fp16 执行运算,并以 fp16 输出最终结果

运行方式

GPU:使用 Amuse GUI 应用程序运行:https://www.amuse-ai.com/。使用 *_io32 版本配合 Amuse 应用程序运行

NPU:在兼容的 XDNA(TM) 2 NPU 设备上,安装并打开 Amuse GUI,点击 Advanced Mode。从 Model Manager 下载 SD 3 Medium AMDGPU。点击 Image Generation。将 variant 更改为 Ryzen AI。加载。

推理结果

Intro Image Prompt="a majestic Royal Bengal Tiger on the mountain top overlooking beautiful Lake Tahoe snowy mountains and deep blue lake, deep blue sky, ultra hd, 8k, photorealistic"

许可证

  • 社区许可证:对于年度总收入低于 100 万美元的组织或个人,可免费用于研究、非商业和商业用途。更多详情请参阅社区许可协议。更多信息请访问 https://stability.ai/license
  • 对于年度收入超过 100 万美元的个人和组织:请联系我们获取企业许可证。

模型来源

出于研究目的,我们推荐使用我们的 Github 仓库,该仓库提供了 SD3 推理的参考实现。

仓库:https://github.com/Stability-AI/sd3-ref

Stable Diffusion 3 论文:https://arxiv.org/pdf/2403.03206

训练数据和策略

该模型在各种数据上进行了训练,包括合成数据和经过筛选的公开数据。

用途

预期用途

预期用途包括:

  • 艺术作品的生成,以及在设计和其他艺术过程中的应用。
  • 教育或创意工具中的应用。
  • 对生成模型的研究,包括理解生成模型的局限性。

模型的所有使用必须符合我们的可接受使用政策

非预期用途

该模型并未经过训练以生成人物或事件的真实或事实性表述。因此,使用该模型生成此类内容超出了该模型的能力范围。

安全性

作为我们安全设计和负责任 AI 开发方法的一部分,我们从模型开发的最早阶段就优先考虑完整性。我们在整个开发过程中实施安全保障措施,以帮助降低误用风险。虽然我们已内置保护措施以减轻某些危害,但我们鼓励开发者根据其预期用例负责任地进行测试,并根据需要应用额外的缓解措施。

有关我们安全方法的更多信息,请访问我们的安全页面

完整性评估

我们的完整性评估方法包括结构化评估和针对某些危害的红队测试。测试主要以英语进行,可能无法涵盖所有可能的危害。

已识别的风险和缓解措施:

  • 有害内容:我们在训练模型时使用了经过筛选的数据集,并实施了安全保障措施,试图在有用性和防止危害之间取得适当的平衡。然而,这并不能保证所有可能的有害内容都已被移除。所有开发者和部署者应谨慎行事,并根据其特定的产品政策和应用用例实施内容安全防护措施。
  • 误用:技术限制以及开发者和最终用户教育可以帮助减轻模型的恶意应用。所有用户都必须遵守我们的可接受使用政策,包括在应用微调和提示工程机制时。请参阅 Stability AI 可接受使用政策,了解我们产品的违规使用信息。
  • 隐私侵犯:鼓励开发者和部署者采用尊重数据隐私的技术,遵守隐私法规。

联系方式

请报告任何与模型相关的问题或联系我们:

stabilityai/stable-diffusion-3-medium_amdgpu

作者 stabilityai

text-to-image diffusers
↓ 0 ♥ 11

创建时间: 2025-02-28 15:07:27+00:00

更新时间: 2025-07-16 16:48:14+00:00

在 Hugging Face 上查看

文件 (64)

.gitattributes
LICENSE.md
README.md
sample.png
stable-diffusion-3-medium_io16/config.json
stable-diffusion-3-medium_io16/scheduler/scheduler_config.json
stable-diffusion-3-medium_io16/text_encoder/model.onnx ONNX
stable-diffusion-3-medium_io16/text_encoder_2/model.onnx ONNX
stable-diffusion-3-medium_io16/text_encoder_2/model.onnx.data
stable-diffusion-3-medium_io16/text_encoder_3/model.onnx ONNX
stable-diffusion-3-medium_io16/text_encoder_3/model.onnx.data
stable-diffusion-3-medium_io16/tokenizer/merges.txt
stable-diffusion-3-medium_io16/tokenizer/special_tokens_map.json
stable-diffusion-3-medium_io16/tokenizer/tokenizer_config.json
stable-diffusion-3-medium_io16/tokenizer/vocab.json
stable-diffusion-3-medium_io16/tokenizer_2/merges.txt
stable-diffusion-3-medium_io16/tokenizer_2/special_tokens_map.json
stable-diffusion-3-medium_io16/tokenizer_2/tokenizer_config.json
stable-diffusion-3-medium_io16/tokenizer_2/vocab.json
stable-diffusion-3-medium_io16/tokenizer_3/special_tokens_map.json
stable-diffusion-3-medium_io16/tokenizer_3/spiece.model
stable-diffusion-3-medium_io16/tokenizer_3/tokenizer.json
stable-diffusion-3-medium_io16/tokenizer_3/tokenizer_config.json
stable-diffusion-3-medium_io16/unet/model.onnx ONNX
stable-diffusion-3-medium_io16/unet/model.onnx.data
stable-diffusion-3-medium_io16/vae_decoder/model.onnx ONNX
stable-diffusion-3-medium_io16/vae_encoder/model.onnx ONNX
stable-diffusion-3-medium_io32/config.json
stable-diffusion-3-medium_io32/scheduler/scheduler_config.json
stable-diffusion-3-medium_io32/text_encoder/model.onnx ONNX
stable-diffusion-3-medium_io32/text_encoder_2/model.onnx ONNX
stable-diffusion-3-medium_io32/text_encoder_2/model.onnx.data
stable-diffusion-3-medium_io32/text_encoder_3/model.onnx ONNX
stable-diffusion-3-medium_io32/text_encoder_3/model.onnx.data
stable-diffusion-3-medium_io32/tokenizer/merges.txt
stable-diffusion-3-medium_io32/tokenizer/special_tokens_map.json
stable-diffusion-3-medium_io32/tokenizer/tokenizer_config.json
stable-diffusion-3-medium_io32/tokenizer/vocab.json
stable-diffusion-3-medium_io32/tokenizer_2/merges.txt
stable-diffusion-3-medium_io32/tokenizer_2/special_tokens_map.json
stable-diffusion-3-medium_io32/tokenizer_2/tokenizer_config.json
stable-diffusion-3-medium_io32/tokenizer_2/vocab.json
stable-diffusion-3-medium_io32/tokenizer_3/special_tokens_map.json
stable-diffusion-3-medium_io32/tokenizer_3/spiece.model
stable-diffusion-3-medium_io32/tokenizer_3/tokenizer.json
stable-diffusion-3-medium_io32/tokenizer_3/tokenizer_config.json
stable-diffusion-3-medium_io32/unet/RyzenAI/.cache/time_text_embedtimestep_embedderlinear_1base_layerGemm_meta.json
stable-diffusion-3-medium_io32/unet/RyzenAI/dd_metastate_SD30_MMDIT_time_text_embedtimestep_embedderlinear_1base_layerGemm
stable-diffusion-3-medium_io32/unet/RyzenAI/dd_metastate_SD30_MMDIT_time_text_embedtimestep_embedderlinear_1base_layerGemm.ctrlpkt
stable-diffusion-3-medium_io32/unet/RyzenAI/dd_metastate_SD30_MMDIT_time_text_embedtimestep_embedderlinear_1base_layerGemm.fconst
stable-diffusion-3-medium_io32/unet/RyzenAI/dd_metastate_SD30_MMDIT_time_text_embedtimestep_embedderlinear_1base_layerGemm.input
stable-diffusion-3-medium_io32/unet/RyzenAI/dd_metastate_SD30_MMDIT_time_text_embedtimestep_embedderlinear_1base_layerGemm.super
stable-diffusion-3-medium_io32/unet/RyzenAI/model.onnx ONNX
stable-diffusion-3-medium_io32/unet/model.onnx ONNX
stable-diffusion-3-medium_io32/unet/model.onnx.data
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/.cache/NhwcConv_0-decoderconv_inConv_meta.json
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/dd_metastate_SD30_DECODER_NhwcConv_0-decoderconv_inConv
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/dd_metastate_SD30_DECODER_NhwcConv_0-decoderconv_inConv.ctrlpkt
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/dd_metastate_SD30_DECODER_NhwcConv_0-decoderconv_inConv.fconst
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/dd_metastate_SD30_DECODER_NhwcConv_0-decoderconv_inConv.input
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/dd_metastate_SD30_DECODER_NhwcConv_0-decoderconv_inConv.super
stable-diffusion-3-medium_io32/vae_decoder/RyzenAI/model.onnx ONNX
stable-diffusion-3-medium_io32/vae_decoder/model.onnx ONNX
stable-diffusion-3-medium_io32/vae_encoder/model.onnx ONNX