Stability宣称其最新的Stable Diffusion模型能生成更“多样化”的图像
AI初创公司Stability AI在经历了一系列争议后,宣布推出了其最新的图像生成模型系列——Stable Diffusion 3.5。该公司声称,与前一代技术相比,新系列模型更加可定制、多功能,并且性能更强。新系列共有三个模型:
- Stable Diffusion 3.5 Large:拥有80亿参数,是该系列中最强大的模型,能够生成高达1百万像素分辨率的图像。
- Stable Diffusion 3.5 Large Turbo:是Stable Diffusion 3.5 Large的蒸馏版本,牺牲一些质量以更快地生成图像。
- Stable Diffusion 3.5 Medium:针对边缘设备如智能手机和笔记本电脑优化,能够生成0.25至2百万像素分辨率的图像。
尽管Stable Diffusion 3.5 Large和3.5 Large Turbo现已可用,但3.5 Medium要到10月29日才会发布。
Stability AI表示,Stable Diffusion 3.5模型应该能够生成更“多样化”的输出,即在不需要“广泛”提示的情况下,生成不同肤色和特征的人的图像。在训练过程中,每张图像都会用多个版本的提示进行标注,优先考虑较短的提示,以确保对于任何给定的文本描述都有更广泛和多样化的图像概念分布。
Stability AI的首席技术官Hanno Basse在接受TechCrunch采访时表示:“我们像大多数生成性AI公司一样,使用各种数据进行训练,包括过滤后的公开可用数据集和合成数据。”
过去,一些公司笨拙地将这些“多样化”功能构建到图像生成器中,引起了社交媒体上的强烈反对。例如,谷歌的Gemini聊天机器人的一个旧版本在历史提示如“罗马军团”或“美国参议员”时,会显示一群时代不符的人物。谷歌被迫暂停人物图像生成功能近六个月,同时开发解决方案。
Stability AI希望其方法比其他方法更周到。不幸的是,我们无法给出印象,因为Stability AI没有提供早期访问权限。
Stability AI之前的旗舰图像生成器Stable Diffusion 3 Medium因其奇特的伪影和对提示的较差遵循而受到广泛批评。该公司警告说,Stable Diffusion 3.5模型可能会遭受类似的提示错误;它将此归咎于工程和架构权衡。但Stability AI也坚称,与前代相比,这些模型在生成各种风格(包括3D艺术)的图像方面更为强大。
Stability AI在与TechCrunch分享的博客文章中写道:“同一提示下不同种子的输出变化可能更大,这是有意为之,因为它有助于在基础模型中保留更广泛的知识库和多样化的风格。然而,结果可能是,缺乏具体性的提示可能导致输出的不确定性增加,并且审美水平可能有所不同。”
与新模型一样,Stability AI的许可证没有变化。与之前的Stability AI模型一样,Stable Diffusion 3.5系列模型可以免费用于“非商业”目的,包括研究。年收入少于100万美元的企业也可以免费商业化它们。然而,年收入超过100万美元的组织必须与Stability AI签订企业许可证。
今年夏天,Stability AI因其限制性的微调条款而引起了轰动,这些条款(或至少看起来)赋予了公司从其图像生成器训练的图像中提取费用的权利。作为对负面反馈的回应,该公司调整了其条款,允许更自由的商业使用。Stability AI今天重申,用户拥有使用Stability AI模型生成的媒体。
Stability AI的营销和传播副总裁Ana Guillén在一封电子邮件声明中表示:“我们鼓励创作者在整条生产线上分发和货币化他们的作品,只要他们向这些作品的用户提供我们的社区许可证的副本,并在相关网站、用户界面、博客文章、关于页面或产品文档上醒目地展示‘由Stability AI提供支持’。”
Stable Diffusion 3.5 Large和Diffusion 3.5 Large Turbo可以自托管,也可以通过Stability AI的API和第三方平台(包括Hugging Face、Fireworks、Replicate和ComfyUI)使用。Stability AI表示,它计划在未来几天发布这些模型的ControlNets,这些ControlNets允许微调。
与大多数AI模型一样,Stability AI的模型也是在公共网络数据上训练的——其中一些数据可能受版权保护或受到限制性许可。Stability AI和其他许多AI供应商认为,公平使用原则使他们免受版权索赔。但这并没有阻止数据所有者提起越来越多的集体诉讼。
Stability AI让客户自己保护自己免受版权索赔,与其他一些供应商不同,它在被发现有责任的情况下没有支付豁免。
Stability AI确实允许数据所有者要求将其数据从其训练数据集中删除。根据该公司的数据,截至2023年3月,艺术家们已经从Stable Diffusion的训练