Mixture官网链接地址:https://snap-research.github.io/mixture-of-attention/
网站默认显示语言:英语
Mixture 介绍
Mixture-of-Attention (MoA) 是一种新颖的个性化文本到图像扩散模型架构,通过两个注意力路径实现生成工作负载的分配。MoA 保留原始模型的先验,通过个性化分支学习将主题嵌入到先验分支生成的布局和上下文中,实现高质量、多样化的个性化图像生成。
Mixture用户群体
适用于需要在图像中嵌入特定主题并保持高质量和多样性的个性化图像生成场景。
电子产品照片、家居用品照片、服装照片
Mixture的核心功能
- 个性化图像生成、主题和上下文解耦、高质量图像生成、多主题组合与互动、个性化分支和非个性化先验分支、像素分布优化