|
 【产通社,12月22日讯】香港科技大学(Hong Kong University of Science and Technology, HKUST)官网消息,其冯诺依曼研究院院长兼计算机科学及工程学系讲座教授贾佳亚教授带领的团队成功开发AI图像生成和编辑器DreamOmni2,不仅在传统指令编辑和实体对象生成上表现卓越,更在抽象概念的理解和生成方面有重大突破。 人工智能(AI)图像编辑及生成模型获广泛应用于图像创作,然而其对抽象概念如感觉和氛围等理解精准度一直存在局限,且多依赖纯文字指令,较难准确表达复杂图像意思,亦无法捕捉风格、材质或光影等效果。 由香港科技大学(科大)冯诺依曼研究院院长兼计算机科学及工程学系讲座教授贾佳亚教授带领的团队成功开发名为“DreamOmni2”的AI图像生成和编辑器,不仅拥有卓越的多模态指令编辑和实体对象生成能力,更在抽象概念的理解和生成方面有重大突破,让AI不仅能“看图”,更能“理解图意”,多方面表现优于同类型开源和闭源模型,为AI创作开启无限可能。 全面性能测试:超越现有开源与闭源模型 在多模态指令生成任务中,DreamOmni2能基于图片中的实体进行图像生成,例如提取图一的画作挂在卧室墙上,将图二盘子的材质套用在图三的水杯,并将水杯放置在桌子上,以生成符合用家要求的新图像。  在多模态指令编辑任务中,DreamOmni2的表现亦非常优秀,例如将图中帽子的颜色变成与另一张图毛衣相同的配色。 在同类模型对比中,当团队给予多模态指令,让图中人物手执另一张图的物品,以生成新图像。 结果显示,无论是参考对象的一致性,还是指令的遵循度,DreamOmni2的表现最佳。 整体而言,与SOTA开源模型相比,DreamOmni2在实体及抽象概念的多模态指令编辑表现更佳,在抽象概念指令编辑方面亦优于商业模型Nano Banana,更解决了其他现有模型难以控制生成图像泛黄或细节改变的问题。 新数据构建 确保图像质量 DreamOmni2以创新的三阶段数据构建模式,提高模型的多模态指令生成和编辑能力。 第一阶段:特征混合。利用基础模型由文字到图像生成的能力,构建包含具体对象与抽象属性的高质量训练数据。 第二阶段:训练多模态指令编辑能力。训练模型提取靶心图表中的对象或属性,并根据指令生成参考图像,以及使用编辑模型修改靶心图表,通过完整训练提升编辑能力。 第三阶段:训练多模态指令生成能力。训练模型从源图像中提取对象,以创建全新参考图像的能力。 框架设计突破 克服多图输入难题 FLUX Kontext是全球首款基于指令的图像编辑器,但不支持多图输入,而DreamOmni2是基于FLUX-Kontext训练的模型,除了延续原有指令编辑和文本生成能力外,更拥有多参考图生成和编辑能力。 DreamOmni2采用的先进技术,包括: 索引编码技术:在位置通道中添加索引编码,以有效区分不同参考图像的身份,提升输入的处理精准度。 位置编码偏移机制:能根据输入的参考图像大小,动态调整位置编码,显著减少图像在复制和贴上时与参考图混淆的问题。 视觉语言联合训练:为解决用家指令不规则、逻辑复杂的挑战,团队以视觉语言模型(VLM)与生成模型进行联合训练,使VLM能更好地理解复杂指令并转化为结构化格式,大幅提升模型在真实场景的应用表现。  开放公众使用 应用前景无限 DreamOmni2已于著名国际开源社区Github开放予公众使用,更获得数字艺术创作者认可支持,赞赏模型在理解氛围感和抽象风格方面表现卓越,大幅降低了创作复杂图像的门槛。  贾佳亚教授表示:“DreamOmni2标志着多模态生成技术迈入全新阶段,其不仅在性能上超越现有模型,更在技术架构上为AI图像生成和编辑模型的未来发展奠定坚实基础,为生成式人工智能产业注入新动能,同时为数字艺术设计、个性化媒体制作等领域带来革命性改变,助力香港产学研和科研生态的蓬勃。”查询进一步信息,请访问官方网站 http://hkust.edu.hk/zh-hans/news。(镨元素, 产通数造) (完)
|