字节豆包通用图像编辑模型SeedEdit开启测试,一句话轻松改图
北京,2024年11月11日– 字节跳动旗下豆包大模型团队今日宣布,其最新研发的通用图像编辑模型SeedEdit正式开启测试。该模型支持用户通过简单的自然语言指令,轻松实现对图像的各种编辑操作,包括修图、换装、美化、转化风格、在指定区域添加删除元素等。目前,SeedEdit已在豆包PC端及即梦网页端开放测试。
SeedEdit的出现,标志着国内图像编辑技术迈入了一个新的阶段。此前,学术界在文生图和图生图领域已有较多研究,但生成图片的指令编辑一直是难题,二次修改很难保证稳定性和生成质量。今年以来,Dalle3、Midjourney等国外公司相继推出产品化的生图编辑功能,虽然编辑生成图片的质量有所改善,但仍缺乏对用户编辑指令的精准响应和原图信息保持能力。
SeedEdit的突破之处在于其对“维持原始图像”和“生成新图像”之间的平衡的追求。 字节跳动豆包大模型团队表示,这一理念贯穿了整个模型的设计与优化过程。为了解决数据稀缺问题,SeedEdit重新设计了模型架构,并采用多模型、多尺度和多标准的数据制造方案,有效提升了数据量、多样性和质量。
SeedEdit在通用性、可控性和高质量方面取得了显著突破。 不同于以往针对单个专家任务进行优化的技术,SeedEdit作为通用的图像编辑模型,适用各类编辑任务,支持用户脑洞大开的奇思妙想。它无需再训练微调即可快捷应用,并能理解相对模糊的指令,在执行细致编辑时具有更高的图像保持率和成功率。
SeedEdit在实际应用中展现出诸多优势。 例如,在“抠图”换背景等用户最常用的图像分割任务中,SeedEdit编辑生成后的图像风格自然,无“贴图感”;在局部涂抹、编辑、添加和删除元素等任务中,SeedEdit通过语言指定,大大节省了用户涂抹的时间,尤其针对裂纹、发丝等相对精细的涂抹区域。
SeedEdit还拥有强大的语言理解能力。 基于豆包文生图大模型,SeedEdit支持中文和英文输入,还可以对中文成语和专有名词进行精准响应。下一步,SeedEdit还将开放多轮复杂编辑的功能,进一步提升用户体验。
SeedEdit的出现,将为用户带来更多便捷和乐趣。 它不仅可以帮助用户快速完成图像编辑任务,还可以激发用户的创作灵感,创造出更多有趣的内容。未来,SeedEdit将在真实图片保真、ID保持、编辑精确性、以及长时序的故事类、漫画类生成方面做进一步的优化和探索,为用户提供更强大的图像编辑工具。
关于豆包大模型
豆包大模型是字节跳动推出的通用人工智能模型,涵盖了文生图、图生图、多模态理解和生成等多种能力。SeedEdit是豆包大模型家族中的最新成员,它将进一步拓展豆包大模型的应用领域,为用户提供更丰富、更便捷的AI体验。
Views: 0