“智能向善”:大模型时代视觉安全治理的探索与实践
引言: 2024年,《咬文嚼字》杂志将“智能向善”列为年度十大流行语,这反映了公众对人工智能技术发展既期待又担忧的复杂情绪。深度伪造、AI诈骗等事件频发,AI技术的“野蛮生长”迫切需要有效的安全治理机制。近期,由中国计算机学会计算机视觉专委会(CCF-CV)主办,合合信息承办的《打造大模型时代的可信AI》论坛,为探寻AI安全治理之路提供了宝贵的视角。
主体:
一、 AI安全治理:框架与挑战
今年9月发布的《人工智能安全治理框架》指出,AI风险既源于技术自身缺陷,也源于恶意使用。论坛专家们从立法、监管、技术和实践等多维度探讨了这一问题。上海交通大学人工智能研究院教授金耀辉指出,大模型安全保障需要从“训练对齐、提示引导和文本过滤”三个方面入手,将抽象的安全概念转化为具体的技术流程。 这强调了技术手段在AI安全治理中的关键作用。
然而,中国电子标准院网安中心测评实验室副主任何延哲指出,当前人工智能安全检测主要停留在内容安全层面,方法单一。他提出的六方面综合评估框架——算力网络安全、数据安全、个人信息保护、算法模型安全、网络信息安全和科技伦理安全——为更全面的安全评估提供了参考,也指明了标准引领技术发展方向的重要性。
二、 视觉安全:技术攻防与创新
随着OpenAI发布Sora等AI视频生成模型,合成图像伪造风险日益突出。中国科学技术大学教授谢洪涛介绍了主动防御(例如双重水印技术)和被动检测(图像级和时空身份不一致性检测)两种治理方案,强调了在视频生成和传播过程中嵌入“看不见”的保护措施的重要性。
合合信息图像算法研发总监郭丰俊分享了其团队基于神经网络模型的图像篡改检测方案,该方案在国际竞赛中获得冠军,但他也指出了当前文档类图像篡改检测面临的挑战,例如跨域泛化能力不足和抗压缩能力弱等问题。 大模型技术的进步为解决这些挑战提供了新的机遇。
中国科学院自动化研究所研究员赫然博士则从深度合成技术的角度出发,分析了虚拟身份、身份重演和人脸驱动等合成技术类型,并介绍了基于多模态多线索的鉴伪方法,例如利用模型指纹、图像拼接线索和时序闪烁线索等。 这体现了人工智能鉴别与合成技术相互博弈、密不可分的特点。
三、 产学研合作:构建可信AI生态
本次论坛是产学研合作探索AI安全治理的一次成功尝试。 来自高校、科研院所和企业的专家们共同探讨了AI安全治理的各个方面,展现了多方合作的重要性。 合合信息等企业积极参与其中,也体现了企业在推动AI安全发展中的责任和担当。 未来,持续深化产学研合作,建立健全的AI安全治理体系至关重要。
结论:
“智能向善”并非一句空洞的口号,而是需要技术创新、规范管理和社会共治共同努力才能实现的目标。 本次论坛展示了在大模型时代下,视觉安全治理面临的挑战和机遇。 通过技术手段的不断完善、规范标准的制定和实施以及产学研的紧密合作,我们可以共同构建一个更加安全可靠、可信赖的人工智能生态系统,确保AI技术真正造福人类。
参考文献:
(由于无法直接访问提供的链接和图片,无法提供具体的参考文献格式。 实际撰写时,需要根据论坛资料、专家发言和相关报道补充完整的参考文献,并采用统一的引用格式,例如APA或MLA。)
Views: 0