正文:

近日,国家网信办起草的《人工智能生成合成内容标识办法(征求意见稿)》面向社会公开征求意见。根据该办法,AI生成合成内容将强制要求在显著位置添加“专属水印”,以遏制“换脸”诈骗等违法犯罪行为。

AI生成合成内容逼真程度高,诈骗案件数量增加

随着人工智能技术的不断发展,AI生成合成内容的逼真程度已经让普通人难以辨别。近年来,利用AI实施诈骗、侵权等违法犯罪的数量正在快速增加。其中,“AI换声”“AI换脸”诈骗案件尤为突出。

《办法》拟规定,AI生成合成内容需在显著位置作出标识

为遏制AI生成合成内容的滥用,国家网信办起草的《办法》拟规定,AI生成合成内容需在显著位置作出标识,即给它们打上“专属水印”。具体来说,对于AI生成合成的音频、视频、文本、图片等信息,都将在起始、末尾或中间适当位置添加语音提示、文字提示等标识。

此举有助于提高AI生成合成内容的透明度,降低老百姓遭AI诈骗的风险

专家表示,通过规范标识可以帮助公众准确区分AI生成合成内容与人类创作内容,提升信息透明度,维护信息生态的真实性,保障公众的知情权。同时,标识还可追溯生成内容的来源,明确责任主体,降低虚假宣传、欺诈等社会风险。

《办法》明确责任主体和义务,确保标识要求落地

《办法》对服务提供者、网络信息内容传播平台的服务提供者、互联网应用程序分发平台、用户分别规定相应的责任义务。例如,服务提供者需在生成合成内容时主动添加标识,执行强制性国家标准;网络信息内容传播平台需承担核验标识的责任;用户在上传生成合成内容时,应当主动声明并使用平台提供的标识功能作出标识。

标识作用有限,还需完善法律法规和行业自律

虽然标识有助于防范AI生成合成内容的风险,但其作用有限。专家建议,要真正规避风险,还需细化法律法规,建立行业自律标准,如明确界定法律责任,特别是版权、隐私保护等问题;推动行业自律,建立统一的技术标准和伦理准则,引导企业合理合法使用AI技术。

总结

AI生成合成内容标识办法的出台,对于遏制“换脸”诈骗等违法犯罪行为具有重要意义。但要想真正降低风险,还需各方共同努力,完善法律法规和行业自律,共同构建一个健康、安全的AI应用环境。


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注