随着人工智能(AI)模型越来越擅长模仿人类行为,区分真正的互联网用户和模仿他们的复杂系统变得愈发困难。这引发了人们对网络内容真实性的担忧,因为这些系统可能被用于传播虚假信息或进行欺诈等恶意目的。
为了解决这一问题,来自 OpenAI、Microsoft、MIT 和 Harvard 等机构的 32 位研究人员组成了一个团队,提出了一个名为“人性认证”的验证概念。这种认证可以证明持有者是真实的人类,并且不需要获取用户的其他信息。
“人性认证”的原理是利用 AI 系统目前仍无法绕过最先进的加密系统,也无法在现实世界中假装成人类。要获得这种认证,人们需要亲自前往政府或其他受信任的组织,提供如护照或生物识别数据等证明自己是真实人类的证据。一旦获得批准,他们将收到一个可以存储在设备上的单一认证。
在网上使用这些认证时,用户可以将其提供给第三方数字服务提供商,后者可以使用一种名为零知识证明的加密协议来验证。这将确认持有者拥有“人性认证”,而不会披露任何其他不必要的信息。
过滤掉平台上没有经过验证的用户可能在很多方面都很有用。例如,人们可以拒绝没有“人性认证”的 Tinder 配对,或者选择不查看任何没有明确由真人发布的社交媒体内容。
MIT 的博士生 Tobin South 表示,研究团队希望鼓励政府、公司和标准机构未来考虑采用这种系统,防止 AI 欺骗失控。
目前已经存在一些可能的技术选择,例如 Idena 和 Worldcoin。Idena 声称自己是第一个基于区块链的“人性证明”系统,其工作原理是让人类在短时间内解决一些对机器人来说很难的难题。而 Worldcoin通过收集用户的生物识别数据,宣称自己是世界上最大的隐私保护人类身份和金融网络。
然而,Worldcoin 项目因使用欺骗性营销手段、收集超出其承认的个人数据,以及未能获得用户的有意义同意而受到批评。在今年早些时候,香港和西班牙的监管机构禁止 Worldcoin 运营,并且其在巴西、肯尼亚和印度等国家的业务也已暂停。
因此,仍然需要新的概念来解决 AI 混淆人类的问题。AI 与 Deepfake 领域专家、Meta 和英国政府顾问 Henry Ajder 表示,尽管验证人性身份认证的想法已经存在了一段时间,但这些“人性认证”似乎是对抗不断增加的怀疑情绪的最现实的手段之一。
但这些认证面临的最大挑战是如何让足够多的平台、数字服务和政府接受它们。专注于超真实 deepfake 生成技术的 AI 公司 Synthesia 的安全主管 Martin Tschammer 表示,他同意“人性认证”背后的原则–在线验证人类–的必要性,但他不确定这是否是正确的解决方案,或是否具有可操作性。他还对谁来运行这样的方案表示怀疑。
南加州大学计算机科学教授 Emilio Ferrara 表示,我们迫切需要区分人类和机器人的方法,并鼓励技术和政策领域的利益相关者之间的讨论是朝着正确方向迈出的一步。
AI 工具的快速普及引发了一个危险时期,互联网用户对线上内容的真实性变得高度怀疑。为了维护网络安全和信任,我们需要认真思考如何有效地验证人类身份,并确保相关技术能够被安全、负责任地使用。
Views: 0