OpenAI 和 Anthropic 同意将新模型提交美国政府安全评估
IT之家 8 月 30 日消息,人工智能公司 OpenAI 和 Anthropic 已同意允许美国政府在发布重大新的人工智能模型之前访问这些模型,以帮助提高其安全性。这一举措标志着人工智能安全监管的重大进展,也表明两家公司对负责任地开发和部署人工智能的承诺。
美国人工智能安全研究所(US AISafety Institute)周四宣布,OpenAI 和 Anthropic 已与该研究所签署了谅解备忘录,承诺在模型公开发布之前和之后提供访问权限。该研究所表示,此举将帮助他们共同评估安全风险并缓解潜在问题,并与英国的对应机构合作,就安全改进提供反馈。
OpenAI 首席战略官 Jason Kwon 表示:“我们非常支持美国 AI 安全研究所的使命,并期待一起合作,制定AI 模型的安全最佳实践和标准。我们相信,该研究所在确保美国在负责任开发 AI 方面的领导地位上扮演着关键角色。我们期望通过与研究所的合作,能为全球提供一个可以借鉴的框架。”
Anthropic 公司联合创始人兼政策负责人 Jack Clark 也强调了测试 AI 模型的重要性:“确保 AI 安全可靠对于让这项技术带来积极影响是至关重要的。通过这样的测试和合作,可以更好地发现和减少 AI 带来的风险,推动负责任的 AI 发展。我们为能够参与这项重要工作感到自豪,并希望为 AI 的安全性和可信度设立新的标准。”
这一合作是在联邦和州立法机构正在考虑如何对人工智能技术设置限制而不扼杀创新的背景下进行的。周三,加利福尼亚州立法者通过了《前沿人工智能模型安全创新法案》(SB 1047),要求加利福尼亚州的人工智能公司在训练先进的基础模型之前采取特定的安全措施。这一法案引发了包括 OpenAI 和 Anthropic 在内的人工智能公司的反对,他们警告称这可能会伤害较小的开源开发人员。尽管该法案已经进行了修改,但仍需等待加利福尼亚州州长加文・纽瑟姆的签署。
与此同时,美国白宫一直在努力从主要公司那里获得关于人工智能安全措施的自愿承诺。几家领先的 AI 公司已经做出非约束性承诺,投资于网络安全和歧视研究,并致力于对人工智能生成的内容进行水印标记。
美国人工智能安全研究所所长伊丽莎白・凯利在一份声明中表示,这些新的协议只是“开始,但它们是我们努力帮助负责任地管理人工智能未来的一个重要里程碑”。
这一合作的意义在于:
- 加强人工智能安全监管: OpenAI 和 Anthropic 同意将新模型提交美国政府安全评估,表明了他们对人工智能安全性的重视,也为人工智能安全监管提供了新的模式。
- 促进人工智能负责任发展: 通过与政府合作,OpenAI 和 Anthropic 可以更有效地识别和解决人工智能带来的潜在风险,推动人工智能的负责任发展。
- 建立全球人工智能安全标准: 此次合作也为全球其他国家和地区制定人工智能安全标准提供了参考,有助于推动全球人工智能安全治理的进程。
尽管目前还无法确定这些协议将如何具体实施,但它们无疑是人工智能安全领域的重要进展。随着人工智能技术的不断发展,加强人工智能安全监管和促进人工智能负责任发展将变得越来越重要。
Views: 0