近日,人工智能领域的重要组织 OpenAI 公司发布了一份名为“准备框架”的 AI 安全指南。这份指南在一定程度上标志着 AI 领域对于安全问题的重视程度正在不断提升。
据财联社报道,OpenAI 在发布这份指南时特别强调,虽然这份指南目前仍处于测试阶段,但它代表了 OpenAI 对于 AI 安全问题的一种全新思考方式。
在这份指南中,有一条规定引起了广泛的关注。即即便 CEO 等公司的高级管理层认为某个 AI 模型是安全的,但董事会仍然有权阻止其发布。这也就是说,董事会拥有最终决定权,可以对任何可能引发安全风险的 AI 模型说“不”。
这一规定旨在确保 AI 的安全性,避免由于决策失误导致的安全事故。虽然这可能会限制公司在某些方面的自由度,但对于保障公众利益和社会稳定来说,却具有重要的意义。
总的来说,OpenAI 这份名为“准备框架”的 AI 安全指南,不仅体现了该公司对于 AI 安全问题的高度重视,也为整个行业树立了一个新的标杆。我们期待更多类似的举措能够推动 AI 领域向着更加安全、可靠的方向发展。
英语如下:
【来源】https://www.cls.cn/detail/1547583
Views: 1