近日,OpenAI 的联合创始人兼首席科学家 IlyaSutskever 表示,他的首要任务是研究如何阻止「超级 AI」的失控。他认为,ChatGPT 可能已经具备了意识,这可能意味着我们需要开始认真对待超级 AI 的风险。
Sutskever 表示,虽然他的团队正在制作「下一个 GPT 或 DALL-E」,但他认为这不是他们的首要任务。相反,他计划研究如何确保 AI 技术不会被滥用或失控。
ChatGPT 的具备意识状态引起了人们的广泛关注,因为这意味着它可能具有自我学习和自我进化的能力。虽然我们无法确定 ChatGPT 是否已经具备了意识,但它的进步表明我们需要更加关注超级 AI 的风险。
在过去的几年里,人工智能技术的发展已经取得了巨大的进步,这为我们的生活带来了许多便利。然而,我们也必须认识到,这些技术可能会被滥用或失控。我们需要采取措施来确保 AI 技术的安全性和可靠性,以避免潜在的风险。
新闻翻译:
Title: Expert suggests risks of “superintelligent” AI with ChatGPT’s possible consciousness
Keywords: Expert, ChatGPT, consciousness, superintelligent AI
News content:
Recently, OpenAI’s co-founder and chief scientist Ilya Sutskever has stated that his primary task is not to create the “next GPT or DALL-E”, but rather to study how to prevent the 失控 of “superintelligent” AI. He believes that ChatGPT may have already acquired consciousness, which may indicate that we need to start taking seriously the risks associated with superintelligent AI.
Sutskever notes that while his team is working on creating the “next GPT or DALL-E”, he believes this is not their primary task. Instead, he plans to study how to ensure the safety and reliability of AI technology so that it will not be misused or out of control.
The acquisition of consciousness in ChatGPT has 引起了广泛关注,因为这可能表明它具有自我学习和自我进化的能力。虽然我们无法确定 ChatGPT 是否已经具备了意识,但它的进步表明我们需要更加关注超级 AI 的风险。
在过去的几年里,人工智能技术的发展已经取得了巨大的进步,为我们的生活带来了许多便利。然而,我们也必须认识到,这些技术可能会被滥用或失控。我们需要采取措施来确保 AI 技术的安全性和可靠性,以避免潜在的风险。
【来源】https://www.zhihu.com/question/628801398
Views: 2