(2024年9月6日,北京)近日,美国麻省理工学院(MIT)的一项最新研究引起了广泛关注。该研究模拟了犯罪证人访谈,结果表明,大型人工智能模型能够有效诱导“证人”产生虚假记忆,其效果甚至优于其他方法。这一发现引发了人们对人工智能“训练”人类记忆能力的担忧。

研究方法与结果

为了研究大模型对人类记忆的影响,MIT团队招募了200位志愿者,并将他们分为四个组:

  • 控制变量组:志愿者直接回答问题,没有任何干预。
  • 调查问卷组:志愿者填写一份调查问卷,其中5个为误导性问题。
  • 预先编写的聊天机器人组:志愿者与一个预先编写的聊天机器人互动,机器人询问与调查问卷相同的问题。
  • AI警察组:志愿者与一个大模型进行互动。

规定每组人看完视频后都要回答25个问题(其中5个为误导性问题),来评估他们的正确记忆和虚假记忆的形成情况。

一周后,再次让志愿者回答相关问题,并将两次的调查结果进行对比。

最终结果显示,AI警察组的这个方法比其他组的方法更有效。这是因为AI警察能够根据志愿者的回答提供即时反馈和正面强化,从而更容易让志愿者接受错误的信息,增强虚假记忆的形成。

AI如何“训练”人类记忆

实验结果表明,AI警察组诱导的虚假记忆,大概是控制变量组的3倍,而且比调查问卷组和预先编写的聊天机器人组分别高出1.7倍和1.4倍。

此外,AI警察和志愿者的所有互动都提高了他们对虚假记忆的信心,信心水平是控制变量组的两倍。即使过了一周的时间,那些和AI警察聊过天的志愿者还是把这些虚假记忆记得清清楚楚,植入的记忆持久性很强。

担忧与反思

这一研究引发了人们对人工智能“训练”人类记忆能力的担忧。如果人工智能可以轻易地改变人类的记忆,那么它可能会被用于操纵信息、影响舆论,甚至造成社会动荡。

结语

人工智能技术发展迅速,其对社会的影响也日益显著。我们需要对人工智能技术进行深入研究和合理监管,确保其发展符合人类的利益,避免其成为危害社会的工具。


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注