“幻觉”还是“废话”?重新理解大语言模型的输出错误
大语言模型(LLMs)如 OpenAI 的 ChatGPT 正在深刻改变着人工智能与人类互动的方式,其生成的文本常常让人难以分辨是机器还是人类所写。然而,这些模型的输出却常常存在明显的不准确性,这些错误通常被称为“AI 幻觉”。
最近,格拉斯哥大学的学者 Michael Townsen Hicks、JamesHumphries 和 Joe Slater 在《伦理与信息技术》杂志上发表论文,提出这些错误更应被视为“废话”而非“幻觉”。 他们认为,大语言模型的主要任务是生成与人类语言相似的文本,而非理解或传达事实。因此,将这些模型产生的错误称为“幻觉”实际上是一个误导性的隐喻,因为它暗示了 AI 拥有感知和传达真相的意图。
学者们引用了哲学家 Harry Frankfurt 对“废话”的定义:与说谎者不同,废话制造者并不在意所说内容的真假,只关心其能否达到某种效果。 按照这一标准,LLMs 更像是“废话制造者”,因为它们只关心生成的文本是否符合人类语言模式,而不在意其真实性。
这一论点的重要性在于,它改变了我们理解和应对 LLMs 错误的方式。 如果我们认为这些错误是“幻觉”,可能会错误地认为 AI 试图传达某种被误解的信息。而实际上,LLMs 只是在统计模式下生成看似合理的文本,没有任何内在的机制来确保事实准确性。
这种误解可能会导致技术领域内对这些工具能力的过度炒作,以及公众对其功能的不必要担忧。 OpenAI 也认识到了这一问题,并在努力提高 ChatGPT 的事实准确性。该公司在 2023 年的一篇博客中指出,通过利用用户反馈,GPT-4 的事实准确性比 GPT-3.5 提高了 40%。
然而,学者们强调,仅仅提高准确性还不够,真正需要的是正确理解和传播这些 AI 工具的局限性。 他们认为,将 AI 生成的错误称为“幻觉”不仅不准确,还可能导致错误的解决方案和 AI 对齐策略的制定。
与其迷信 AI 具备感知和理解能力,不如正视其“废话制造者”的本质,避免对这些技术的错误期望。 只有正确理解 LLMs 的局限性,才能更好地利用这些工具,并避免因其错误输出而产生不必要的恐慌和误解。
格拉斯哥大学的 Michael Townsen Hicks 总结道:“将聊天机器人生成的不准确信息称为‘幻觉’,助长了科技爱好者对其能力的夸大宣传,同时也可能在公众中引发不必要的担忧。”
这一研究结果提醒我们,在拥抱人工智能技术的同时,也需要保持理性和客观的态度,避免对这些工具抱有不切实际的期望。 只有正确理解和使用这些工具,才能真正发挥其潜力,并将其应用于更广泛的领域。
Views: 0