根据您提供的信息,以下是一篇新闻稿的草稿,它将概括并传达上述信息的关键点:
标题:图像模型 VisionTS 跨界挑战时序预测,无需微调即可比肩顶级模型
正文:
近日,浙江大学和 Salesforce 亚洲研究院的学者们提出了一种创新的时间序列预测框架 VisionTS,该框架基于计算机视觉模型 MAE(Masked Autoencoders),在无需对时间序列数据进行微调的情况下,实现了与顶级时序预测模型相媲美甚至超越的性能。
这项研究由浙江大学计算机四年级博士生陈谋祥担任第一作者,Salesforce 亚洲研究院高级科学家刘成昊担任通讯作者。研究工作得到了浙江大学、道富科技和 Salesforce 的共同支持。
过去的研究尝试将大语言模型(LLM)应用于时序预测,但效果并不理想。与此不同,浙大和 Salesforce 的研究团队发现,图像模型在时序预测领域具有潜在的迁移能力。VisionTS 框架正是基于这一发现,它将时间序列数据转化为图像形式,利用 MAE 模型进行预测。
VisionTS 的核心优势在于其能够直接从自然图像(如 ImageNet)中预训练,而不需要对时间序列数据进行额外的微调。实验结果表明,VisionTS 在涵盖多个领域的 35 个基准数据集上表现出色,其预测性能甚至超过了专门为时序预测设计的模型,如 Moirai 和 TimesFM。
这项研究不仅证明了计算机视觉和时间序列预测之间的密切联系,也展示了图像模型在处理连续数据方面的潜力。VisionTS 的成功表明,图像→时间序列的迁移能力要强于文本→时间序列,为时序预测领域提供了新的研究方向。
论文题目为“VisionTS: Visual Masked Autoencoders Are Free-Lunch Zero-Shot Time Series Forecasters”,已发表在 arXiv 专栏上,并提供了代码仓库供社区进一步研究。
随着人工智能技术的不断发展,VisionTS 的提出为时间序列预测领域带来了新的视角和方法,有望推动该领域的研究和应用向前发展。
请注意,新闻稿的撰写需要根据实际的研究内容和细节进行调整,以确保信息的准确性和完整性。此外,新闻稿的风格和长度可能需要根据发布平台的特定要求进行修改。
Views: 0