Google AI 在Hugging Face 上发布了 TimesFM-2.0,准确率和最大上下文长度都比1.0有显著提升。
这里面有趣的是"时间序列基础模型"这个技术,用于时间序列预测的预训练时间序列基础模型。主要用于预测未来的股票走势、公司业绩等。
以下内容来自Google 24年5月的Blog内容,可以理解这种模型的特点:
★ 为何需要时间序列预测基础模型?
时间序列预测在零售、金融、制造、医疗等领域至关重要,例如零售业中提升需求预测精度能够显著降低库存成本并增加收入。
虽然深度学习模型(DL)在预测复杂多变量时间序列数据方面表现出色,但传统方法仍面临以下挑战:
1. 高昂的训练与验证成本:大多数DL模型在应用到新时间序列数据前需要复杂的调试和训练。
2. 部署延迟:无法快速进行零样本预测以满足即时需求。
TimesFM 的优势:无需额外训练,即可对未见时间序列数据提供高质量预测,使用户专注于具体下游任务(如零售需求规划)。
★ 模型架构与创新
TimesFM 架构核心:借鉴语言模型的解码器设计,使用堆叠的 Transformer 层。
- 输入处理:将连续的时间点集合(称为“时间块”)作为“Token”,输入到 Transformer 中。
- 输出灵活性:能够预测比输入时间块更长的未来时间点,显著减少生成步骤,提高预测准确性。
关键创新:
1. 使用多层感知机(MLP)将时间块转换为 Transformer 可处理的 Token。
2. 输出时间块长度可大于输入时间块长度,适合长时间跨度预测。
示例:
- 训练时:模型使用前 32 个时间点预测未来 128 个时间点,并逐步增加输入范围以预测更长时间段。
- 推理时:模型可基于输入时间点及已生成的预测结果进行多步预测。
项目:github.com/google-research/timesfm
#ai创造营##chatgpt#ChatGPT
这里面有趣的是"时间序列基础模型"这个技术,用于时间序列预测的预训练时间序列基础模型。主要用于预测未来的股票走势、公司业绩等。
以下内容来自Google 24年5月的Blog内容,可以理解这种模型的特点:
★ 为何需要时间序列预测基础模型?
时间序列预测在零售、金融、制造、医疗等领域至关重要,例如零售业中提升需求预测精度能够显著降低库存成本并增加收入。
虽然深度学习模型(DL)在预测复杂多变量时间序列数据方面表现出色,但传统方法仍面临以下挑战:
1. 高昂的训练与验证成本:大多数DL模型在应用到新时间序列数据前需要复杂的调试和训练。
2. 部署延迟:无法快速进行零样本预测以满足即时需求。
TimesFM 的优势:无需额外训练,即可对未见时间序列数据提供高质量预测,使用户专注于具体下游任务(如零售需求规划)。
★ 模型架构与创新
TimesFM 架构核心:借鉴语言模型的解码器设计,使用堆叠的 Transformer 层。
- 输入处理:将连续的时间点集合(称为“时间块”)作为“Token”,输入到 Transformer 中。
- 输出灵活性:能够预测比输入时间块更长的未来时间点,显著减少生成步骤,提高预测准确性。
关键创新:
1. 使用多层感知机(MLP)将时间块转换为 Transformer 可处理的 Token。
2. 输出时间块长度可大于输入时间块长度,适合长时间跨度预测。
示例:
- 训练时:模型使用前 32 个时间点预测未来 128 个时间点,并逐步增加输入范围以预测更长时间段。
- 推理时:模型可基于输入时间点及已生成的预测结果进行多步预测。
项目:github.com/google-research/timesfm
#ai创造营##chatgpt#ChatGPT