谷歌发布长上下文基础模型 TimesFM-2.5
谷歌研究团队发布了timesfm-2.5,这是一个拥有2亿参数、采用纯解码器架构的时间序列基础模型。

与前代相比,TimesFM-2.5在将模型参数缩减一半的基础上,大幅延长了上下文长度,在运行效率和预测性能方面实现了重要突破。
TimesFM-2.5的核心优势包括:
- 轻量高效:参数规模降至200M,推理速度更快,同时精度进一步提升。
- 长期依赖建模:支持最高达16K长度的输入上下文,显著增强对历史数据的捕捉能力,适用于长期趋势预测。
- 性能领先:在GIFT-Eval基准测试中,该模型于点预测与概率预测任务(以MASE、CRPS为指标)均位居榜首。


目前,TimesFM-2.5已正式在Hugging Face平台开放使用,同时正逐步与BigQuery及Model Garden实现集成,有望推动零样本时间序列预测在实际业务中的广泛应用。
https://www.php.cn/link/772c1c73d4ffe88046a3cdb8772e53eb
<< 上一篇
下一篇 >>
网友留言(0 条)