logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大语言模型(LLM)如何赋能时间序列分析?

从文本接口到世界模型,LLM正逐步深入时间序列的核心战场。尽管面临噪声敏感、计算成本等难题,但其在可解释性、少样本学习和跨模态关联方面的潜力,可能重塑时序分析的未来范式。对于从业者而言,掌握“时序特征工程+LLM提示工程”的复合技能,将成为破解工业智能化痛点的关键。

【深度学习】输入长度大于训练时输入长度会发生什么?LSTM 和 Transformer对比。

在训练时,模型通常以固定长度的上下文窗口(如 2048)进行截断反向传播(Truncated Backpropagation Through Time, TBPTT)。当训练时输入长度为 2048,但在生成时输入一个长度为 4096 的文本时,LSTM 和 Transformer 内部会发生什么,以及它们是否能够记住最初的 2048 个 token。Transformer 的自注意力机制允许模型一

#深度学习#lstm#transformer
【深度学习】Hopfield网络:模拟联想记忆

Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。

#深度学习#人工智能
大语言模型(LLM)如何赋能时间序列分析?

从文本接口到世界模型,LLM正逐步深入时间序列的核心战场。尽管面临噪声敏感、计算成本等难题,但其在可解释性、少样本学习和跨模态关联方面的潜力,可能重塑时序分析的未来范式。对于从业者而言,掌握“时序特征工程+LLM提示工程”的复合技能,将成为破解工业智能化痛点的关键。

【时序预测】在线学习:算法选择(从线性模型到深度学习解析)

在动态时序预测场景中,数据以流式形式持续生成,且潜在的数据分布漂移可能显著影响模型性能。传统批量训练模型因无法适应动态变化而逐渐失效,在线学习(Online Learning) 通过持续更新模型参数,成为解决此类问题的关键技术。

【深度学习】Hopfield网络:模拟联想记忆

Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。

#深度学习#人工智能
【深度学习】输入长度大于训练时输入长度会发生什么?LSTM 和 Transformer对比。

在训练时,模型通常以固定长度的上下文窗口(如 2048)进行截断反向传播(Truncated Backpropagation Through Time, TBPTT)。当训练时输入长度为 2048,但在生成时输入一个长度为 4096 的文本时,LSTM 和 Transformer 内部会发生什么,以及它们是否能够记住最初的 2048 个 token。Transformer 的自注意力机制允许模型一

#深度学习#lstm#transformer
【深度学习】Hopfield网络:模拟联想记忆

Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。

#深度学习#人工智能
【已解决】lxml.etree.ParserError: Document is empty

解决 lxml.etree.ParserError: Document is empty 错误的推荐方法是重新安装与Python版本兼容的 lxml

#python#爬虫
【异常检测】极值理论(EVT)比正态分布好在哪?

极值理论(EVT)与正态分布在计算概率时的核心区别在于,EVT专注于建模极端值(尾部事件)的分布特性,而正态分布更适合描述“典型”数据的集中趋势。

    共 37 条
  • 1
  • 2
  • 3
  • 4
  • 请选择