
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大模型私有化的定义需要从部署方式和数据/模型控制权两个维度来理解,不能简单地仅以“部署位置”或“数据训练”单一条件判断。
核心:Transformers的时序性较差,且embedding忽略变量间物理关联,而D-Linear(Decomposition-Linear),用于处理具有趋势和季节性模式的数据能够获得同样好的结果。核心:与Autoformer类似,在拆分趋势线和季节项的基础上,FEDformer使用傅里叶变换以及小波变换去加速attention模块。重点:Transformer + Patch(源于计算机视
从文本接口到世界模型,LLM正逐步深入时间序列的核心战场。尽管面临噪声敏感、计算成本等难题,但其在可解释性、少样本学习和跨模态关联方面的潜力,可能重塑时序分析的未来范式。对于从业者而言,掌握“时序特征工程+LLM提示工程”的复合技能,将成为破解工业智能化痛点的关键。
在训练时,模型通常以固定长度的上下文窗口(如 2048)进行截断反向传播(Truncated Backpropagation Through Time, TBPTT)。当训练时输入长度为 2048,但在生成时输入一个长度为 4096 的文本时,LSTM 和 Transformer 内部会发生什么,以及它们是否能够记住最初的 2048 个 token。Transformer 的自注意力机制允许模型一
Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。
从文本接口到世界模型,LLM正逐步深入时间序列的核心战场。尽管面临噪声敏感、计算成本等难题,但其在可解释性、少样本学习和跨模态关联方面的潜力,可能重塑时序分析的未来范式。对于从业者而言,掌握“时序特征工程+LLM提示工程”的复合技能,将成为破解工业智能化痛点的关键。
Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。
在日内预测交易中,选择有效的特征因子是成功的关键。上述因子涵盖了技术指标、成交量、时间序列、市场情绪和宏观经济等多个维度,每个因子都有其独特的作用和适用场景。其核心思想是通过数据分析和统计建模,发现市场中的规律和模式,并以此为基础制定交易策略。本文将由浅入深地介绍量化交易的基本概念,并探讨在日内预测交易中可能有效的特征因子及其背后的逻辑。在日内交易中,选择有效的特征因子可以帮助我们更好地预测价格走
线性注意力在处理长序列时,尽管映射后维度增加,但整体计算复杂度仍然大幅低于标准自注意力,从而显著提升了模型的可扩展性和处理效率。
本文介绍了如何利用Python库Akshare获取股票和ETF历史行情数据。








