
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在日内预测交易中,选择有效的特征因子是成功的关键。上述因子涵盖了技术指标、成交量、时间序列、市场情绪和宏观经济等多个维度,每个因子都有其独特的作用和适用场景。其核心思想是通过数据分析和统计建模,发现市场中的规律和模式,并以此为基础制定交易策略。本文将由浅入深地介绍量化交易的基本概念,并探讨在日内预测交易中可能有效的特征因子及其背后的逻辑。在日内交易中,选择有效的特征因子可以帮助我们更好地预测价格走
线性注意力在处理长序列时,尽管映射后维度增加,但整体计算复杂度仍然大幅低于标准自注意力,从而显著提升了模型的可扩展性和处理效率。
本文介绍了如何利用Python库Akshare获取股票和ETF历史行情数据。
总结一下,用核函数代替softmax的本质是通过数学上的技巧,将原本需要显式计算的大矩阵分解或近似为更低维度的操作,从而在保持模型表达能力的同时,显著降低计算和内存开销。问题就在于这个QK^T矩阵,当N很大时,存储和计算它都非常昂贵。:例如,Performer模型使用了基于正交随机特征的核(FAVOR+),将Q和K映射到高维空间,从而近似softmax的结果,而无需计算完整的注意力矩阵。
在动态时序预测场景中,数据以流式形式持续生成,且潜在的数据分布漂移可能显著影响模型性能。传统批量训练模型因无法适应动态变化而逐渐失效,在线学习(Online Learning) 通过持续更新模型参数,成为解决此类问题的关键技术。
想预测一只股票或ETF未来的走势,不需要复杂的数学模型,但需要观察一些关键数据和信号。
不同应用场景的大模型微调方法选择。
使用: https://www.kaggle.com/code/bturan19/lightgbm-ranker-introduction/notebook。讨论label_gain的设置方法,可以单独设置,而且可以尝试以指数形式增长,如label_gain=[1, 2, 4, 8, 16]可以看出除了 Classifier 和 Regressor,就支持 Ranker,说明 Ranker 还是很
核心:Transformers的时序性较差,且embedding忽略变量间物理关联,而D-Linear(Decomposition-Linear),用于处理具有趋势和季节性模式的数据能够获得同样好的结果。核心:与Autoformer类似,在拆分趋势线和季节项的基础上,FEDformer使用傅里叶变换以及小波变换去加速attention模块。重点:Transformer + Patch(源于计算机视
在训练时,模型通常以固定长度的上下文窗口(如 2048)进行截断反向传播(Truncated Backpropagation Through Time, TBPTT)。当训练时输入长度为 2048,但在生成时输入一个长度为 4096 的文本时,LSTM 和 Transformer 内部会发生什么,以及它们是否能够记住最初的 2048 个 token。Transformer 的自注意力机制允许模型一