logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型部署到本地就是私有化部署吗?

大模型私有化的定义需要从部署方式和数据/模型控制权两个维度来理解,不能简单地仅以“部署位置”或“数据训练”单一条件判断。

#人工智能#深度学习#机器学习
【时序预测】-Transformer系列

核心:Transformers的时序性较差,且embedding忽略变量间物理关联,而D-Linear(Decomposition-Linear),用于处理具有趋势和季节性模式的数据能够获得同样好的结果。核心:与Autoformer类似,在拆分趋势线和季节项的基础上,FEDformer使用傅里叶变换以及小波变换去加速attention模块。重点:Transformer + Patch(源于计算机视

大语言模型(LLM)如何赋能时间序列分析?

从文本接口到世界模型,LLM正逐步深入时间序列的核心战场。尽管面临噪声敏感、计算成本等难题,但其在可解释性、少样本学习和跨模态关联方面的潜力,可能重塑时序分析的未来范式。对于从业者而言,掌握“时序特征工程+LLM提示工程”的复合技能,将成为破解工业智能化痛点的关键。

【深度学习】输入长度大于训练时输入长度会发生什么?LSTM 和 Transformer对比。

在训练时,模型通常以固定长度的上下文窗口(如 2048)进行截断反向传播(Truncated Backpropagation Through Time, TBPTT)。当训练时输入长度为 2048,但在生成时输入一个长度为 4096 的文本时,LSTM 和 Transformer 内部会发生什么,以及它们是否能够记住最初的 2048 个 token。Transformer 的自注意力机制允许模型一

#深度学习#lstm#transformer
【深度学习】Hopfield网络:模拟联想记忆

Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。

#深度学习#人工智能
大语言模型(LLM)如何赋能时间序列分析?

从文本接口到世界模型,LLM正逐步深入时间序列的核心战场。尽管面临噪声敏感、计算成本等难题,但其在可解释性、少样本学习和跨模态关联方面的潜力,可能重塑时序分析的未来范式。对于从业者而言,掌握“时序特征工程+LLM提示工程”的复合技能,将成为破解工业智能化痛点的关键。

【深度学习】Hopfield网络:模拟联想记忆

Hopfield网络是一种经典的循环神经网络,由物理学家John Hopfield在1982年提出。想象你看到一张模糊的老照片,虽然细节不清,但大脑能自动“补全”图像细节。,类似于人类大脑通过部分信息回忆完整记忆的能力。

#深度学习#人工智能
【量化交易】日内交易有效特征因子

在日内预测交易中,选择有效的特征因子是成功的关键。上述因子涵盖了技术指标、成交量、时间序列、市场情绪和宏观经济等多个维度,每个因子都有其独特的作用和适用场景。其核心思想是通过数据分析和统计建模,发现市场中的规律和模式,并以此为基础制定交易策略。本文将由浅入深地介绍量化交易的基本概念,并探讨在日内预测交易中可能有效的特征因子及其背后的逻辑。在日内交易中,选择有效的特征因子可以帮助我们更好地预测价格走

#人工智能#大数据#量化交易
【Transformer优化】核函数映射维度变大计算复杂度会变大吗?

线性注意力在处理长序列时,尽管映射后维度增加,但整体计算复杂度仍然大幅低于标准自注意力,从而显著提升了模型的可扩展性和处理效率。

【Akshare】高效下载股票和ETF数据

本文介绍了如何利用Python库Akshare获取股票和ETF历史行情数据。

#量化交易
    共 34 条
  • 1
  • 2
  • 3
  • 4
  • 请选择