logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

PYTHON前端几个框架的比较

一、概述  我准备做一个个人站,把这些年积累的文章整理下、汇总下,最近python用的多,就想看看万能的python现在能不能做网站了,后台当然我们知道是有的,前端之前是没有的,结果这一搜还真有了几个框架  Streamlit、Brython、remi、pywebio  我的需求就是常规个人站,然后需要绘制一些图表,需要绘制K线,我就按这个需求来比较下这几个框架那个更合适。不过也可以先搞个简单的架

#前端#python
pygame播放视频并实现音视频同步

但上述两个方案都存在“音画同步”的问题,因为无论是opencv还是moviepy都只负责将视频切片成帧,播放则是pygame自己在执行一个while循环来不停切换界面上展示出来的图片帧,这也就导致while循环很快就将帧播放完毕,而音频则还按着原有节奏缓慢播放。上述两个方案其实都是先将mp4的视频分离成“画面帧”和“mp3音频”,所谓的播放实际上是不停地在切换“画面帧”,同时播放音频,最终实现音视

文章图片
#pygame#音视频#python
【零基础】神经网络优化之dropout和梯度校验

一、序言  dropout和L1、L2一样是一种解决过拟合的方法,梯度检验则是一种检验“反向传播”计算是否准确的方法,这里合并简单讲述,并在文末提供完整示例代码,代码中还包含了之前L2的示例,全都是在“深层神经网络解析”这篇基础之上修改的。二、dropout  简单来说dropout就是在每次训练时“随机”失效网络中部分神经元,大概就是下图这么个意思。  让神经元随机消失...

#深度学习#神经网络
【零基础】神经网络优化之动量梯度下降

一、序言  动量梯度下降也是一种神经网络的优化方法,我们知道在梯度下降的过程中,虽然损失的整体趋势是越来越接近0,但过程往往是非常曲折的,如下图所示:  特别是在使用mini-batch后,由于单次参与训练的图片少了,这种“曲折”被放大了好几倍。前面我们介绍过L2和dropout,它们要解决的也是“曲折”的问题,不过这种曲折指的是求得的W和b过于拟合训练数据,导致求解曲线很曲折...

#深度学习#神经网络
TICK回测研究四,合成K线的问题分析

概述K线合成是指将原始的TICK数据按时间范围进行汇总,如下表所示的TICK数据,时间价格成交量2021年11月15日09点13分22秒000毫秒19212021年11月15日09点13分22秒250毫秒19022021年11月15日09点13分22秒500毫秒1

#云计算
TICK回测二:数据如何存储

一、概述  前一节讲了如何用极星每日批量获取TICK数据,并存到CSV文件,存储格式是:  【合约编号,时间戳,最新价】  比如:ZCE|F|AP|112,20211102145321750,8035.0  交易日11月2日,跑了ZCE全部198个合约,得到了676569条记录,CSV文件25M  交易日11月3日,跑了ZCE全部198个合约,得到了755613条记录,CSV文件28M  如果以此

#python#回测
【零基础】看懂神经网络中的反向传播

一、序言  反向传播在神经网络中用于优化权重w和阈值b,是神经网络优化的核心算法。经过数日的学习终于看明白了一点反向传播的原理,这里作文记录心得。  本文先介绍一下基本的数学计算方法,然后根据“损失计算公式”推导出优化参数的反向传播方法。二、基本数学原理  神经网络中优化参数w、b的方法称为反向传播,反向传播的具体实施方法称为“梯度下降”,梯度下降涉及两个基本的数学知识:求导、链式...

#深度学习#神经网络
【零基础】神经网络优化之Adam

一、序言  Adam是神经网络优化的另一种方法,有点类似上一篇中的“动量梯度下降”,实际上是先提出了RMSprop(类似动量梯度下降的优化算法),而后结合RMSprop和动量梯度下降整出了Adam,所以这里我们先由动量梯度下降引申出RMSprop,最后再介绍Adam。不过,由于RMSprop、Adam什么的,真的太难理解了,我就只说实现不说原理了。二、RMSprop  先回顾一下动量梯...

#神经网络#深度学习
【零基础】神经网络优化之L1、L2

一、序言  前面的文章中,我们逐步从单神经元、浅层网络到深层网络,并且大概搞懂了“向前传播”和“反向传播”的原理,比较而言深层网络做“手写数字”识别已经游刃有余了,但神经网络还存在很多问题,比如最常见的两个问题:“过拟合”和“欠拟合”,下图中从左到右依次是“欠拟合”、“刚刚好”、“过拟合”。  简单点说,欠拟合是我们学习到的w没能很好地“满足”训练数据的特征,一般是因为训练数据...

#神经网络#深度学习
【零基础】极星量化入门七:简单的boll回测

一、前言  虽然极星9.5量化自带了一个boll回测的策略,但缺少一些说明,这里我就把回测说的详细点供大家回测时参考  二、代码修改  原生的代码自然不符合我们期望,所以做一些修改。  1、合约订阅和触发方式全部在代码里实现  只是习惯问题,而且要避免重复设置导致的不可预测问题。  所以在启动时的属性设置页面啥都不要选,默认选择的能取消的就取消掉。......

    共 24 条
  • 1
  • 2
  • 3
  • 请选择