logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

使用Google大模型Bard(PaLM)理解时间序列预测模型ARIMA

使用Bard来学习的体验不错,和之前使用GPT学习知识的效果差不多,用来理解数理知识点的原理很实用,推荐多使用。它不能回答中文也未必是坏事,可以强迫在学习中使用英文语境。Google Bard的新模型使用的是PaLM,暂时不支持中文,本次测试使用Bard模型来辅助理解一个时间序列预测模型ARIMA。

文章图片
#逻辑回归
证明与计算(7): 有限状态机(Finite State Machine)

什么是有限状态机(Finite State Machine)?什么是确定性有限状态机(deterministic finite automaton, DFA )?什么是非确定性有限状态机(nondeterministic finite automaton, NDFA, NFA)?[1] wiki-en: Finite state machine[2] wiki-zh-cn: Finit...

#算法#python#java +2
开源小项目:pyouter 0.0.1 发布

发布一个业余开源小项目 pyouter 。python Github 仓库:https://github.com/fanfeilong/task_routerpip 包安装:https://pypi.org/project/pyouter/0.0.1contributors: @幻灰龙 @ccat传统的命令行参数一般会设计 -x, --xxx这样的命令解析。一个痛点是命令多了之后就难以记忆和使用。

文章图片
#python
证明与计算(3): 二分决策图(Binary Decision Diagram, BDD)

0x01 布尔代数(Boolean algebra)大名鼎鼎鼎的stephen wolfram在2015年的时候写了一篇介绍George Boole的文章:George Boole: A 200-Year View。怎样用数学公理重新表达经典逻辑?George Boole在19世纪的时候开始思考这件事,在他的书《The Mathematical Analysis of Logic》里面Geo...

#算法#java#数据结构 +2
炼金术(5): 区分前端开发/客户端开发/后端开发/核心开发

前端开发,指只做过HTML、CSS、JavaScript以及具备使用在此基础上构建的各种Web类型的UI框架开发的能力,例如React、Vue、Elm等Web框架,同时对NodeJS生态下的Gulp、Webpack等打包工具链、有所熟悉。前端开发人员还需要对PC端网页渲染、移动端网页渲染,或响应式渲染有所熟悉。必要的,前端开发人员还需要熟悉微信开发、微信环境的H5开发、以及各种小程序的开发等。..

文章图片
#java#面试#编程语言 +1
云原生选题

云原生选题推荐,持续更新…云原生技能树直接选题云原生技能树直接需要的选题,希望完整,有体系,优质文章会直接采纳作为云原生技能树相关选题的参考资料云原生环境下,从容器、k8s、k8s下的包管理(helm)、服务网格(istio)到云原生上的微服务开发的分层体系讲解云原生下有很多工具链,哪些是核心工具链,核心工具链的命令大全Terraform命令介绍k8s持续集成介绍什么是ServiceMesh,它解

#云原生
现代编程语言(2):Python(蛇形遍历一颗树)

语言核心Python编码规范realpython深入探索Eval really is dangerous, Python的Eval无论怎样难以做到安全,看来Python里做沙盒很麻烦Exploring Python Code Objects, 上面的文章用到了Python的code对象,这里有进一步的探索dis — Disassembler for Python bytec......

#python#java#linux +1
NLP 实战 (9) | CSDN topN指数月排行榜竞赛动画

开源一个 topn 词竞赛动画项目 topn_race:GitCode 仓库:https://gitcode.net/csdn/topn_race核心功能:输入:按月统计的topN词频数据输出:topN词频竞赛动画(可带音效)源码结构本项目基于开源项目:https://github.com/dexplo/bar_chart_race 定制,src/bar_chart_race 从 bar_char

文章图片
#自然语言处理#动画#python
让chatGPT使用Tensor flow Keras组装Bert,GPT,Transformer

其中,左侧的每个Trm代表,右侧的放大图,也就是原始Transformer的Encoder部分结构。Bert的训练任务包括MLM(Masked Language Model)和NSP(Next Sentence Prediction). Bert的训练是无监督的,因为MLM实际上就是将语料的某些Token遮挡起来,那么输出结果需要知道答案是什么(标注信息)实际上就包含在语料里。GPT是无监督的,因

文章图片
#keras#bert#transformer
使用Google大模型Bard(PaLM)理解时间序列预测模型ARIMA

使用Bard来学习的体验不错,和之前使用GPT学习知识的效果差不多,用来理解数理知识点的原理很实用,推荐多使用。它不能回答中文也未必是坏事,可以强迫在学习中使用英文语境。Google Bard的新模型使用的是PaLM,暂时不支持中文,本次测试使用Bard模型来辅助理解一个时间序列预测模型ARIMA。

文章图片
#逻辑回归
    共 13 条
  • 1
  • 2
  • 请选择