logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

mysql 自动重连

MYSQL_OPT_RECONNECT (argument type: my_bool *)Enable or disable automatic reconnection to the server if the connection is found to have been lost. Reconnect has been off by default since MySQL 5.0.3;

#mysql#linux#c++
邱锡鹏 神经网络与深度学习课程【十三】——无监督学习和概率图模型1

无监督学习定义:只从无标签的数据中学习出一些有用的模式典型的无监督学习:深度学习中只考虑前两个问题即可无监督特征学习:主成分分析(Principal Component Analysis PCA) 一种最常用的数据降维方法,使得在转换后的空间中数据的方差最大(线性)编码给定一组基向量A=[a_1, ..... , a_m] 将输入样本x表示为这些基向量的线性组合完备性和稀疏编码:过完备基向量是指:

#机器学习#人工智能#深度学习 +2
【深度学习训练流程】浅析深度学习训练流程

深度学习训练流程是一套固定的模板optimizer定义,选择不同的optimizer,权重衰减,梯度更新。scheduler定义,选择不同的scheduler,进行学习率的更新。(可选,可不使用scheduler进行学习率更新,设为None,则学习率为恒定值)model初始化,选择使用GPU训练还是CPU训练loss选择优化函数,for epoch in range(epochs):# 训练几个e

#深度学习
mysql : 无法将“mysql”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正 确,然后再试一次。

利用cmd管理员登录mysql,出现这样的问题。解决方式:找到mysql中bin的位置:复制下来,在cmd中这样操作记得将带空格的路径用双引号引起来,切换路径之后。如果仍出现这样的问题,解决方式:这样就能登陆上了。...

#mysql
【代码复现】NER之GlobalPointer解析

前言在NER任务中,主要分为三类实体:嵌套实体、非嵌套实体、不连续实体,今天分享方法以end-to-end的方式解决前两个问题,GlbalPointer,它利用全局归一化的思路来进行命名实体识别(NER),可以无差别地识别嵌套实体和非嵌套实体,在非嵌套(Flat NER)的情形下它能取得媲美CRF的效果,而在嵌套(Nested NER)情形它也有不错的效果。核心思想GlobalPointer是一种

#nlp#深度学习
计算机网络系统与分布式系统之间的区别

分布式计算机系统与计算机网络系统,在计算机硬件连接上、系统拓扑结构和通信控制等方面基本都是一样的,它们都具有通信和资源共享的功能。计算机网络系统与分布式系统之间的区别主要为:分布式计算机系统是在分布式计算机操作系统的支持下,进行分布式数据处理和各计算机之间的并行计算工作,也就是说各互连的计算机可以相互协调工作,共同完成一项任务,一个大型程序可以分布在多台计算机上并行运行。计算机网络系统...

#分布式#操作系统
邱锡鹏 神经网络与深度学习课程【八】——卷积神经网络3和循环神经网络1

典型的卷积神经网络LeNet-5AlexNetInception网络Inception网络在卷积网络中,如何设置卷积层的卷积核大小是十分关键的问题 Inception网络尝试多种不同的卷积核 最后给堆叠起来使用多层的小卷积核来代替大的卷积核,以减少计算量和参数量残差网络 当时先用一个f(x)来拟合h(x) 但是发现恒等函数拟合效果不好 因此将目标函数拆分为两给部分 恒等函数和残差函数残差单元Ngr

#神经网络#网络#深度学习 +1
【深度学习框架-Paddle】丝滑安装PaddlePaddle,无缝衔接使用多卡

但是,PaddlePaddle安装问题一直都困扰着我,什么````C++```报错了、什么不能使用多卡了,不同Linux环境安装后报错也各不相同。怎么样,才能让Paddle安装像torch那么丝滑,开箱即用,而不是陷入各种报错当中,在不断摸索的过程中,也渐渐看到了方向。某一天,在PaddleNLP文档上查看资料,看到PaddleCloud开源了基于Paddle的镜像,可开箱即用。出现了上面的结果,

#paddle#paddlepaddle#docker
邱锡鹏 神经网络与深度学习课程【八】——卷积神经网络3和循环神经网络1

典型的卷积神经网络LeNet-5AlexNetInception网络Inception网络在卷积网络中,如何设置卷积层的卷积核大小是十分关键的问题 Inception网络尝试多种不同的卷积核 最后给堆叠起来使用多层的小卷积核来代替大的卷积核,以减少计算量和参数量残差网络 当时先用一个f(x)来拟合h(x) 但是发现恒等函数拟合效果不好 因此将目标函数拆分为两给部分 恒等函数和残差函数残差单元Ngr

#神经网络#网络#深度学习 +1
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择