logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Linux虚拟机常用命令和快捷键】

一、常用命令ls          //列出当前目录文件, ls -l 可以显示详细信息mkdir 名称    //创建一个目录touch 名称    //创建一个空的文本文件,不编辑vim 文本名    //文本编辑器,进入命令模式cp  /etc/passwd  ./passwd1    //拷贝,cp 拷贝对象 目标路径/更改文件名,点表示当前路径mv  /mnt/shadow /opt  

#云计算
【Linux命令——权限chmod、chown】

一、解读权限在敲ll命令查看之后,出现drwxr-xr-x. 9 root root     87 7月  16 18:16 home9表示9B大小  root所有者 root所属组    大小 月 日期 时:分  名称前十位字符:类型1位 所有者3位 所属组3位 其他人3位类型1位:d表示目录    -表示文本后面9位:rwx所有者权限,所有者(用u表示)读写执行r-x所...

【Linux命令——cp拷贝】

格式:cp 拷贝对象 目标路径/(可更改文件名)     //.表示当前路径,..表示上一级路径举例:cp  /etc/passwd  ./passwd1                  //把etc目录下的passwd,拷贝到当前路径下,并改名为passwd1选项:-r:    //递归,复制目录时必须要有此选项,参数和选项的位置可以对调-p:    //保持原文件的权限、修改时间等属性不变.

【Linux——配置软件仓库】

一、挂载命令挂载点类比矿井口,资源是矿,有了挂载点才能访问资源挂载点可以用目录代替,进到目录就可以进到盘里面挂载命令格式:mount  资源路径  挂载到何处卸载命令格式:umount  资源路径               或者   umount  挂载点举例:mount  /dev/cdrom   /mnt/            //把dev目录下的cdrom挂载到...

逻辑回归(Logistic Regression,LR)公式推导

什么是逻辑回归LR 是 Logistic Regression Classifier,本质上是线性回归,特殊之处在于特征到结果的映射中加入了一层逻辑函数 g(z) 是 sigmoid 函数。因此逻辑回归 = 线性回归 + sigmoid。线性回归公式:y=wTx+by = w^Tx + by=wTx+b有时候为了方便,将权值向量和输入向量加以扩充,仍记作 w,xw, xw,x 即 w=(w(1),

#逻辑回归#机器学习#人工智能
深度学习优化算法:Adam算法

原文链接:动手学深度学习pytorch版:7.8 Adam算法github:https://github.com/ShusenTang/Dive-into-DL-PyTorch[1] Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.69

#pytorch#深度学习
ACL21 - Making Pre-trained Language Models Better Few-shot Learners

Gao T, Fisch A, Chen D. Making pre-trained language models better few-shot learners[J]. ACL 2021.Github:https://github.com/princeton-nlp/LM-BFF摘要GPT3效果很好,但是太大了,不实用。受启发于GPT3 使用 prompt 做 Few-shot 任务表现不错

Pdman数据库建模工具——使用教程

文章目录1. pdman下载2. pdman优点3. 使用教程3.1 创建并打开一个 hello 项目3.2 设置3.3 创建数据库、表3.4 创建一个字段3.5 关系图3.6 同步到数据库3.6.1 建立连接3.6.2 同步1. pdman下载点击跳转下载地址安装记得换盘,然后直接无脑next2. pdman优点画 E-R 图和同步一体,建库很方便可版本控制3. 使用教程3.1 创建并打开一个

深度学习优化算法:RMSProp算法

原文链接:动手学深度学习pytorch版:7.6 RMSProp算法github:https://github.com/ShusenTang/Dive-into-DL-PyTorch原论文:[1] Tieleman, T., & Hinton, G. (2012). Lecture 6.5-rmsprop: Divide the gradient by a running average

#深度学习#pytorch
GPT1、GPT2、GPT3原理

文章目录GPT-1:无监督学习GPT-1原理介绍预训练模型(无监督)fine-tuning(有监督)小结GPT-2:多任务学习GPT-2的改进模型参数为什么GPT-2能够适应多任务?GPT-3:海量参数AbstractIntroductionGPT-1:无监督学习GPT-1原理介绍GPT模型主要包含两个阶段,第一个阶段,先利用大量未标注的语料预训练一个语言模型,接着,在第二个阶段对预训练好的语言模

    共 12 条
  • 1
  • 2
  • 请选择