简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
一、常用命令ls //列出当前目录文件, ls -l 可以显示详细信息mkdir 名称 //创建一个目录touch 名称 //创建一个空的文本文件,不编辑vim 文本名 //文本编辑器,进入命令模式cp /etc/passwd ./passwd1 //拷贝,cp 拷贝对象 目标路径/更改文件名,点表示当前路径mv /mnt/shadow /opt
一、解读权限在敲ll命令查看之后,出现drwxr-xr-x. 9 root root 87 7月 16 18:16 home9表示9B大小 root所有者 root所属组 大小 月 日期 时:分 名称前十位字符:类型1位 所有者3位 所属组3位 其他人3位类型1位:d表示目录 -表示文本后面9位:rwx所有者权限,所有者(用u表示)读写执行r-x所...
格式:cp 拷贝对象 目标路径/(可更改文件名) //.表示当前路径,..表示上一级路径举例:cp /etc/passwd ./passwd1 //把etc目录下的passwd,拷贝到当前路径下,并改名为passwd1选项:-r: //递归,复制目录时必须要有此选项,参数和选项的位置可以对调-p: //保持原文件的权限、修改时间等属性不变.
一、挂载命令挂载点类比矿井口,资源是矿,有了挂载点才能访问资源挂载点可以用目录代替,进到目录就可以进到盘里面挂载命令格式:mount 资源路径 挂载到何处卸载命令格式:umount 资源路径 或者 umount 挂载点举例:mount /dev/cdrom /mnt/ //把dev目录下的cdrom挂载到...
什么是逻辑回归LR 是 Logistic Regression Classifier,本质上是线性回归,特殊之处在于特征到结果的映射中加入了一层逻辑函数 g(z) 是 sigmoid 函数。因此逻辑回归 = 线性回归 + sigmoid。线性回归公式:y=wTx+by = w^Tx + by=wTx+b有时候为了方便,将权值向量和输入向量加以扩充,仍记作 w,xw, xw,x 即 w=(w(1),
原文链接:动手学深度学习pytorch版:7.8 Adam算法github:https://github.com/ShusenTang/Dive-into-DL-PyTorch[1] Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.69
Gao T, Fisch A, Chen D. Making pre-trained language models better few-shot learners[J]. ACL 2021.Github:https://github.com/princeton-nlp/LM-BFF摘要GPT3效果很好,但是太大了,不实用。受启发于GPT3 使用 prompt 做 Few-shot 任务表现不错
文章目录1. pdman下载2. pdman优点3. 使用教程3.1 创建并打开一个 hello 项目3.2 设置3.3 创建数据库、表3.4 创建一个字段3.5 关系图3.6 同步到数据库3.6.1 建立连接3.6.2 同步1. pdman下载点击跳转下载地址安装记得换盘,然后直接无脑next2. pdman优点画 E-R 图和同步一体,建库很方便可版本控制3. 使用教程3.1 创建并打开一个
原文链接:动手学深度学习pytorch版:7.6 RMSProp算法github:https://github.com/ShusenTang/Dive-into-DL-PyTorch原论文:[1] Tieleman, T., & Hinton, G. (2012). Lecture 6.5-rmsprop: Divide the gradient by a running average
文章目录GPT-1:无监督学习GPT-1原理介绍预训练模型(无监督)fine-tuning(有监督)小结GPT-2:多任务学习GPT-2的改进模型参数为什么GPT-2能够适应多任务?GPT-3:海量参数AbstractIntroductionGPT-1:无监督学习GPT-1原理介绍GPT模型主要包含两个阶段,第一个阶段,先利用大量未标注的语料预训练一个语言模型,接着,在第二个阶段对预训练好的语言模