logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

在群晖上使用docker部署Django网站全记录

安装Docker映像打开Docker应用,选择注册表,搜索ngix,双击下载进入映像,双击修改信息点击高级设置,将docker内路径和nas内路径相关联设置端口号这时候就可以在容器那一栏看到paper_pro了,同时在桌面上也是可以看到图标的,注意如果想要对paper_pro重新进行编辑,首先要暂停映像的运行,这样编辑键才可以点开。配置ssh双击进入终端机,新增bash查看目录并修改密码apt-g

#django#docker
Transformers 源码阅读之BertTokenizerFast分词模型

从bert-base-chinese下载预训练语言模型及其他词表,由于使用的是pytorch,因此下载即可。如果要使用英文模型,就下载能区分大小写的或者是不能区分大小写的,对于uncased,初始化时必须要把lower设为true。在深入模型细节之前,我们先用一个简单的例子看一看BertTokenizerFast究竟是用来干什么的,需要什么样的输入,又会给出怎样的输出。..............

#机器学习#人工智能#深度学习
frp基于阿里云ECS实现内网穿透

第一次通过Workbench通常是无法连接的,此时进入VNC连接界面,通过重置密码设置连接密码和连接方式,之后就可以连接了。这个放行要走两步,第一步是从安全策略放行,第二步是从宝塔面板放行。首先花99元购买一台服务器一年的使用权。拉到最下面查看宝塔面板的地址。进入宝塔面板,批量放行端口号。进入实例页面安装宝塔面板。手动修改安全组访问规则。进入如下页面查看详情。

#阿里云
ollama修改模型问答的上下文长度(num_ctx)

在使用ollama做大模型问答的过程中,发现存在着当输入问题过长之后,模型无法回答的问题。经过查询资料,这与一个叫做num_ctx的参数有关,它用来控制对话上下文的长度,在大模型动辄支持32k上下文的当下,ollama居然丧心病狂地把这个参数默认设成了2048也就是2.048k,真是叔可忍婶不可忍!ollama的每个模型都有个配置文件,这里需要在原基础上生成一个新的配置文件,再根据这个配置文件去生

基于LLaMA-Factory的微调记录

由于不需要考虑多轮对话,所以history可以不要,这里采用了两种数据集的组织方式,一种是只有instruction和output,把问题作为instruction,另外一种是把问题作为input,把回答问题这一要求作为instruction。微调时一般需要准备三个数据集:一个是自我认知数据集(让大模型知道自己是谁),一个是特定任务数据集(微调时需要完成的目标任务),一个是通用任务数据集(保持大模

因素负荷量(factor loadings)的理解

在因子分析里,有个词叫因子载荷(factor loadings),此词简单地说就是个别变数与因子之间的相关性(没转轴前),所以这个值如同Pearson correlations一样,数值介于- 1至1之间。因子载荷的平方也就是这个因子可以解释多少这个变数。举例来说,如果因子载荷是0.4,那表示该因子可解释此变数0.16的variance。由于一个因子会与多个变数相关,所以因子载荷也可以解读成:这.

一文读懂Langchain:ChatGLM3和ChatGPT的Agent调用分析

首先下载上面给出的github项目并安装环境,然后想想要测试什么问题。请问下面这个字符串的长度的三次幂是几:XXX,理想情况下,Agent加持的大模型会分析出需要调用获取字符串长度和计算三次幂这两个工具,然后连续调用它们得到正确的结果。所以第一步就是要把这两个工具定义好,在这个项目里,只要在Tool文件夹下定义好xxx.py和xxx.yaml这两个文件,xxx这个工具就算可以使用了,我们对这两个工

一文读懂Langchain:ChatGLM3和ChatGPT的Agent调用分析

首先下载上面给出的github项目并安装环境,然后想想要测试什么问题。请问下面这个字符串的长度的三次幂是几:XXX,理想情况下,Agent加持的大模型会分析出需要调用获取字符串长度和计算三次幂这两个工具,然后连续调用它们得到正确的结果。所以第一步就是要把这两个工具定义好,在这个项目里,只要在Tool文件夹下定义好xxx.py和xxx.yaml这两个文件,xxx这个工具就算可以使用了,我们对这两个工

一文读懂Langchain:ChatGLM3和ChatGPT的Agent调用分析

首先下载上面给出的github项目并安装环境,然后想想要测试什么问题。请问下面这个字符串的长度的三次幂是几:XXX,理想情况下,Agent加持的大模型会分析出需要调用获取字符串长度和计算三次幂这两个工具,然后连续调用它们得到正确的结果。所以第一步就是要把这两个工具定义好,在这个项目里,只要在Tool文件夹下定义好xxx.py和xxx.yaml这两个文件,xxx这个工具就算可以使用了,我们对这两个工

主流开源大语言模型的微调方法

支持市面绝大多数模型的QLoRA和全量参数微调。支持市面少数模型的QLoRA和全量参数微调。全量微调和 P-Tuning v2。全量微调和 P-Tuning v2。全参微调、LoRA以及Q-LoRA。支持市面绝大多数模型的各种微调。

#语言模型#人工智能#自然语言处理
    共 12 条
  • 1
  • 2
  • 请选择