
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LlaMA3-SFT, Meta-Llama-3-8B/Meta-Llama-3-8B-Instruct微调(transformers)/LORA(peft)/推理。

windows下pycharm配置连接远程gitlab,git clone后,可以用pycharm直接操作,而不需要每次都用命令行。最近连接远程gitlab项目这个问题弄得我欲仙欲死。。。总结一下下,以后忘记了也可以看看。1. 首先你要注册gitlab账号,然后下载git,pycharm配置好git(File --> Settings -->g...
NeuralNLP-NeuralClassifier-master1. 所有用超参数用json文件保存2. 训练结束后设置学习率lr=0, 这样就不用设置is_train这个参数了def update_lr(self, optimizer, epoch):if epoch > self.config.train.n...
本文介绍了如何使用Python3通过OpenAI API调用Doubao-Seed-1.6模型,并控制其思考模式(thinking参数)。摘要要点: 通过设置extra_body参数中的"thinking"类型为"disabled"、"enabled"或"auto"来控制模型的思考模式 提供三种调用示例: 纯文本问答

本文总结了macbert4mdcspell_v2模型的训练微调过程。在v1版本基础上,通过优化训练数据(新增60万无修改数据和中小学课本数据)和改进训练策略(7个epoch训练,最后不mask),使用1000万混合数据集进行训练。测评采用公开数据集,结果显示v2版本在多个指标上优于v1和其他对比模型(如macbert4csc-base-chinese和chinese-text-correction

开放信息抽取(OIE)系统(五)-- 第四代开放信息抽取系统(基于深度学习, deeplearning-based, 抽取式&生成式)一.第四代开放信息抽取系统背景第四代开放信息抽取系统的诞生和发展离不开时代的浪潮,首先是深度学习迅猛发展,word-embedding、seq2seq-attention、attention、bert等技术层出不穷;然后就是前人开源出的各种OIE系统,也给数

一.概述LEAM(Joint Embedding of Words and Labels for Text Classification),是Guoyin Wang等提出的一种文本分类新方法,看论文标题就可以发现,该方法主要是构建 "类别标签 (label) 与词向量 (word-embedding)的联合嵌入",使用注意力机制 (Attention) 作为 laebl 与 w...
一.Xlnet概述Xlnet,自BERT预训练-微调模式开创以来,这个自然语言处理NLP中的又一重大进展。Xlnet融合了自回归(AR,单向语言模型)、自编码(AE,双向语言模型)等语言模型特征,采用最先进的transformer特征提取器(transformer-xl,利用分割循环机制和相对位置编码进行高并发-超长文本处理),开创性地提出了排列语言模型(Permutation...
pytorch-textclassificationpytorch-textclassification是一个以pytorch和transformers为基础,专注于文本分类的轻量级自然语言处理工具包。支持中文长文本、短文本的多类分类和多标签分类。目录数据使用方式paper参考数据数据来源所有数据集均来源于网络,只做整理供大家提取方便,如果有侵权等问题,请及时联系删除。baidu_event_ex
2012-2022是深度学习集中爆发的10年,在这10年间,涌现出许许多多的新技术新理论,尤其是在骨干网络上。ConvNet-1989接近现代卷积神经网络CNN了,它具有两个特征(专利),一个是跨步卷积(strided-convolution),另一个是独立池化层(Pool)。基于该网络架构的系统被用于用于手写邮政编码识别。LenNet-5是一个简单的浅层卷积神经网络,激活函数为sigmoid,其








