简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
使用MMYOLO中yolov8训练自己VOC数据集实战
目标检测旋转框目标检测。
LSTM输出门,遗忘门,输入门详细介绍以及代码实现
在学习正确解标签时,重要的是RNN层的存在,RNN层通过向过去传递有意义的梯度,能够学习时间方向上的依赖关系,此时梯度,包含哪些应该学习到有意义的信息,通过将这些信息向过去传递,RNN层学习长期的依赖关系,但是,如果这个梯度在中途变弱,则权重参数将不会被更新,也就是说,RNN层无法学习长期的依赖关系,
大模型如何构建自己的数据集,以及停用词的使用实战
角色身份+任务具体目标+任务背景+输出示例+原文内容。
chatglm-6B基础环境、模型下载、微调训练详细介绍
chatglm-6B基础环境、模型下载、微调训练详细介绍
LLama-Factory大模型训练框架,基于自己数据集微调qwen7B模型实战
LLama-Factory,大模型训练框架,支持多种模型,多种训练方式,link。
ChatGPT介绍,与BERT区别及在公司使用方向
ChatGPT介绍,与BERT区别及在公司使用方向
linux(centos7)离线安装A100显卡驱动cuda/cudnn 以及解决docker not select device driver...gpu
1.确认GPU型号和操作系统版本,本示例中以A100以及操作系统为Centos 7.9进行操作。准备GPU驱动和CUDA 11.2软件包,在nvidia官网进行驱动包和CUDA包下载链接:linux系统均选择 Linux 64-bitCUDA Toolkit选择最新版本如您需要老版本CUDA,请前往老版本CUDA下载本示例中使用CUDA 11.2。
ChatGLM2-6B、ChatGLM-6B 模型介绍及训练自己数据集实战
ChatGLM2-6B 模型介绍及训练实战
ChatGLM2-6B、ChatGLM-6B 模型介绍及训练自己数据集实战
ChatGLM2-6B 模型介绍及训练实战
ChatGLM2-6B、ChatGLM-6B 模型介绍及训练自己数据集实战
ChatGLM2-6B 模型介绍及训练实战