logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

GPT2中文文本生成对话应用尝试

文本对话是一个很复杂的任务,难度比较大。按照对话文本产生的方式可以分为检索式和生成式;按照技术实现的方式可以分为端到端和pipeline的方式。为了保证对话的多样性和丰富性,以及减少流程的繁琐例如构建对话管理、对话理解等模块,我们基于GPT2模型以及GPT2-chat项目在保险领域进行了中文文本生成对话应用的尝试。总而言之,本文并不是一个创新性的内容,更多的是一种现有技术和模型在业务中的尝试和验证

#p2p#linq#网络协议
vue3前端后端地址可配置方案

在Vue3项目中,为了灵活切换不同服务器部署,避免每次切换时重新打包代码,可以通过创建一个proxy.js配置文件来管理服务地址。将API和WebSocket的基地址写入proxy.js,并挂载到window对象上。在index.html中延迟加载proxy.js,确保在DOM加载完成后再访问window.APP_config。在main.js中,通过监听DOMContentLoaded事件,将配

文章图片
#前端#vue.js#javascript
2022搜狐校园NLP算法大赛情感分析第一名方案理解和复现

2022搜狐校园NLP算法大赛情感分析第一名方案理解,代码复现和效果对比

#自然语言处理#pytorch#深度学习
从sigmoid到GELU——神经网络中的激活函数

深度学习中激活函数的总结

CUDA编程一、基本概念和cuda向量加法

有一段时间对模型加速比较感兴趣,其中的一块儿内容就是使用C++和cuda算子优化之类一起给模型推理提速。之前一直没有了解过cuda编程,也没有学习过C++相关的东西。强迫自己来学习一下cuda编程,同时也学习一下C++,扩宽一下AI相关的领域知识。

文章图片
#人工智能
docker多阶段构建镜像

在Docker中,为了快速构建一个体积较小的镜像,同时替换模型文件,可以采用多阶段构建的方法。首先,从基础镜像A中删除不需要的Python文件和旧模型文件modelA,然后使用FROM scratch创建一个空镜像,并从第一阶段镜像中复制必要的系统文件和Python环境。接着,将新模型文件modelB复制到镜像中,并设置环境变量和配置文件。最后,安装必要的Python包并设置启动命令。通过这种方法

#docker#容器#运维
大模型推理框架Vllm和TensorRT-LLM在ChatGLM2-6B模型的推理速度对比

这篇博客就专门对语言大模型推理框架Vllm和TensorRT-LLM在ChatGLM2-6B模型上的推理速度和效果进行一个对比。主要的内容分为三块,第一块简单介绍一下vllm和TensorRT-llM框架的特色和基本技术点,由于篇幅的原因关于技术的原理就不做多的介绍(每个技术点都可以拧出来写一篇文章,工作量非常大);第二块内容就是介绍一下环境安装和重要的API,并且提供一个web推理服务;最后一块

文章图片
#人工智能#深度学习
rwkv模型lora微调之accelerate和deepspeed训练加速

对rwkv_1.5B模型进行了预研和业务领域的验证。为了快速验证,采用了lora+accelerate+deepspeed的训练方式。微调的过程中对rwkv模型认识更加深刻,同时对于docker训练环境搭建也更加熟悉了

文章图片
#人工智能#深度学习#神经网络
马尔科夫系列——二、隐马尔可夫模型 - HMM的三个问题 - 概率计算问题

转载自简书——隐马尔可夫模型 - HMM的三个问题 - 概率计算问题,把其中的有些公式排版做了简单修改!其中的后向概率算法有点难度!目录一、HMM案例回顾二、HMM典型的3个问题1、概率计算问题2、学习问题3、预测问题三、概率计算问题解决方案1、暴力直接计算法2、前向-后向算法2.1 前向算法:2.2HMM案例-前向算法2.3 后向算法...

NLP中的对抗训练

NLP中的对抗训练FGMPGDFreeLBSMARTimport torchclass FGM():'''Example# 初始化fgm = FGM(model,epsilon=1,emb_name='word_embeddings.')for batch_input, batch_label in data:# 正常训练loss = model(batch_input, batch_label)

#深度学习#pytorch#自然语言处理
    共 67 条
  • 1
  • 2
  • 3
  • 7
  • 请选择