
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在了解完了大语模型的基本知识,例如API的使用多轮对话,流式输出,微调,知识向量库等知识之后,接下来需要进一步补足的一个大块就是提示词工程,学习和了解提示词工程除了基本的提示词类型之外,不同的大模型对于提示词工程润色之后的提示词的反应如何,也是比较值得关注的一点,因此本文使用,文心一言4.0,通义千问,ChatGPT4, Claude3,四种模型来实验一下各类的提示词(自己花钱5555)。

通义千问是阿里云开发的大语言模型(Large language Model )LLM,旨在提供广泛的知识和普适性,可以理解和回答各领域中的问题,其包含网页版和手机版本的通义前文APP,网页使用的模型为不公开的最新版本。在其官方文档中主要开源了五种可以使用的模型其开源模型的简介和参数如下:非限时免费开发模型,有使用Token数量的限制。

实现了在Windows上部署通义千问的Qwen-7B-Chat Qwen-1.5-1.8B 模型且实现多轮对话和流式输出,目前还在更新。

在项目中需要在内网环境下配置python的环境,因此需要将用于安装python库的文件下载到本地传到内网环境当中然后再安装,通过这契机我开始了解了一下如何离线下载安装python的第三方库,以及配置本地的Nexus镜像源等事项,仔细研究发现这里有很多细节直接推敲的,上网搜了搜相关的教程,看了之后emmm,故有了这篇文章。

本文记录了SCI收录的与人工智能有关的144个SCI期刊论文,并对影响力较高的50期刊进行了简要分析,包括分区,影响因子,主要收录方向,以及提供了这50个期刊的网址。

本文逐句精度了,常用的传统经典TPE超参数算法论文,并对其中的核心公式进行了详细推导(网上没找到其他人的),适用于想了解TPE算法原理的同学们。

本文记录了,使用Utralytics平台中的YOLO V11 训练COCO数据集的全流程,包括环境配置,模型下载,数据集下属在,文件目录搭建,标签生成,以及最后的运行结果。

由于深度学习的会面临退化的问题,也就是当深度学习的网络加深到某一程度之后再加深会导致准确率降低,为了保证加深的网络的性能不低于浅层次的网络,为此2015年何凯明大佬发表了著名了ResNet残差网络,既再GoogLeNet在横向维度的创新之后,在网络结构上进行了新的创新。链接: ResNet原文地址结构的原理并不复杂,看一下从原文截取出来的这个残差结构,很好理解就是把输入最后加入到的输出上,构造一个

前言为啥要写这个呢,在做课题的时候想着扩充一下数据集,尝试过这个过采样降采样,交叉采样,我还研究了一周的对抗生成网络,暂时还解决不了我要生成的信号模式崩塌的问题,然后就看着尝试一下别的,就又来实验了一下SMOTE,我看原理也不是很难,想着调库的话不如自己手搓一个稍微,可以简单理解一点的,最后呢也是成功了,然后呢对训练集进行了扩充,效果额,训练集准确率肯定是嗷嗷提升,训练的效果稳定了一点,但是测试集

通义千问是阿里云开发的大语言模型(Large language Model )LLM,旨在提供广泛的知识和普适性,可以理解和回答各领域中的问题,其包含网页版和手机版本的通义前文APP,网页使用的模型为不公开的最新版本。在其官方文档中主要开源了五种可以使用的模型其开源模型的简介和参数如下:非限时免费开发模型,有使用Token数量的限制。








