简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
SpringAI是AI工程师的一个应用框架,它提供了一个友好的API和开发AI应用的抽象,旨在简化AI应用的开发工序,例如开发一款基于ChatGPT的对话应用程序。项目地址文档地址目前该项目已经集成了OpenAI、Azure OpenAI、HuggingFace、Ollama等API。不过,对于集成了OpenAI接口的项目,只要再搭配One-API项目,就可以调用目前主流的大语言模型了。在介绍如何
CUDA(Compute Unified Device Architecture)是由 NVIDIA 开发的用于并行计算的平台(通用计算构建的运算平台,是建立GPU显卡驱动层之上,必须与之相匹配。cuda的上层通常是各种机器学习库如PyTorch,cuDNN)。cuda作用是利用 NVIDIA GPU(图形处理单元)的强大计算能力来加速各种科学计算、数值模拟和深度学习任务。
conda环境和缓存的默认路径(envs directories 和 package cache)不一定要默认存储在用户目录,我们可以将他们设置到盈余空间稍大的其他目录来缓解这种空间压力,只要保证不同用户之间的设置不同即可。修改.condarc文件中的 env_dirs 和 pkgs_dirs 配置项分别设置环境和缓存路径所以需要修改默认路径配置;通过conda info 命令可以查看到user
加载半精度的 ChatGLM3-6B 模型需要大概 13GB 内存。从上图也可以看到,ChatGLM3-6B-32K的话是最高配的模型,而ChatGLM3-6B-Base是最低配的模型。大模型是很吃CPU和显卡的,所以,要不有一个好的CPU,要不有一块好的显卡,显卡尽量13G+,内存基本要32GB+。清华大模型分为三种(ChatGLM3-6B-Base,ChatGLM3-6B,ChatGLM3-6
类注解,将注解放在实体类上/*** 需要加解密的类注解*/@Inherited字段注解,将注解放在实体字段上/*** 加密字段注解*/@Inherited有了这两个注解,我们可以在我们可以标记我们要处理的实体和实体中的字段。
以下模式将匹配包含 co(any_leter_except_l)a 的任何字符串组合,例如 coca,cobalt 等,但与包含 cola 的行不匹配,要显示包含与模式匹配的 sting 的行数,请使用 -n(或 --line-number)选项。上面的示例中未打印该行,因为Nginx的启用站点的目录中的文件是sites-available目录中的配置文件的符号链接。要禁止默认 grep 输出并仅
安装好python后尽量将修改一下pip的缓存目录,否则pip就会将安装包都缓存在 C:\Users\你的用户名\AppData\Local\pip\cache 下,大量占用C盘空间二、修改方法输入命令,将缓存目录移动到E盘 E:\Python\pipcachepip.ini 配置文件会自动写入新的目录位置如果不是新安装的python,那么需要剪切 C:\Users\你的用户名\AppData\L
SpringAI是AI工程师的一个应用框架,它提供了一个友好的API和开发AI应用的抽象,旨在简化AI应用的开发工序,例如开发一款基于ChatGPT的对话应用程序。项目地址文档地址目前该项目已经集成了OpenAI、Azure OpenAI、HuggingFace、Ollama等API。不过,对于集成了OpenAI接口的项目,只要再搭配One-API项目,就可以调用目前主流的大语言模型了。在介绍如何
java jvm 调优
Docker-Compose 项目是Docker官方的开源项目,负责实现对Docker容器集群的快速编排。Docker-Compose 项目由 Python 编写,调用 Docker 服务提供的API来对容器进行管理。因此,只要所操作的平台支持 Docker API,就可以在其上利用Compose 来进行编排管理。Compose允许用户通过一个docker-compose.yml模板文件(YAML