
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文详细介绍了Ollama在不同环境下的安装方法,包括常规安装、手动安装、AMD GPU和ARM64的专用安装步骤,以及如何将其设置为开机自启服务。同时提供了CUDA和AMD ROCm驱动程序的安装指南,并说明了更新、查看日志和卸载的方法。文章最后邀请读者分享学习心得,鼓励交流讨论。所有操作均通过命令行完成,适合不同需求的用户参考使用。

本文详细介绍了使用Docker部署FastDFS分布式文件系统的过程。主要内容包括:获取delron/fastdfs镜像文件;创建Tracker服务(22122端口)和Storage服务(23000端口);配置Nginx(8888端口)及防火墙设置;通过修改配置文件和端口冲突解决方案;最后测试图片上传功能,验证系统可用性。整个部署过程采用Docker容器化方式,简化了FastDFS的安装配置流程。

本文介绍了如何在本地快速构建和训练大语言模型。推荐使用开源框架Ollama,它支持在个人电脑上创建类似ChatGPT的AI模型,并允许自定义训练和微调。文章详细说明了硬件配置要求(建议高端CPU、显卡和内存),对配置不足的用户推荐使用腾讯云AI服务器解决方案。还提供了具体操作步骤:从购买云端服务器,到创建测试模型(如llama2-chinese),再到编写配置文件自定义专属模型(调整参数如temp

这篇文章主要围绕 “如何让本地大模型(LLM)实现联网功能,比如查询实时天气” 展开,借助实际例子带出联网搜索的实现方式与初步的 Agent 逻辑。

本文介绍了使用Docker搭建Elasticsearch集群的详细步骤。首先创建了Docker网络es-net,然后建立本地目录结构用于映射容器目录。配置了master、node1、node2三个节点的YML文件,设置集群名称、节点名称、网络端口等参数。最后通过docker run命令启动三个容器实例,分别映射不同的主机端口,挂载配置文件和目录,并设置内存限制、时区等环境参数,完成了一个三节点的E

本文介绍了如何在本地使用Ollama框架搭建DeepSeekR1大模型。文章首先说明了Ollama框架的作用和硬件配置要求,建议使用24G显存、i7 10代以上CPU和32GB内存。对于配置不足的用户,推荐使用腾讯云AI计算服务器。随后详细讲解了DeepSeekR1模型的下载和运行方法,建议从较小参数量的1.5b模型开始尝试。最后展示了如何在命令行中与模型进行交互,并简要说明了可以通过这种方法创建

本文介绍了如何在本地使用Ollama框架搭建DeepSeekR1大模型。文章首先说明了Ollama框架的作用和硬件配置要求,建议使用24G显存、i7 10代以上CPU和32GB内存。对于配置不足的用户,推荐使用腾讯云AI计算服务器。随后详细讲解了DeepSeekR1模型的下载和运行方法,建议从较小参数量的1.5b模型开始尝试。最后展示了如何在命令行中与模型进行交互,并简要说明了可以通过这种方法创建

本文介绍了如何在本地快速构建和训练大语言模型。推荐使用开源框架Ollama,它支持在个人电脑上创建类似ChatGPT的AI模型,并允许自定义训练和微调。文章详细说明了硬件配置要求(建议高端CPU、显卡和内存),对配置不足的用户推荐使用腾讯云AI服务器解决方案。还提供了具体操作步骤:从购买云端服务器,到创建测试模型(如llama2-chinese),再到编写配置文件自定义专属模型(调整参数如temp








