logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Langchain系列(一)----手把手教你接入本地部署的ollama大模型,小白上手

最近很多网友后台私信我,因为Langchain官网示例的大多是国外的大模型平台,比如:ChatGPT等,需要科学上网,学习不方便。所以,接下来,我来教大家如何使用Langchain接入本地部署的ollama大模型。

微调Deepseek与将GraphRAG和Deepseek结合的区别

微调(Fine-tuning)一个模型和将不同的模型或技术(如GraphRAG)结合起来使用是两种不同的人工智能应用策略,它们各自有不同的目标和方法。下面我将解释这两种策略,并讨论它们与DeepSeek结合时的区别。

文章图片
#人工智能#深度学习
微软开源GraphRAG的安装+示例教程(最全超详细教程,小白上手)

微软的GraphRAG是一种结合了检索增强生成(Retrieval-Augmented Generation,RAG)技术和知识图谱(Knowledge Graphs,KGs)的系统,旨在提升大型语言模型(LLMs)处理复杂信息的问答性能。论文地址项目地址。

文章图片
#microsoft#开源#知识图谱 +1
微软开源GraphRAG的安装+示例教程(最全超详细教程,小白上手)

微软的GraphRAG是一种结合了检索增强生成(Retrieval-Augmented Generation,RAG)技术和知识图谱(Knowledge Graphs,KGs)的系统,旨在提升大型语言模型(LLMs)处理复杂信息的问答性能。论文地址项目地址。

文章图片
#microsoft#开源#知识图谱 +1
MCP(模型上下文协议)保姆级教程实战篇(一)----MCP客户端搭建

相比传统的pip,uv采用Rust编写,运行速度更快。无需virtualenv,可以直接使用__pypackages__进行管理。支持requirements.txt和pyproject.toml依赖管理。提供uv venv进行虚拟环境管理,比venv更轻量。支持Windows、macOS和Linux。

文章图片
#语言模型#人工智能
MCP(模型上下文协议)保姆级教程实战篇(一)----MCP客户端搭建

相比传统的pip,uv采用Rust编写,运行速度更快。无需virtualenv,可以直接使用__pypackages__进行管理。支持requirements.txt和pyproject.toml依赖管理。提供uv venv进行虚拟环境管理,比venv更轻量。支持Windows、macOS和Linux。

文章图片
#语言模型#人工智能
Ollama本地安装qwen2.5 7B模型

Qwen2.5-7B是通义千问团队发布的一个大型语言模型,它在18T tokens的数据集上进行了预训练,旨在提供更丰富的知识、更强的编程和数学能力。因为我之前也安装了其他模型,所以大家可以看看不同模型的回答,qwen2.5 7B针对相同的问题,有不同的答复,第一个问题回答还是错误的,准确性还有待进一步提高和加强。下载并运行后,你就可以提问了,比如:我问的问题,请问阿里云的通义千问模型有哪些,Qw

文章图片
#人工智能
手把手带你训练自己业务领域大模型(二)--PyTorch的安装

如果你的计算机上有 NVIDIA GPU,并且你希望加速深度学习计算,可以安装 GPU 版本的 PyTorch。我的电脑是M3 Mac Pro,虽然有GPU,但是不是NVIDIA GPU,如果要启用GPU的能力,需要从源代码编译PyTorch,并确保安装了必要的依赖项。为了更好的管理不同项目的Python项目,通常建议创建一个虚拟环境。可以隔离不同项目的依赖项,避免项目之间的冲突。安装 PyTor

文章图片
#pytorch#人工智能#python
Mac电脑安装支持GPU加速的PyTorch版本

由于我的电脑是M3 Mac Pro,虽然有GPU,但是不是NVIDIA GPU,如果要启用GPU的能力,需要从源代码编译PyTorch,并确保安装了必要的依赖项。下面我把详细步骤写下来,供各位参考。根据最新的信息,Mac M3 Pro可以安装支持GPU加速的PyTorch版本,但需要从源代码编译PyTorch,并确保安装了必要的依赖项。

文章图片
#macos#pytorch#人工智能
    共 16 条
  • 1
  • 2
  • 请选择