logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

如何搭建一个本地化知识库问答系统,支持 PDF、Word 等自由检索,并能够实现实时对话查询?

背景搭建一个本地知识库有许多好处。首先,它可以帮助我们集中存储和管理信息,使得查找和访问知识变得更加高效。其次,本地知识库可以提高工作效率,因为我们不必每次都依赖于互联网搜索。此外,它还有助于保护隐私,因为我们可以在本地存储敏感信息而不必上传到外部服务器。‍项目介绍Ⅰ、项目地址:Ⅱ、项目概述:Langchain-Chatchat 是一个开源、可离线部署的检索增强生成(RAG)大模型知识库项目。它结

文章图片
#语言模型#人工智能#自然语言处理
手把手教你用Ollama+Llama3 部署你自己的大语言模型,我不信你还学不会!!

Ollama是一个开源的大模型管理工具,它支持模型的训练、部署和监控等功能。通过使用Ollama,用户可以轻松地管理本地的大模型,从而提高模型的训练速度和部署效率。此外,Ollama还支持多种机器学习框架,如TensorFlow和PyTorch等,使用户可以根据自己的需求选择合适的框架进行模型的训练。Ollama不仅是一个大型语言模型服务,提供了类似OpenAI的API接口和聊天界面,还支持热加载

文章图片
#语言模型#人工智能#自然语言处理
生成式AI 大语言模型微调

我们回顾一下第二章。编码器模型:擅长从序列中获取丰富的表现。它们输出包含关于输入的语义信息的嵌入。我们可以在这些嵌入之上添加一个小型网络,并对其进行训练以完成依赖语义信息的新特定任务(例如识别文本中的实体或分类序列)。解码器模型:非常适合生成新文本。编码器-解码器模型:非常适合需要基于给定输入生成新句子的任务。零样本或少样本学习:我们可以使用一个高质量的预训练模型,说明任务(例如“分类成这四个类别

文章图片
#人工智能#语言模型#自然语言处理 +3
总结一些LLM算法岗遇到的八股

BN批量归一化:以进行学习时的mini-batch为单位,按mini-batch进行正规化。具体而言,就是进行使数据分布的均值为0、方差为1的正规化。LN层归一化是对每个batch(3维)里的每个样本的每行进行标准化,使用layer norm 对应到NLP里就是相当于对每个词向量各自进行标准化总结:BN是对一个中间层的单个神经元进行归一化操作,LN是对一个中间层的所有神经元进行归一化。

文章图片
#算法#数据库#网络 +3
7种RAG 架构及其核心组件概览

Retrieval-Augmented Generation(RAG)架构正发挥着日益重要的作用。它通过在 AI 生成过程中引入外部知识检索,极大地提升了 AI 回答的准确性和全面性,从基础的文档查询逐步发展为多模态、多智能体协同的智能架构。本文将概览 RAG 架构从基础到高级的 7 种模式及其核心组件。

文章图片
#架构#人工智能#语言模型 +2
深入解读MaaS技术架构:从模型服务到智能部署的全流程分析

随着人工智能(AI)的迅速发展,MaaS(Model as a Service,模型即服务)技术架构应运而生。它通过将复杂的AI模型封装为标准化服务,降低了模型的开发和部署门槛,帮助企业快速实现业务场景的智能化升级。本文将深入解析MaaS技术架构,详细阐述其各个组成部分以及如何在实际应用中高效发挥其功能。

文章图片
#架构#人工智能
如何搭建一个本地化知识库问答系统,支持 PDF、Word 等自由检索,并能够实现实时对话查询?

背景搭建一个本地知识库有许多好处。首先,它可以帮助我们集中存储和管理信息,使得查找和访问知识变得更加高效。其次,本地知识库可以提高工作效率,因为我们不必每次都依赖于互联网搜索。此外,它还有助于保护隐私,因为我们可以在本地存储敏感信息而不必上传到外部服务器。‍项目介绍Ⅰ、项目地址:Ⅱ、项目概述:Langchain-Chatchat 是一个开源、可离线部署的检索增强生成(RAG)大模型知识库项目。它结

文章图片
#语言模型#人工智能#自然语言处理
用基于Qwen-2.5-7B的Code Agent打造本地、开源的Multi-Agent RAG系统

LLM 的潜力与局限性LLM 在语言生成、复杂任务理解等方面展现了强大的能力,特别是在需要生成纯文本输出的场景(如聊天机器人、文本摘要)中,表现尤为出色。然而,当需要超出“纸上谈兵”的实际应用时,这些模型依赖于外部用户执行建议的操作并反馈结果。

文章图片
#开源#人工智能#语言模型 +1
【大模型部署】Ollama本地部署大模型全攻略:从入门到应用实践,轻松掌握LLM部署技巧!

Ollama 是一个开源框架,致力于让用户能够轻松在本地计算机上部署和运行大型语言模型(LLM)。其名称 “Ollama” 源自 Omni-Layer Learning Language Acquisition Model(全层次学习语言获取模型),代表一种创新的机器学习方法,有望重新定义我们对语言学习与自然语言处理的理解。

文章图片
#人工智能#开发语言#产品经理 +2
2025学大模型必刷的99个项目,刷完你的大模型就很牛啦!

一、基础知识与理论数学与Python基础:大模型教程通常首先介绍与大型语言模型(LLM)相关的数学和Python基础知识,包括线性代数、概率论、神经网络等。Transformer架构:这是大模型的核心组件,教程会详细介绍Transformer的编码器-解码器结构、注意力机制(如自我注意和缩放点积注意力)等。分词与文本生成:教程会讲解如何将原始文本数据转换为模型可以理解的格式(分词),以及模型生成输

文章图片
#语言模型#人工智能#算法
    共 723 条
  • 1
  • 2
  • 3
  • 73
  • 请选择