
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
总的来说,在这个时代下,我们作为人类而言,其实真的需要好好思考一下大模型的能力局限以及人类的特长所在。在AI模型做得很好的地方,我们其实可以利用AI工具来完成,比如说一些简单的重复工作,这些就交给AI来写程序就好。但是对于AI模型做得不好的地方又是人类所擅长的地方,比如说复杂的思考与分析,那我们就要积极的抓住这些机会,努力的发展出竞争性的差异,从而避免在未来与AI的竞争中落于下风。那假如想知道我们

随着大语言模型(LLM)的迅猛发展,将其应用于教育领域的讲义问答成为可能。然而,传统大模型在处理超出训练数据范围的专业问题时,往往会出现 “幻觉”( 即捏造不正确的内容),降低回答的可信度。为了解决这一问题,业界提出了 检索增强生成(RAG,Retrieval-Augmented Generation) 技术。简单来说,RAG 就像让模型在开卷考试 —— 在回答问题前,先从外部知识库(如讲义文档)

某种程度来说大模型训练的核心算法就是300到400行代码,如果真正理解了并不难。下面我将带大家分析常规大模型训练有几个阶段以及在训练中一般会用到哪些方法。由上图可以看出,大模型训练主要有四个阶段:预训练、有监督微调、奖励建模、强化学习。开始的第一个阶段是预训练阶段。这个阶段在这个图中有点特殊,因为这个图没有按比例缩放。实际上预训练消耗的时间占据了整个训练pipeline的99%。因此,这个阶段就是

是一个创新的问答应用,它利用了先进的langchain技术,为中文用户提供了一个友好、可离线运行的知识库问答解决方案。无论是学术研究、商业分析还是日常查询,Langchain-Chatchat都能以惊人的速度为你提供答案。“LangChain使用支持”

卷积神经网络是多层感知机(MLP)的变种,由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来,视觉皮层的细胞存在一个复杂的构造,这些细胞对视觉输入空间的子区域非常敏感,称之为感受野。

本文以大语言模型中应用到的强化学习算法——PPO为核心,介绍了从基础强化学习算法(策略梯度、AC等)到PPO的发展路径、核心问题及解决思路,最后简介了PPO在InstructGPT的应用。希望本文可以启发更多NLP研究者将RL更多、更好的应用在NLP的模型和场景之中。

本篇我们来聊聊如何使用 Dify 的 Chatflow(对话流程编排器),构建一个Excel 数据可视化助手。在此前的教程中,我们介绍了「聊天助手」和「Agent」构建助手的使用方式,本篇将介绍一种更可控、逻辑更清晰的构建方式——Chatflow 应用。

本文将详细介绍一个基于LangChain和Ollama、WebBaseLoader读取指定网页实现的RAG对话系统,从技术原理到实际代码,全面解析如何构建一个具有上下文感知能力的智能问答系统。

2025年初,随着DeepSeek的迅速走红,公众对LLM(大语言模型)的兴趣急剧上升。许多人被LLM展现出的近乎魔法的能力所吸引。然而,这些看似神奇的模型背后究竟隐藏着什么秘密?接下来,我们将深入探讨LLM的构建、训练和微调过程,揭示它们如何从基础模型演变为我们今天所使用的强大AI系统。这篇文章是我一直想写的,如果你有时间,它绝对值得一读。:我们将介绍LLM的基础知识,涵盖从预训练到后训练的整个

那天凌晨三点,我还在修复生产环境的bug。无意间打开了同事的代码,发现他用了近500行Python脚本来对接OpenAI API。天呐!这代码看起来像是用血泪写成的…我笑了。这不就是两年前的我吗?当初为了实现一个简单的AI问答功能,写了一堆繁琐的token处理、上下文管理和错误重试逻辑。如今有了,这些痛苦完全可以避免。LangChain到底是什么?它是构建LLM应用的"乐高积木"。Harrison







