
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大家好,这是从零搭建智能体第三篇,本文将介绍Agent的一些核心概念,Agent与LLM、workflow的区别,并搭建一个最简单的agent,了解LangGraph中的核心组件

最近DeepSeek火遍全球,很多人都在问: AI真的有自己的想法吗?它是否具有主观能动性?这几天,DeepMind的研究团队发表了一篇论文,为这个问题提供了全新的视角。他们认为, 判断一个系统是否具有主观能动性,关键在于我们如何看待它。这篇文章的核心要点,通俗来理解. 想象我们在看一个机器人。如果从不同的角度(参考框架)来看这个机器人,可能会得出不同的结论:从工程师的角度看,它就是一堆代码和硬件

大模型微调,简单来说,就是在一个已经训练好的通用的大模型(比如qwen3、deepseek等)的基础上,再给它“补课”,让它更擅长处理特定任务或领域的需求。

该项目来自百家 AI,是北京邮电大学白婷副教授所指导的研究小组, 团队致力于为硅基人类倾力打造情感饱满、记忆超凡的智慧大脑。

AI 应用在企业中落地越来越多了,特别是帮助用户从海量文档中迅速找到所需信息并提供答案,这些应用在技术上往往会使用到 RAG(检索增强生成),RAG 技术是构建这类系统的主要选择。然而,**传统 RAG 技术往往需要复杂的向量化过程,这不仅增加了开发难度,也限制了系统的效率和可扩展性**。

第一阶段:基础筑基(第1-7天)

近年来,LLM在自然语言处理领域取得了显著进展,特别是在zero-shot learning方面,零样本关系抽取的目标是无需通过大量的标注数据,从文本中识别实体之间的关系。利用zero-shot能力有利于减少人工标注成本和提高模型的泛化能力,但是尽管LLM在零样本关系抽取任务中表现出色,但现有方法仍存在一些问题。首先,缺乏详细的上下文提示(prompts),导致模型无法充分理解句子和关系的复杂性。

介绍一个在github上很火的项目,其主要的想法是从头构建一个大模型,作者在这个项目中详细说明了每个步骤以及代码的处理逻辑,大家可以参考,https://github.com/FareedKhan-dev/train-llm-from-scratch代码结构如下:├── src/│ │ ├── mlp.py # 多层感知机(MLP)模块的定义│ │ ├── attention.py # 注意力机制

群体相对策略优化 (**GRPO,Group Relative Policy Optimization)**是一种强化学习 (RL) 算法,专门用于增强大型语言模型 (LLM) 中的推理能力。与严重依赖外部评估模型(价值函数)指导学习的传统 RL 方法不同,GRPO 通过评估彼此相关的响应组来优化模型。这种方法可以提高训练效率,使 GRPO 成为需要复杂问题解决和长链思维的推理任务的理想选择。

大模型自从去年底爆火出圈以后,很多人把大模型和知识图谱进行比较,甚至大量业内人士认为在大模型的发展下,知识图谱已经没有存在的必要了。那么真实情况,或者未来更有可能的一种情况是什么样的呢?








