登录社区云,与社区用户共同成长
邀请您加入社区
摘要: LangChain从2022年开源至今(2015-2025),已从简单的链式LLM工具框架跃升为支持万亿级多模态VLA Agent的智能平台。中国厂商(阿里、百度、华为等)快速跟进并领跑,推动框架效率提升1000倍+,渗透率超60%。其演进分为三阶段:2015-2021年手工调用期;2022-2023年模块化Agent元年;2024-2025年多模态VLA自进化时代,融合量子鲁棒技术,实现
你是不是写课程大作业时,把所有代码堆在一个 main.py 里,变量名随便起,函数写得像面条,改个登录密码验证到处找?这篇以学生管理系统为例的全流程指南,42000 字详解项目结构规划、README 撰写、高内聚低耦合实现,用 FastAPI 分层架构、依赖注入、接口隔离原则,帮你搭出代码清晰、功能完整、维护简单的项目。
文章详细解析了大模型与大语言模型的区别,指出许多人混淆这两个概念。文章介绍了大模型的发展历程(萌芽期、探索沉淀期、迅猛发展期),解释了大语言模型的定义、特点及代表GPT模型。最后提供了系统的大模型学习路径,包括基础理论、RAG开发、Agent设计等模块,帮助技术人从零入门AI大模型技术,抓住AI时代机遇。---
很多人觉得转型难,是因为没抓住核心:大模型产品不是传统功能的简单组合,而是模型能力的合理外化。你不能再用“用户漏斗”“专家访谈”“PMO管理”“投流买量”这些旧地图,去探索大模型这片新大陆。清晰认知模型的能力边界:知道模型能做什么、不能做什么,不提出脱离现实的需求;了解数据的核心价值:清楚数据从哪里来、怎么清洗标注、怎么通过数据评测优化模型;找准用户留存的核心逻辑:用户留下不是因为你推送得多,而是
985本科毕业那年,身边多数同学都扎堆冲刺公考、事业单位,一门心思想捧上“铁饭碗”安稳度日。而我却反其道而行之,放弃了众人追捧的安稳路,毅然扎进企业做了一名程序员。如今回头看,这条看似小众的赛道,让我在5年后站稳了企业中层管理岗,年薪稳定在30万左右,算是交出了一份自己满意的答卷。在很多外人眼里,资深程序员就该拿着百万年薪,是妥妥的成功人士。但只有身处行业内才知道,多数程序员的薪资都集中在20万-
文章介绍文本向量化(embedding)和信息检索技术,这些是RAG的基础。对比了三种embedding类型:稀疏嵌入(关键词匹配)、密集嵌入(语义理解)和学习型稀疏嵌入(结合两者优点)。重点讲解BGE-M3模型原理及应用,以及rerank技术在检索结果重排序中的应用,为大模型应用提供技术基础。
文章详细解析了构建AI智能体的9大核心技术,包括从执行工具到自主决策者的转变、多智能体协作系统、工作流设计、RAG技术、模型微调、Function Calling、MCP协议、A2A通信协议以及AG-UI交互标准。这些技术构成了智能体架构的底层基座,决定了AI系统的效率、扩展性与演化方向,是AI从概念走向实际应用的关键通道。
人工智能的发展速度已超出许多人的预期,而马斯克关于AI智力发展的预测,更让人们清晰感受到这场技术革命的逼近。
推荐几个2026年从零开始学习AI的GitHub仓库
你是不是用 FastAPI 写接口时只会用 str、int、list 这些基础类型注解?或者在写 LangChain 工具链时,不知道怎么让大模型准确识别工具参数的类型?这篇详解 Python typing 模块的常用类型、类型别名、泛型、协议、类型守卫,配合 FastAPI 接口开发和 LLM 工具调用的代码示例,让你彻底搞懂类型注解的底层逻辑和应用场景,代码可读性提升一倍,调试时间减少一半。
大型语言模型(LLM)的问世,将人工智能从被动响应的知识库推向了能够进行复杂规划(Planning)、推理(Reasoning)和工具使用(Tool Use)的智能体(Agentic AI)系统。
Vibe Coding(氛围编程)是AI时代的新型编程范式,强调用自然语言描述意图,由AI生成代码并微调“感觉”。它像人机即兴合奏,如用Cursor快速创建天气机器人或音乐推荐应用,核心是“Prompt即设计,反馈即迭代”。AI爱好者擅长引导模型对话、快速验证创意,适合使用Cursor、Replit等工具,需提升意图表达、反馈校准和上下文管理能力。但需警惕AI幻觉和可复现性问题。通过“AI今日运势
当我们在争论“AI是否能替代医生”,或许该先问“AI能否稳定地辅助医生”。BiLSTM-CRF的答案,正在每一份急诊病历的准确标注中。稳定,是医疗AI最温柔的革命。
要高效可靠地使用AI完成专业任务,关键在于将开放式对话转变为精确的指令派单。最佳方法是像设计考试简答题一样构建提示词,通过清晰的背景、任务和规范来引导AI。最终,可将此方法封装为可重复调用的函数,将大模型无缝集成到自动化工作流中。
本文设计并实现了一个基于Flask框架的新闻摘要自动生成系统。系统采用前后端分离架构,集成BART中文预训练模型和腾讯混元大模型,支持文本输入和文件上传两种方式生成新闻摘要。通过LCSTS中文短文本数据集进行模型训练,系统实现了高效准确的摘要生成功能,并具备用户管理、摘要评价、历史记录查看等辅助功能。测试结果表明,系统在ROUGE指标上表现良好,用户满意度较高,但存在处理长文本时连贯性不足、领域适
大语言模型技术主要包含预训练和微调两大方向。预训练方面,通过优化任务设计、热启动机制、分层渐进训练等方法提升效率,并采用统一序列建模和计算高效架构(如RetNet、混合专家模型)优化性能。微调方面,重点发展指令微调和参数高效学习技术,前者通过指令理解、数据构建和对齐提升模型适应性,后者采用添加式、指定式和重参数化方法降低计算成本。研究表明,随着模型规模扩大,简单的微调方法也能取得优异效果。这些技术
大语言模型基于Transformer架构和注意力机制,通过预训练和微调两个阶段进行训练。面临计算资源、偏见和缩放定律等挑战,需采用优化算法和分布式训练技术提高效率。LLM在自然语言处理、代码生成和创意内容等领域有广泛应用,是当前AI发展的核心技术。
在知识生产民主化的时代,书匠策AI为课程论文写作提供了“兴趣挖掘-方法训练-规范养成-创新激发”的全流程支持。当AI承担起格式校对、基础分析等重复性工作,学生得以将更多精力投入问题发现与理论思考。访问书匠策AI官网()或微信公众号搜索“书匠策AI”,开启你的学术基础训练升级之旅——在这里,每一篇课程论文都是学术思维的磨刀石,每一次规范训练都是研究能力的基石。让智能工具成为你学术探索路上的得力伙伴,
对于许多大学生而言,课程论文常被戏称为「学术初体验」,但选题迷茫、逻辑混乱、格式抓狂等难题,却让这场初体验变成了「学术闯关大冒险」。当传统写作模式遇上知识爆炸时代,一款名为的智能工具正以革命性技术架构,为学术小白搭建起从知识接收者到学术探索者的成长阶梯。本文将用「场景化科普」的方式,带你解锁这款工具的课程论文隐藏功能。
文章摘要:本文探讨了子词级编码在语言模型中的应用与挑战。BPE算法通过合并高频子词优化token表示,但不同语言(如韩语、日语)和代码缩进会消耗更多token。GPT-4改进了空格合并机制,提高了代码处理效率。文章对比了Tiktokenizer和WordSentence分词策略,指出词表大小、特殊token处理等差异。最佳实践包括:字符级任务需拆分单词、数字需标准化处理、选择token高效的格式(
碎碎念:976目标:本节手撕attention。做到能够默写以及默写标注# Transformer伪代码x = x +# 残差连接x = layer_norm(x)# 层归一化x = x + feed_forward(x)# 残差连接x = layer_norm(x)# 层归一化残差连接会让不同层的特征直接相加,若特征分布差异大,相加后数值会失真;LayerNorm 先归一化特征,让残差连接的数值
模型无需重新训练底座模型,仅通过加载少量权重即可改善面部结构、肤质纹理与整体光影效果,在保持推理效率与显存占用的同时获得更自然的人像生成结果,适用于写真级人像生成与高质量人物图像创作。通过 vLLM 与 Open WebUI 的组合部署,可快速构建 OpenAI API 兼容的本地推理服务,在保证性能的同时降低部署复杂度,适用于企业私有化部署与内部智能助手系统。模型采用自回归语音生成架构与分层声码
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。然而,如果你能完成 60-70% 的
小米开源MoE模型MiMo-V2-Flash技术突破:仅15B激活参数实现高性能推理 小米最新发布的MiMo-V2-Flash模型采用创新的混合专家架构(MoE),总参数309B但仅激活15B参数,在性能上媲美更大规模模型。核心技术包括: 混合滑动窗口注意力:结合Sink Bias机制,在128Token小窗口下保持长文本处理能力 多Token并行预测(MTP):最高提升2.6倍推理速度,生成速度
MIT团队提出递归语言模型(RLM),突破大语言模型处理长文本的瓶颈。RLM创新性地将长文本作为外部环境变量,让模型通过编写代码递归调用子模型处理信息,实现10M+ token级别的超长文本处理能力。相比传统方法,RLM采用"分而治之"策略,避免了上下文窗口限制和二次方计算成本增长,性能提升可达100倍。该技术借鉴外存算法思想,使模型能像程序员一样按需查阅信息,而非硬记全部内容
碎碎念:无相,喝水是一把利器。上海transformer简单来说就是一个函数,输入一个序列,预测下一个token是什么。
NVIDIA提出了一种基于NVFP4格式的大语言模型预训练新方法,该方法通过整合随机哈达玛变换、二维量化方案、随机舍入和选择性高精度层等技术,实现了4位精度的稳定训练。研究团队在10万亿tokens上成功训练了一个120亿参数的混合Mamba-Transformer模型,其训练损失和下游任务准确率与FP8基线模型相当(MMLU-pro准确率62.58% vs 62.62%)。相比MXFP4格式,N
我是李阳,资深AI架构师,曾主导过3个千万级LLM项目(金融财报分析、医疗问答、零售营销),专注于提示工程和生成式AI的落地。我的公众号"AI架构师笔记"会定期分享提示工程的实战经验,欢迎关注。
文章系统解析了人工智能(AI)、机器学习(ML)、深度学习(DL)和自然语言处理(NLP)的层级关系与区别。ML作为最广泛的概念,是从数据中学习模式的方法;DL是ML的子集,基于多层神经网络实现自动特征学习;NLP则是将ML/DL应用于语言任务的应用领域。文章通过对比分析各类技术的适用场景、优缺点及实际案例,帮助读者根据数据规模、任务复杂度和计算资源等因素选择最合适的技术方案,强调务实开发策略的重
这意味着,它不再是基于概率生成词语,而是在学习和理解了大量真实的中标项目后,模拟出的一种符合学术评审标准的写作逻辑。这种从点到面的自动化生成,大幅缩短了撰写周期,让科研人员能够将更多精力投入到科学问题的思考本身,而非纠结于文字的堆砌。无论是立项依据的阐述,还是研究内容的排布,都能避免空洞的泛泛而谈,确保内容逻辑严密,更贴合国自然的评审语境。一份优秀的国自然申请书,最核心的竞争力在于其逻辑的深度与严
在AI写作日益普及的今天,如何让AI生成的内容更自然、更“像人写”,尤其是如何有效降低AIGC(人工智能生成内容)检测率,成为了许多学生、学者与内容创作者的核心痛点。市面上宣称能“降AI率”、“绕过检测”的工具层出不穷,其中智写AI、QuillBot和BypassGPT是讨论度较高的几款。本文将基于功能原理、实测效果、性价比与合规性,对这三款工具进行一次深入对比,帮助你找到最适合自己的“文本优化助
大语言模型(Large Language Model, LLM)简称大模型,本质上是基于海量文本数据训练的、通过统计规律映射语言与知识的 “概率生成模型” —— 核心并非 “理解” 语言或世界,而是通过学习人类文本中的字符(词 / 字 /Token)序列关系,实现 “给定输入后,生成符合人类逻辑与常识的输出”。可从 3 个核心层面理解。
看下来,大模型微调领域范式创立时期是 2021-2023 年:LoRA (2021)、P-Tuning v2 (2021)、QLoRA (2023) 解决了大模型微调的根本问题:如何在有限硬件上高效且不牺牲太多性能地微调模型。是到23年之后,就没有大的变化,基本上都是在基石基础上缝缝补补的小改进。在工程领域,研究的更多的是把 QLoRA/LoRA 运行得更快、更稳定的问题。比如,FlashAtte
BERT为自然语言处理提供通用解决方案,微调时只需加全连接层。本文介绍了其在单文本分类、文本对分类或回归、文本标注和问答等任务上的应用及微调方法。
大模型技术路径是一场算力、算法、数据2017年Transformer架构奠定基础2018年BERT/GPT-1确立预训练范式2020年GPT-3展示规模效应与涌现能力2022年RLHF提升模型对齐能力2023年GPT-4/Gemini开启多模态时代2025年RLVR/DPO推动效率与真理导向训练未来技术路径将围绕效率提升、能力深化、安全对齐、生态扩展四大方向发展,最终目标是构建通用人工智能,实现更
本文介绍了微调的基本概念,以及如何对语言模型进行微调。从 GPT3 到 ChatGPT、从GPT4 到 GitHub copilot的过程,微调在其中扮演了重要角色。什么是微调(fine-tuning)?微调能解决什么问题?什么是 LoRA?如何进行微调?本文将解答以上问题,并通过代码实例展示如何使用 LoRA 进行微调。
总结了一份AI相关的知识框架和学习路径:- 企业级应用学完这三个阶段,你将完成从AI新手到AI架构师的完整蜕变。作者能力有限,借此希望为想学习AI的朋友们提供一条系统性的学习路线,快速入门,拥抱AI!
欢迎来到第三章节的学习。如果说前两章我们是在了解智能体是个“什么样的人”以及他的“家谱”,那么这一章,我们要真正打开它的头盖骨,看看那个被称为“大语言模型(LLM)”的大脑到底是如何像生物神经元一样运作的。别被那些学术名词吓倒。什么 Transformer、注意力机制、自回归……把它们当成我们为了造出一个“会说话的机器”而发明的一系列精巧的工具。我们会用最直观的方式拆解它们。准备好了吗?让我们开始
AI外呼系统和语音智能体正成为企业客服中心的重要工具。当前市场主要有三类产品:业务导向型,提供完整外呼解决方案;对话体验型,专注自然交互;云平台型,技术强大但部署复杂。企业在选型时应重点考虑上线速度、维护能力、本地化适配和系统集成需求,而非单纯比较技术参数。业务型系统适合快速部署,平台方案则更适合有技术团队的企业进行深度定制。
作为一个长期混迹于 AI 应用后端与系统工程圈的人,我踩过 Flask 的性能坑、Django 的复杂度陷阱,直到三年前遇到 FastAPI,才找到了能同时支撑快速原型、生产级部署、大模型高并发推理的「瑞士军刀」。这 20 多篇深度长文,将从最基础的 hello world 讲起,一步步带你搭建出支持 RAG 知识库、多模态对话的企业级 AI 系统。
为什么你用熟悉的Web/Android思维写出的鸿蒙代码,就像一首跑调的交响乐。辉光大小姐将亲自下场,教你如何戒掉“肌肉记忆”,真正学会用“火星重力”走路。
作者:昇腾实战派 x 哒妮滋T5模型,是 Transfer Text-to-Text Transformer 的简写;Transfer 来自 Transfer Learning,预训练模型大体在这范畴,Transformer 也不必多说,Text-to-Text 是作者在这提出的一个统一训练框架,将所有 NLP 任务都转化成 Text-to-Text (文本到文本)任务。英德翻译:只需将训练数据集
在2026年的第一天,我的新工作岗位转正了,这也标志着经历半年的工作实战锻炼,我已经正式适应AI应用开发这个岗位。
本文从Java开发者角度,探讨向AI大模型领域转型的技术路径与学习策略。
自然语言处理
——自然语言处理
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net