logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一文读懂2026年大模型背后的关键技术

本文通过天才学生的比喻生动阐释了大模型训练的四个关键阶段:1)预训练阶段(博览群书)通过Transformer等架构让模型掌握基础知识和逻辑;2)后训练与对齐阶段(规矩养成)利用SFT、RLHF等技术培养模型的对话能力和价值观;3)推理增强阶段(思维深度)采用CoT、ToT等方法提升模型解决复杂问题的能力;4)智能体阶段(实习干活)通过工具调用、RAG等技术赋予模型执行实际任务的能力。这种分阶段训

文章图片
#人工智能#transformer#MCP +1
Manus 到底是个什么东西?

摘要: Manus是一款开源行动型AI助手,能自主拆解任务、调用工具并执行完整流程,实现从顾问到数字员工的升级。与ChatGPT不同,Manus能主动完成多步骤任务(如市场调研、文档整理、网页操作等),并具备试错修正能力。其核心价值在于将AI角色从辅助思考转变为替代执行,释放用户精力专注于决策判断。实际应用中,Manus擅长处理重复性工作(资料整理、初稿生成等),但方向选择、价值判断仍需人类主导。

文章图片
#人工智能#Manus#机器学习
一文搞懂AI大语言模型工作原理,初中生都能看懂

本文系统介绍了神经网络与Transformer的工作原理及其训练过程。首先解释了神经元的基本概念和人工神经网络的结构,通过买肉案例形象说明神经元计算过程。然后详细阐述了神经网络的训练机制、循环神经网络(RNN)的特点及其局限性。重点解析了Transformer的核心模块——多头自注意力机制,通过圆桌会议的比喻生动说明了其工作原理。文章还完整介绍了大语言模型训练的四个关键阶段:预训练、监督微调、奖励

文章图片
#机器学习#人工智能#AI +2
【DeepSeek实战】高质量提示词的六大技巧

高质量提示词是解锁AI潜力的关键。本文介绍了六大提示词优化框架:1. STAR法则(情景-任务-行动-结果)使问题结构化;2. 5W2H分析法确保全面提问;3. CO-STAR框架(上下文-目标-风格-语气-受众-回复)精准控制输出;4. CRISPE框架激发跨学科创意;5. BROKE框架(背景-角色-目标-关键结果-优化)实现量化目标;6. 借助AI自身优化提示词。每个框架均配有具体应用场景示

文章图片
#人工智能#AI#DeepSeek
普通LLM智能体与具身智能:从语言理解到自主行动

本文探讨了大语言模型(LLM)的演进及其两种主要应用形态:普通LLM智能体和具身智能(Agentic AI)。普通LLM智能体以被动响应方式运行,擅长语言处理和知识检索,如企业智能客服系统。而具身智能则具备主动规划、环境感知和自我学习能力,如小鹏汽车的智能驾驶系统。文章指出,具身智能的发展是迈向通用人工智能(AGI)的关键,它赋予了AI系统目标理解、自主决策和环境适应等更接近人类智能的特征。通过对

文章图片
#人工智能
构建属于自己的创意/设计AI智能体?

本文探讨了从通用AI模型向专业领域AI模型的发展趋势,特别聚焦设计领域。文章分析了隐性知识在设计中的重要性及其特征(隐含性、情境特定性等),提出了通过定性研究和AI交互记录法提取隐性知识的方法。重点阐述了如何将设计师行为转化为知识向量,并构建能够理解设计意图、生成连贯行动序列的智能体。文章还讨论了模型训练策略(LoRA、RLHF等)及当前面临的挑战,如知识提取完整性和智能体泛化能力。最后指出,通过

文章图片
#人工智能#AI#生成式AI
大模型核心技术:微调、推理与优化详细指南,推荐收藏!

本文系统介绍了大语言模型(LLM)的关键技术。首先阐述了LLM的基本概念和Transformer架构原理,包括编码器-解码器结构和自注意力机制。接着详细讲解了语言建模的发展历程,从n-gram到神经语言模型的演进。在模型训练方面,重点分析了预训练的计算挑战、分布式训练方法(DDP和FSDP)以及微调技术,特别是参数高效微调(PEFT)方法如LoRA、QLoRA和适配器等。此外,还探讨了提示工程策略

文章图片
#人工智能#AI#机器学习 +1
RAG(检索增强生成)架构与原理:告别LLM“幻觉”的秘密武器

RAG(检索增强生成)是一种优化大语言模型输出的技术,通过从外部知识库检索相关信息作为上下文输入,显著提高回答的准确性、可靠性和时效性。其工作流程分为检索(数据准备、嵌入、向量存储)和生成(上下文整合、LLM生成)两个阶段,能有效缓解LLM的幻觉问题。RAG具有提高准确性、增强可靠性、降低成本等优势,但也面临检索质量、分块策略等挑战。目前主流开源实现方案包括LangChain、LlamaIndex

文章图片
#数据库#运维#人工智能 +1
大语言模型的详解与训练

本文系统介绍了大语言模型(LLM)的定义、特点、能力及训练方法。LLM与传统预训练模型的核心差异在于其庞大的参数量(十亿至千亿级)和海量训练数据,使其具备涌现能力、上下文学习、指令遵循和逐步推理等独特优势。文章详细阐述了LLM的三阶段训练流程:预训练(Pretrain)构建基础能力,监督微调(SFT)培养指令遵循能力,以及人类反馈强化学习(RLHF)实现价值观对齐。同时分析了训练过程中的关键技术挑

文章图片
#语言模型#人工智能#自然语言处理 +1
AI Agent到底是啥?一文速通

AI Agent作为新一代智能实体,凭借感知、规划、行动和记忆四大核心能力,正在从辅助工具进化为能独立完成复杂任务的数字员工。不同于传统AI系统,AI Agent通过整合大模型与外部工具,实现从思维到行动的闭环,在商业调研、电力运维、医疗诊断等领域展现出显著价值。尽管面临大模型不确定性、多Agent协作机制不成熟等挑战,但其在金融、制造等垂直行业的深度应用已初见成效。

文章图片
#人工智能#机器学习#深度学习
    共 43 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择