
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文分享了作者在腾讯大模型算法岗面试中的真实经历和思考过程,涵盖了RAG系统、大模型训练优化、推荐算法和基础能力(SQL、代码)等多个核心板块。内容深入浅出,不仅提供了面试问题的解答思路,还包含了作者的事后复盘和反思,适合正在准备相关岗位面试或想系统学习RAG方向知识的读者。最近金三银四,后台不少读者留言让我聊聊大模型方向的面试经验。恰好上个月我完整经历了某鹅的大模型用算法岗面试,从一面到三面,整

本文以极简、入门、初级三个层级,深入浅出地解析了大模型(如Deepseek)的底层工作原理。从用户输入对话到模型如何通过Transformer架构进行概率计算,再到将文本转化为Token、向量化并利用多头自注意力机制进行复杂计算,最后输出概率最高的答案。文章以“文字接龙”游戏为比喻,生动解释了大模型如何通过海量数据训练和数学函数模拟人类语言规律,并强调了位置编码的重要性。整体而言,大模型的核心是根

智能体通过自主学习实现能力跃升,其核心在于6种学习方式(强化/监督/无监督学习等)和两大算法引擎(PPO与DPO)。PPO确保稳定进化,DPO实现人类偏好对齐。典型案例包括:SICA能自主优化代码,AlphaEvolve在谷歌数据中心实现算力优化,OpenEvolve可改进完整代码文件。这些智能体突破预设限制,无需持续人工干预就能适应新场景,如游戏AI通过对战提升、客服机器人随交互优化等,展现了A

大模型的出现,让行内和行外大多数人都感到非常焦虑。行外很多人想了解却感到无从下手,行内很多人苦于没有硬件条件无法尝试。想转大模型方向,相关的招聘虽然层出不穷,但一般都要求有大模型经验。而更多的人,则一直处于观望之中,感觉自己只能每天看看各种自媒体,以及在聊天时的各种口嗨,难以躬身入局。但也有不少人对其表示怀疑,巨大的算力成本和模糊的落地场景是其发展的阻碍。大家更容易将其和元宇宙等概念联系起来,视为
本文以通俗易懂的方式解释了大模型(LLM)的工作原理,将AI比作刚入职的实习生,通过“通识教育”(预训练)、“岗前培训”(微调)和“老师傅带徒弟”(RLHF)等过程,让AI学会理解和生成文本。文章还介绍了Transformer结构、注意力机制、提示词工程等关键概念,并探讨了如何通过上下文窗口、Token等限制AI的能力,以及如何避免AI的“幻觉”和知识截止问题。最后,文章强调了理解大模型的重要性,

本文深入探讨了 AgentScope 与 Spring AI Alibaba 在大模型应用中的多智能体实践。从单智能体优先原则出发,详细解析了 Pipeline、Routing、Skills、Subagents、Supervisor、Handoffs 及 Custom Workflow 等多种多智能体模式,并提供了实用的架构选型指南。结合实际案例,展示了如何通过这些模式构建高效、灵活的 AI 应用

AI 本质就是 “让机器像人一样思考、干活” 的技术体系——不用人一步步指挥,机器能自己学规律、做决策。比如手机人脸识别、聊天机器人、自动驾驶,都是 AI 的具体应用。它不是单一技术,而是一堆技术的 “总称”,就像 “家电” 包含冰箱、电视一样。这张网上流行的图概述了人工智能(AI)随着时间推移的发展历程,从早期阶段到机器学习、深度学习以及大型语言模型(LLM)的出现。

本文介绍了RAG技术的演变过程,从Naive RAG到Advanced RAG再到Modular RAG,重点讲解了Modular RAG的架构和优势。Modular RAG通过模块化设计和智能编排,实现了更高的灵活性和可扩展性,特别强调了路由、调度和知识引导在提升系统性能中的作用。

我们谈论AI大模型,本质上是在谈论一场效率革命。对于程序员而言,大模型不是“竞争对手”,而是“高效助手”——它能帮你减少重复性编码工作,把时间留给核心逻辑设计;对于小白而言,大模型是“弯道超车”的机会,无需掌握复杂编程技能,就能凭借模型应用能力,抢占职场新风口。2025年,最危险的不是不会写代码的人,而是不会用AI提升自己的人。无论是程序员还是小白,抓住大模型这个机遇,用90天时间搭建自己的知识体

本文介绍了AI大模型在工业控制领域,特别是PLC、变频器等设备中的应用现状及前景。文章重点介绍了西门子博途、罗克韦尔LogixAI、倍福TwinCAT CoAgent、宝信天行PLC等主流厂商的AI助手功能,并探讨了通用AI工具与专用AI大模型的应用差异。同时,文章还提出了PLC AI大模型的测试维度与步骤,以及其在动态节能、预测性维护、简化调试等方面的具体应用价值。当前AI技术日益成熟,相应的软









