
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
AI并不是轻轻推一把的工具,而是正重新书写很多行业的运作方式。这种改变不是“提升效率”这么简单,而是正在对产业链条从上到下进行深度重构。看似悄无声息,其实已在制造、医疗、能源等传统行业内部,搅动出一场系统级的再造工程。过去几年,大家对AI的认知大多还停留在“大模型多强”“算力有多大”“数据有多全”的层面。但真正走入一线的人都知道:AI真正在起作用的地方,是流程、系统、认知乃至组织结构的底层逻辑正在

本文详细解析了大模型(LLM)的工作原理,从输入到输出的6个关键步骤:输入层、分词、嵌入层、位置编码、Transformer层和输出层。深入介绍了Transformer架构的三大核心组件:Self-Attention机制、Multi-Head Attention以及FFN与残差连接。文章解释了"大"模型的含义,包括参数规模、训练三要素(大数据、大算力、强算法)以及涌现能力,帮助读者理解大模型如何通

当下,人工智能技术正沿着“效率革新—自主演进—场景融入”的核心脉络高速发展,引领全球产业数字化转型迈入攻坚阶段。斯坦福大学发布的AI指数报告指出,在2022至2024两年间,与GPT-3.5性能相当的模型推理成本,从每百万token 20美元骤降至0.07美元,降幅超280倍;而在MMLU测试中达到60%得分的模型,其参数规模从PaLM的5400亿缩减至Phi-3-mini的38亿,参数效率提升1

文章剖析了AI Agents与Agentic AI架构设计的关键区别。AI Agents是单体智能体架构,专注于特定任务,具有可靠性和可控性,但存在推理能力不足等局限。而Agentic AI采用协作多智能体架构,能处理更复杂的工作流程,但面临系统不稳定等挑战。两种技术并非相互排斥,而是互补关系,应根据任务复杂性和需求选择合适方案。深入理解这两种技术特点及其适用场景,是构建下一代智能系统的关键。

文章详细解析了Claude Code中的Skills功能,这是一种可能颠覆下一代智能体的新技术。Skills通过将特定任务的知识和经验代码化,解决了AI编程的不确定性问题,降低了幻觉,同时节省了成本。与传统工具调用和RAG相比,Skills更加精准高效,代表了智能体构建的"去工具化"进化方向。Skills让AI能够自主决策和执行特定任务,为AI编程的未来奠定了确定性基础,有望成为垂直领域智能体构建

Anthropic提出AI开发新范式:从构建多个专用Agent转向通用Agent+Skills模式,解决"智能体动物园"带来的维护、专业和知识三大债务。Skills作为可复用、可组合、可执行的流程资产,通过渐进式披露和代码执行实现高效管理。未来竞争力在于将组织经验沉淀为可治理、可分发的技能包,而非Agent数量。

前几天 Claude 发布的 Skills 功能,大概率是“急眼”了表现:示例都给这么多了,各位产品经理们咋还不会用?!从去年 9 月 Sonnet3.7 以来,整个大模型领域的开发范式就变了:从把 AI 当成一个工具“随用随调”,转变成了让 AI 主导一切,人类为它们提供服务。

TransBigData是一个为交通时空大数据处理、分析和可视化而开发的Python包。TransBigData为处理常见的交通时空大数据(如出租车GPS数据、共享单车数据和公交车GPS数据等)提供了快速而简洁的方法。TransBigData为交通时空大数据分析的各个阶段提供了多种处理方法,代码简洁、高效、灵活、易用,可以用简洁的代码实现复杂的数据任务。
经过以上的学习步骤,从理论、到具体操作(安装、微调、量化),然后到开发,把LLM的常用的技术就学扎实了,实现了从0到1的突破,用的时间也就是半个月左右,在此基础上,再根据实际情况深入学习,就没什么问题了。

要想提高大模型在特定行业与场景中输出的适应性与准确性,除了使用RAG,还可以使用自己的数据对大模型进行微调。那么这两种方案的区别及选择的标准是什么呢?我们首先简单了解一下大模型微调。以OpenAI公司的GPT大模型为例,一个GPT架构的大模型的训练通常需要经过以下几个阶段。这是整个过程中最复杂的阶段,像GPT-4这样的模型在预训练阶段通常需要成千上万个GPU,在海量的无标记的数据上训练数月。这个阶








