
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
AI大模型正在引领人类历史上最快的技术革命,其核心是通过海量数据预训练的通用智能体,具备千亿级参数、涌现能力和多模态处理等特征。自2017年Transformer架构诞生以来,大模型技术不断突破,如GPT-3的上下文学习能力、GPT-4V的多模态处理能力以及RAG技术的成熟。大模型不仅是工具,更是新型生产力基础设施,正在改变各行各业的工作方式。从智能办公到医疗咨询,大模型通过文本理解、逻辑推理和多

本文系统介绍了大语言模型应用中的关键技术概念:Agent(智能体)是基于LLM结合外部工具完成复杂任务的实体;FunctionCalling是让LLM生成结构化指令调用外部函数的机制;MCP是标准化模型与工具连接的协议;A2A则实现了不同Agent间的协作。文章通过天气查询示例展示了Agent工作流程,分析了各项技术的必要性及相互关系:FunctionCalling/MCP解决工具调用问题,而A2

阿里开源Qwen3系列大模型全线发布,在代码、数学等基准测试中表现优异。文章介绍了通过Ollama(需≥0.6.6版本)快速本地部署Qwen3模型的方法,包括模型选择、显存占用分析和推理速度测试。特别说明该系列支持关闭思考模式(添加/no_think)以提升效率。同时展示了Python调用技巧:使用ollama库实现文本生成/对话任务,以及基于pydantic-ai构建支持函数调用的智能体应用。文

本文详细介绍了如何搭建n8n+mcp+deepseek的工作流,分为四个主要步骤:首先,通过Docker部署n8n,推荐使用官方镜像或国内镜像;其次,激活n8n账号并完成注册;接着,安装mcp工具节点;最后,正式搭建工作流,包括创建workflow、添加Onchatmessage和AIAgent组件、配置deepseek模型和MCPClientTool组件。通过这一流程,用户可以实现在n8n平台上

神经网络是机器学习和深度学习的核心技术,通过模拟人脑神经元的工作机制来实现人工智能。本文从神经元的基本概念出发,逐步介绍了单层神经网络、两层神经网络以及多层神经网络的结构、训练方法和应用效果。神经网络通过矩阵运算和激活函数模拟复杂的非线性关系,具备强大的函数拟合能力。随着计算性能的提升、数据量的增加以及训练方法的优化,神经网络在图像识别、语音识别等领域取得了显著成果。然而,神经网络的发展并非一帆风

人类之间的沟通大量基于长期已有认知,即便表达存在模糊性也仍然可以顺畅理解对方意思。特别在网络时代,大量图像的输入以及如网络用语、“梗”的使用导致对语言表达的偏废,也就导致缺乏主动寻求意义的动力。因此,在人工智能时代,如何表达精准成为人类需要学习的与人工智能对话的最基本要领。将人工智能大语言模型用于合同审查,可能是法律人利用人工智能的主要方式之一,但是由于表达的不精准和模糊,往往会使大语言模型的输出
本文全面介绍了基于MCP(Model Context Protocol)的AI应用技术架构,从基础设施层到应用层,详细阐述了各层次的关键技术和协同工作机制。基础设施层包括GPU、CPU、RAM、HDD和Network等硬件支持;云原生层通过Docker和K8S实现弹性伸缩;模型层涵盖大语言模型、视觉-语言模型等;应用技术层涉及MCP协议、Agent技术、RAG技术等;应用架构层解决高可用、高性能和

《文本梯度:多智能体系统优化的新范式》摘要 近期《自然》期刊提出TextGrad框架,开创性地利用自然语言反馈(文本梯度)优化多智能体AI系统。该研究突破传统反向传播依赖数值梯度的限制,通过LLM生成的文本改进建议(如"总结可通过...改进")实现黑箱系统的自动优化。实验表明,TextGrad在代码优化(LeetCode正确率提升10%)、复杂问答(MMLU物理子集提升3.9%
很多AI新手在接触大模型时都会被"微调"二字劝退。想实战没有环境?自己根本玩不转?本文带你用一杯咖啡的时间,了解大模型的微调技术,无需高端显卡,用魔塔社区免费资源即可实战体验,在实战中理解微调技术,感受薅羊毛的快乐!根据具体需求(如训练速度、内存占用、灵活性等)选择合适的微调方案,本次以LoRA为例进行微调测试。常见的微调技术如下:1. 全参数微调(Full Fine-Tuning)• 技术特点:

本文详细介绍了大模型项目研发中模型训练的关键步骤,包括学习率设置、数据加载、前向传播、损失计算、反向传播以及验证与调整。学习率的选择和动态调整对模型训练至关重要,DataLoader则能高效加载数据,提升训练速度。前向传播和反向传播是模型学习的核心,通过优化器进行参数更新。验证集的使用有助于监控模型性能,避免过拟合和欠拟合。文章通过代码示例和常见问题解决方案,帮助读者逐步掌握模型训练的全流程,无论
