
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文对比评测了DeepSeek-V3.2和MiniMax-M2两款AI模型在多个维度的表现。结果显示,DeepSeek-V3.2在复杂推理、代码生成、创意写作和专业分析等任务中展现出更强的系统性思维和深度分析能力,能够提供结构化、理论支撑的解决方案。而MiniMax-M2则更擅长快速响应和简洁解答,适合日常快速问答场景。在伦理判断、多模态处理和系统集成等复杂任务中,DeepSeek-V3.2表现出

摘要:本文基于昇腾Atlas800T NPU开发环境,对Qwen-14B大语言模型在SGLang框架下的适配与性能进行了系统验证。研究内容包括环境配置、兼容性测试、性能基准评估(FP16精度下平均吞吐20-25 tokens/s)以及RadixAttention缓存、投机推理等高级特性验证。测试结果表明,该模型在昇腾平台上可稳定运行,显存占用18-20GB,支持批量推理和长文本生成。研究还提出了包

摘要:本文基于昇腾Atlas800T NPU开发环境,对Qwen-14B大语言模型在SGLang框架下的适配与性能进行了系统验证。研究内容包括环境配置、兼容性测试、性能基准评估(FP16精度下平均吞吐20-25 tokens/s)以及RadixAttention缓存、投机推理等高级特性验证。测试结果表明,该模型在昇腾平台上可稳定运行,显存占用18-20GB,支持批量推理和长文本生成。研究还提出了包

摘要:本文基于昇腾Atlas800T NPU开发环境,对Qwen-14B大语言模型在SGLang框架下的适配与性能进行了系统验证。研究内容包括环境配置、兼容性测试、性能基准评估(FP16精度下平均吞吐20-25 tokens/s)以及RadixAttention缓存、投机推理等高级特性验证。测试结果表明,该模型在昇腾平台上可稳定运行,显存占用18-20GB,支持批量推理和长文本生成。研究还提出了包

ModelEngine成功地将大模型的强大能力“平民化”,让开发者无需深入底层细节,就能将注意力集中在业务逻辑和创新上。无论你是想快速验证一个AI想法,还是为企业构建复杂的AI工作流,ModelEngine都是一个非常值得尝试的强大工具。

本文详细介绍了在昇腾Atlas800T NPU平台上部署大语言模型(LLM)的完整流程。首先通过GitCode Notebook快速搭建NPU开发环境,验证硬件状态和Python基础环境;然后配置HuggingFace生态连接,优化模型下载通道;接着完成首个NPU推理实例的部署测试,并深入优化内存管理和性能测评方案,包括首字延迟和每令牌延迟的精确测量。实践表明,昇腾平台能有效支持7B参数规模模型的

本次实践详细记录了如何利用腾讯元器平台,从零到一构建一个名为“金泽大仙”的八字算命AI智能体。其成功关键在于三个层面的精心设计:首先,是知识层面的构建,通过上传本地梅花易数PDF文档,为AI注入了专业的命理学知识,奠定了其“算命”能力的核心基础,使其回答有据可依。其次,是架构层面的选择,采用Multi-Agent模式,不仅设立了主智能体“金泽大仙”,还巧妙地嵌入了用于安抚用户的辅助Agent,实现

本文详细介绍了如何构建一个专业化的"HR人事经理"AI智能体。通过Multi-Agent模式,结合精心设计的角色设定(8年HR经验、专业评估能力等)和提示词优化,打造了一个能提供简历评估与修改建议的虚拟HR。系统创新性地采用"文档解析"子智能体处理简历文件上传问题,实现了主从智能体的高效协作。测试表明,该智能体能针对简历内容提出5-8个专业问题和3-5条具体

本文详细介绍了将Mistral-7B-v0.3大模型部署到华为昇腾AI处理器的全流程实践。主要内容包括:1)基于GitCode Notebook的昇腾开发环境搭建与验证;2)模型下载与适配方案,重点解决注意力机制和内存布局优化;3)完整的性能测试方案设计,覆盖五种典型应用场景;4)常见问题解决方案汇总。实践表明,经过优化后的Mistral-7B在昇腾平台上推理速度可达131.2tokens/秒,I

GLM-4.7大模型在编程领域实现重大突破,成为开源模型中的佼佼者。该模型在0-1项目构建和1-100工程优化两方面展现出卓越能力:不仅能从需求描述直接生成完整可运行的前后端代码,还能在已有项目中高效完成Bug修复、功能扩展和性能优化等任务。测试显示,其生成的代码可运行性高,逻辑清晰,大幅提升开发效率。在SWE-bench等权威评测中,GLM-4.7以73.8%的成绩刷新开源模型纪录,超越多个商业









