logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DeepSeek-V3.2对决MiniMax-M2:一场“深度思考”与“高效执行”的终极较量

本文对比评测了DeepSeek-V3.2和MiniMax-M2两款AI模型在多个维度的表现。结果显示,DeepSeek-V3.2在复杂推理、代码生成、创意写作和专业分析等任务中展现出更强的系统性思维和深度分析能力,能够提供结构化、理论支撑的解决方案。而MiniMax-M2则更擅长快速响应和简洁解答,适合日常快速问答场景。在伦理判断、多模态处理和系统集成等复杂任务中,DeepSeek-V3.2表现出

文章图片
#人工智能#算法#数据结构
昇腾Atlas 800T平台下Qwen-14B大语言模型的SGLang适配与性能实测

摘要:本文基于昇腾Atlas800T NPU开发环境,对Qwen-14B大语言模型在SGLang框架下的适配与性能进行了系统验证。研究内容包括环境配置、兼容性测试、性能基准评估(FP16精度下平均吞吐20-25 tokens/s)以及RadixAttention缓存、投机推理等高级特性验证。测试结果表明,该模型在昇腾平台上可稳定运行,显存占用18-20GB,支持批量推理和长文本生成。研究还提出了包

文章图片
#语言模型#sglang#人工智能
昇腾Atlas 800T平台下Qwen-14B大语言模型的SGLang适配与性能实测

摘要:本文基于昇腾Atlas800T NPU开发环境,对Qwen-14B大语言模型在SGLang框架下的适配与性能进行了系统验证。研究内容包括环境配置、兼容性测试、性能基准评估(FP16精度下平均吞吐20-25 tokens/s)以及RadixAttention缓存、投机推理等高级特性验证。测试结果表明,该模型在昇腾平台上可稳定运行,显存占用18-20GB,支持批量推理和长文本生成。研究还提出了包

文章图片
#语言模型#sglang#人工智能
昇腾Atlas 800T平台下Qwen-14B大语言模型的SGLang适配与性能实测

摘要:本文基于昇腾Atlas800T NPU开发环境,对Qwen-14B大语言模型在SGLang框架下的适配与性能进行了系统验证。研究内容包括环境配置、兼容性测试、性能基准评估(FP16精度下平均吞吐20-25 tokens/s)以及RadixAttention缓存、投机推理等高级特性验证。测试结果表明,该模型在昇腾平台上可稳定运行,显存占用18-20GB,支持批量推理和长文本生成。研究还提出了包

文章图片
#语言模型#sglang#人工智能
HR追着要的面试分析Agent!全网首发华为ModelEngine实战

ModelEngine成功地将大模型的强大能力“平民化”,让开发者无需深入底层细节,就能将注意力集中在业务逻辑和创新上。无论你是想快速验证一个AI想法,还是为企业构建复杂的AI工作流,ModelEngine都是一个非常值得尝试的强大工具。

文章图片
#面试#华为#职场和发展
算力新标杆:昇腾Atlas 800T NPU实战Llama-2-7b全流程评测与技术解析

本文详细介绍了在昇腾Atlas800T NPU平台上部署大语言模型(LLM)的完整流程。首先通过GitCode Notebook快速搭建NPU开发环境,验证硬件状态和Python基础环境;然后配置HuggingFace生态连接,优化模型下载通道;接着完成首个NPU推理实例的部署测试,并深入优化内存管理和性能测评方案,包括首字延迟和每令牌延迟的精确测量。实践表明,昇腾平台能有效支持7B参数规模模型的

文章图片
#服务器#数据库#运维
金泽大仙养成记:如何利用知识库和Agent架构构建一个可信的算命AI

本次实践详细记录了如何利用腾讯元器平台,从零到一构建一个名为“金泽大仙”的八字算命AI智能体。其成功关键在于三个层面的精心设计:首先,是知识层面的构建,通过上传本地梅花易数PDF文档,为AI注入了专业的命理学知识,奠定了其“算命”能力的核心基础,使其回答有据可依。其次,是架构层面的选择,采用Multi-Agent模式,不仅设立了主智能体“金泽大仙”,还巧妙地嵌入了用于安抚用户的辅助Agent,实现

文章图片
#人工智能
从零到一:手把手教你创建Multi-Agent模式的HR人事经理

本文详细介绍了如何构建一个专业化的"HR人事经理"AI智能体。通过Multi-Agent模式,结合精心设计的角色设定(8年HR经验、专业评估能力等)和提示词优化,打造了一个能提供简历评估与修改建议的虚拟HR。系统创新性地采用"文档解析"子智能体处理简历文件上传问题,实现了主从智能体的高效协作。测试表明,该智能体能针对简历内容提出5-8个专业问题和3-5条具体

文章图片
#人工智能
首发实践:在昇腾NPU上从零部署与深度评测Mistral-7B-v0.3全流程

本文详细介绍了将Mistral-7B-v0.3大模型部署到华为昇腾AI处理器的全流程实践。主要内容包括:1)基于GitCode Notebook的昇腾开发环境搭建与验证;2)模型下载与适配方案,重点解决注意力机制和内存布局优化;3)完整的性能测试方案设计,覆盖五种典型应用场景;4)常见问题解决方案汇总。实践表明,经过优化后的Mistral-7B在昇腾平台上推理速度可达131.2tokens/秒,I

文章图片
#pytorch#人工智能#python
GLM-4.7史诗级进化!国产大模型代码能力全面碾压GPT-5.2,百万盲测登顶全球开源第一!

GLM-4.7大模型在编程领域实现重大突破,成为开源模型中的佼佼者。该模型在0-1项目构建和1-100工程优化两方面展现出卓越能力:不仅能从需求描述直接生成完整可运行的前后端代码,还能在已有项目中高效完成Bug修复、功能扩展和性能优化等任务。测试显示,其生成的代码可运行性高,逻辑清晰,大幅提升开发效率。在SWE-bench等权威评测中,GLM-4.7以73.8%的成绩刷新开源模型纪录,超越多个商业

文章图片
    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择