logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇腾服务器:模型量化、W8A8量化、稀疏量化(量化是什么?为什么要做量化?)(模型权重、模型激活、模型剪枝、压缩模型压缩)Atlas 800I A2、Atlas 300I DUO

为什么要做量化?在实际应用中,尤其是在部署到资源有限的环境(如移动设备、边缘计算设备或特定的服务器硬件)时,模型的大小和计算速度至关重要。量化技术能够在保证模型性能基本不变的情况下,大幅度降低内存占用和计算资源的需求。

文章图片
#剪枝#算法#机器学习
MindIE(Mind Inference Engine,昇腾推理引擎)MindIE Service监听0.0.0.0安全风险(全0监听全0)(无法监听0.0.0.0解决方案)

优势:通过Nginx实现安全隔离,支持SSL/TLS卸载、限流等高级功能。,全零监听可能导致网络隔离失效,建议仅在受信任的内网环境启用。适用场景:需要直接对外暴露服务的可信内网环境。根据昇腾社区官方文档的说明,要解决监听。

文章图片
#安全
华为MindIE兼容OpenAI接口与兼容vLLM OpenAI接口的区别(华为VLLM)

等技术显著提升推理性能。其核心优势在于优化内存管理与并行计算,适用于自然语言处理(NLP)、图像生成、语音识别等场景。华为MindIE提供的两种兼容接口(兼容OpenAI接口和兼容vLLM OpenAI接口)主要在。Ascend-vLLM已用于Qwen1.5等大模型的NPU推理部署(为华为生态下的AI推理提供了高效、灵活的解决方案。)是一个针对大规模语言模型推理的高效框架,通过。华为针对昇腾NPU

文章图片
#华为
华为昇腾服务器(固件版本查询、驱动版本查询、CANN版本查询)

如需更详细的版本查询步骤或兼容性列表,可参考昇腾社区的。

文章图片
#服务器#chrome#运维
Vmware虚拟机安装openEuler 20.03 LTS(openEuler20.03)

然而,请注意,虽然这可能解决你当前的问题,但这样做会降低你系统的安全性,因为SELinux不再阻止任何潜在的恶意行为。如果这个索引指向的地方不正确,那么你可能会下载到错误的版本,或者甚至根本无法找到你需要的库。例如,你可能想要安装一个特定版本的库,但是你的yum源可能指向了包含不同版本库的仓库,这样你通过yum安装时可能就会得到一个错误的版本。综上所述,选择安装openEuler 20.03 LT

文章图片
#java#数据库#网络
JavaScript Mock工具介绍(Jest、Sinon.JS)(行为验证、状态存根)

Mock是一种在软件测试中模拟对象行为的重要工具。它能帮助我们隔离被测试的代码单元,使单元测试更加可控和可靠。让我们深入理解Mock的核心概念和应用。Mock是一种测试替身(Test Double)技术,它通过创建一个模拟对象来替代真实的依赖对象。想象一下,就像电影拍摄时使用替身演员一样,Mock对象在测试中扮演着真实对象的角色,但其行为是可以被我们完全控制的。Mock是单元测试中不可或缺的工具,

文章图片
#javascript#开发语言#ecmascript
LangChain介绍(开源大语言模型LLM应用构建框架,提供完整工具和组件,使开发者能够创建复杂、交互式且上下文感知的LLM应用)LangServe

LangChain作为构建LLM应用的框架,正在迅速发展并定义行业标准。掌握LangChain不仅能够快速构建功能强大的AI应用,还能够深入理解大语言模型在实际应用中的潜力与局限。随着技术不断进步,LangChain将继续扮演连接模型能力与实际应用需求的桥梁角色。

文章图片
#语言模型#人工智能
zustand解决的痛点以及zustand状态管理与C++全局变量的区别对比

正如知识库[1]所述:Zustand的"核心理念是’最小化’,意味着你可以只为应用中需要的部分状态创建store,而不是强迫使用全局状态,进而提高了应用的性能和可维护性"。Zustand的魔力在于它让你"忘记状态管理的存在,专注于构建功能本身",这正是它被众多开发者称为"轻量级状态管理的革命"的原因。5,还可以用extern在函数外对全局变量声明,使全局变量的作用域从声明处到文件的结束。4,当全局

#c++#前端
模型上下文协议MCP协议(Model Context Protocol)未来应用场景分析(多智能体协作A2A协议)

MCP协议正推动AI从“孤立模型”走向“生态互联”,未来将在各行业催生大量创新应用。普通公司可通过云平台接入、垂直工具开发和生态合作参与其中,同时需关注安全、合规及人才培养。对于个人而言,掌握MCP相关技能(如API设计、AI集成)将显著提升职业竞争力。

#人工智能
RAG检索增强生成(Retrieval-Augmented Generation)介绍(双模态架构:检索子系统、生成子系统)实现知识获取与内容生成的协同

集成LLM的推理能力与检索结果的上下文敏感性(如GPT-4的in-context learning机制)检索增强生成(Retrieval-Augmented Generation, RAG)通过构建。百度智能云提出RAG+Fine-tuning混合架构,在智能客服场景实现97.3%的准确率(基于向量化表征建立动态知识图谱(示例:使用BERT-Whitening优化句向量分布):腾讯云智能客服系统采

文章图片
#架构
    共 1093 条
  • 1
  • 2
  • 3
  • 110
  • 请选择