logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

云侧与边缘部署:Llama-2-7b 昇腾 NPU 性能基准分析

注:实测数据基于Llama-2-7b-hf版本,输入长度均为256 tokens的均值。

推理计算效率:昇腾 NPU 上 Llama 3.2 1B 与 3B 中文模型

Llama 3.2 是 Meta 发布的大型语言模型系列,支持多语言(包括中文),其中“1B”和“3B”分别表示模型参数规模为10亿(1 billion)和30亿(3 billion)。推理计算效率是指在模型部署阶段处理输入数据(如文本生成)时的性能表现,重点关注计算速度、资源利用和延迟等。昇腾 NPU(Neural Processing Unit)是华为开发的专用AI加速器,针对神经网络计算优化

重装 Windows 后华硕 Armoury Crate 安装失败:先安装芯片组驱动的方案

在安装 Armoury Crate 前,需确保 Windows 系统版本与华硕官方支持的版本一致(如 Windows 10/11 64 位)。临时关闭 Windows Defender 或其他第三方杀毒软件(如 360、火绒),并在防火墙设置中允许 Armoury Crate 相关程序通过。安装过程中避免中断操作,若提示依赖组件缺失(如 .NET Framework 或 VC++ 运行库),需根据

推理计算效率:昇腾 NPU 上 Llama 3.2 1B 与 3B 中文模型

Llama 3.2 是 Meta 发布的大型语言模型系列,支持多语言(包括中文),其中“1B”和“3B”分别表示模型参数规模为10亿(1 billion)和30亿(3 billion)。推理计算效率是指在模型部署阶段处理输入数据(如文本生成)时的性能表现,重点关注计算速度、资源利用和延迟等。昇腾 NPU(Neural Processing Unit)是华为开发的专用AI加速器,针对神经网络计算优化

技术速递|解决 Web 应用跨域调试问题:Playwright MCP + GitHub Copilot 配置方案

Playwright 的 Multi-Context Page(MCP)功能允许在同一测试环境中创建多个隔离的浏览器上下文,每个上下文可独立配置域名和 Cookie,从而绕过跨域限制。Web 应用开发中,跨域问题(CORS)经常阻碍前后端联调,尤其是在本地开发环境下。确保测试环境与实际生产环境隔离,避免敏感数据泄露。Playwright 的默认配置已禁用危险功能(如自动下载文件),但仍需检查上下文

#前端#github
Kilocode 检索增强生成(RAG)规则引擎自定义配置

针对RAG规则引擎的自定义配置,通常涉及以下核心方面。我将逐一解释配置方法、注意事项和潜在工具(以通用框架如LangChain或Hugging Face Transformers为例,因为这些是常见实现基础)。配置时,请确保使用配置文件、API或代码接口进行。规则类型检索规则:例如,基于查询相似度阈值过滤文档。

#oracle#数据库#服务器
2025 微软 GraphRAG 2.0.0 本地部署指南:基于 Ollama 快速搭建知识图谱(附步骤)

GraphRAG 2.0.0 是微软推出的知识图谱增强生成框架,支持本地化部署与私有数据整合。其核心改进包括动态图谱构建、多模态数据兼容性,以及基于 Ollama 的轻量化推理引擎,适用于企业级知识管理和自动化问答场景。更新模型,保持与微软官方的安全补丁同步。

#microsoft#知识图谱#人工智能
Figma-MCP 设计稿转前端代码:ClaudeCode 实现 1:1 还原的技巧

Figma-MCP(Multi-Component Platform)设计稿转换为前端代码的核心在于组件化思维与样式映射。ClaudeCode 通过解析 Figma 的 JSON 结构,将图层关系转化为组件层级,同时提取精确的样式属性。启用 Figma 的开发者模式,通过「Inspect」面板获取节点的详细样式数据。实现设计系统快照测试,确保组件在不同状态下的样式一致性。识别重复出现的节点结构,将

#figma#前端
推理计算效率:昇腾 NPU 上 Llama 3.2 1B 与 3B 中文模型

Llama 3.2 是 Meta 发布的大型语言模型系列,支持多语言(包括中文),其中“1B”和“3B”分别表示模型参数规模为10亿(1 billion)和30亿(3 billion)。推理计算效率是指在模型部署阶段处理输入数据(如文本生成)时的性能表现,重点关注计算速度、资源利用和延迟等。昇腾 NPU(Neural Processing Unit)是华为开发的专用AI加速器,针对神经网络计算优化

云侧与边缘部署:Llama-2-7b 昇腾 NPU 性能基准分析

注:实测数据基于Llama-2-7b-hf版本,输入长度均为256 tokens的均值。

    共 15 条
  • 1
  • 2
  • 请选择