
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文记录了某政务系统从Oracle 11g迁移至KingbaseES V9的完整过程。项目采用KDTS+KFS工具组合,通过离线+增量同步方式实现2.6TB数据的平滑迁移,耗时9小时且业务不停机。测试表明,KingbaseES在功能兼容性、性能表现(部分场景优于Oracle)及成本控制(年授权成本节省70%+)方面表现突出。关键经验在于:国产数据库工具链已成熟,真正的迁移难点在于业务梳理而非技术实

摘要: 2026年国产时序数据库进入深水区,技术路线显著分化。随着工业互联网和能源数字化发展,时序数据从"监控型"升级为"业务决策型"。本文分析三类主流架构:极致性能型(TDengine等)、云原生导向型(openGemini等)和融合多模式(金仓数据库)。重点探讨金仓融合式架构的优势,包括业务数据关联、事务一致性保障和统一运维成本降低。选型建议考虑业务耦合

本文介绍了将Qwen2-7B模型从GPU迁移到昇腾NPU平台的过程,重点分析了CANN架构在模型适配、权重转换和性能优化中的关键作用。通过解析模型元数据、调整张量运算结构、转换权重格式等步骤,实现了模型的高效迁移。测试结果显示,优化后的模型在NPU上推理速度提升40%,精度误差小于1e-6,能耗降低30%,验证了CANN在硬件适配和计算优化方面的优势。该研究为大规模预训练模型在NPU平台的高效运行

在算子性能优化方面,ACLNN 算子结合静态/动态内存管理、硬件亲和性调度及流水线并行策略,实现了高性能计算能力。通过 MindStudio Insight 和 msProf op 等算子调优工具,开发者可以精准分析 scalar 运算、内存访问、Cache 命中率及指令流水等关键指标,快速定位性能瓶颈并进行针对性优化。典型优化手段包括 scalar 运算替换、重复计算合并及流水指令调度优化,能够

作为国内大模型领域的代表企业,智谱 AI(GLM 系列模型研发者)正通过开放免费 API + 标准化 SDK,推动大模型接口调用从 “小众尝试” 变为开发者的 “日常操作”。智谱 AI 为开发者提供永久免费的 GLM-4-Flash 模型 API,无调用次数限制(仅设合理 QPS 限制),支持多轮对话、内容生成、工具调用等核心功能。开发者无需付费,即可完成从测试到小规模应用的全流程,大幅降低尝试门

本文介绍了将Qwen2-7B模型从GPU迁移到昇腾NPU平台的过程,重点分析了CANN架构在模型适配、权重转换和性能优化中的关键作用。通过解析模型元数据、调整张量运算结构、转换权重格式等步骤,实现了模型的高效迁移。测试结果显示,优化后的模型在NPU上推理速度提升40%,精度误差小于1e-6,能耗降低30%,验证了CANN在硬件适配和计算优化方面的优势。该研究为大规模预训练模型在NPU平台的高效运行

AI原生混合搜索数据库seekdb突破传统多系统架构局限,实现向量、全文、结构化数据统一处理。相比传统方案需要组合MySQL、Elasticsearch和向量数据库的复杂架构,seekdb提供单一系统解决方案,具备三大核心优势:原生混合搜索能力支持多模态数据联合查询;事务一致性保障避免数据不一致问题;简化部署运维降低学习成本。通过Dify+RAG应用案例演示,seekdb展现出在AI应用开发中的显

随着大模型技术在 2024—2025 年的迭代加速,AI 已从专业技术圈走向大众,并迅速成为工程师和内容创作者的日常生产力工具。Gemini 3.0 的发布,再次将行业性能上限向前推动一大步 —— 推理更强、多模态更稳、代码生成质量接近真实开发者水平,在公开基准测试中甚至实现了“全维度领先”。

AI原生混合搜索数据库seekdb突破传统多系统架构局限,实现向量、全文、结构化数据统一处理。相比传统方案需要组合MySQL、Elasticsearch和向量数据库的复杂架构,seekdb提供单一系统解决方案,具备三大核心优势:原生混合搜索能力支持多模态数据联合查询;事务一致性保障避免数据不一致问题;简化部署运维降低学习成本。通过Dify+RAG应用案例演示,seekdb展现出在AI应用开发中的显

随着大模型技术在 2024—2025 年的迭代加速,AI 已从专业技术圈走向大众,并迅速成为工程师和内容创作者的日常生产力工具。Gemini 3.0 的发布,再次将行业性能上限向前推动一大步 —— 推理更强、多模态更稳、代码生成质量接近真实开发者水平,在公开基准测试中甚至实现了“全维度领先”。








