
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了在GitCode+昇腾NPU环境中部署Rnj-1大模型的完整实践。通过GitCode Notebook的交互式开发环境和昇腾NPU的高效算力,详细讲解了从环境检查、依赖安装到模型部署和推理测试的全流程。文章重点解决了版本兼容性、模型权重下载加速等关键问题,并提供了性能优化建议和问题解决方案。实践表明,昇腾NPU在降低显存占用(FP16精度约14GB)的同时保持了良好的推理性能,结合Git

摘要:本文详细记录了在昇腾NPU上部署测试DeepSeek-OCR模型的全过程。作者从OCR技术发展历程切入,介绍了从传统模板匹配到深度学习驱动的技术演进,重点评估了DeepSeek-OCR在多语种识别、复杂场景适应性的表现。通过在GitCode Notebook的昇腾910B环境中完成模型部署,测试了包括印刷体、手写体、多语种混合等5种典型场景,结果显示该模型平均推理时间1.23秒/张,显存占用

本文详细测试了Qwen-Image-Edit-F2P模型在华为昇腾NPU环境下的表现。该模型基于Qwen-Image-Edit基础模型,通过LoRA技术优化了人脸驱动全身生成能力,能保持输入人脸特征的高度一致性。测试在GitCodeNotebook的昇腾Atlas800TA2服务器上进行,覆盖环境配置、模型部署、多场景生成和性能分析等环节。

最近几个月,OpenClaw 几乎刷屏了整个 AI 智能体圈子。网上到处都是“一键部署”“远程控制手机”“Telegram 养虾”这类教程,但我翻了一圈,几乎没人把它到底怎么跑起来的讲清楚。大家都在用,却很少有人真正理解:为什么一句话就能让电脑整理文件、让远端手机自动截屏?多设备是怎么被统一调度的?AI 凭什么敢直接操作你的桌面与文件?我花了几天时间把源码和架构文档啃完,然后翻阅了网上大量的教程和

最近几个月,OpenClaw 几乎刷屏了整个 AI 智能体圈子。网上到处都是“一键部署”“远程控制手机”“Telegram 养虾”这类教程,但我翻了一圈,几乎没人把它到底怎么跑起来的讲清楚。大家都在用,却很少有人真正理解:为什么一句话就能让电脑整理文件、让远端手机自动截屏?多设备是怎么被统一调度的?AI 凭什么敢直接操作你的桌面与文件?我花了几天时间把源码和架构文档啃完,然后翻阅了网上大量的教程和

继在上一章发布龙虾安装教程之后,这一章我们来进行龙虾接入飞书的配置,如果你还没有安装 Openclaw,那你也可以阅读[Windows 环境下 OpenClaw 本地部署全攻略]我的这篇文章,来进行前期的安装和准备工作,话不多说,接下来我们就来看看如何实现将Openclaw接入飞书。

本文介绍了在GitCode+昇腾NPU环境中部署Rnj-1大模型的完整实践。通过GitCode Notebook的交互式开发环境和昇腾NPU的高效算力,详细讲解了从环境检查、依赖安装到模型部署和推理测试的全流程。文章重点解决了版本兼容性、模型权重下载加速等关键问题,并提供了性能优化建议和问题解决方案。实践表明,昇腾NPU在降低显存占用(FP16精度约14GB)的同时保持了良好的推理性能,结合Git

本文将带你走进大模型微调的世界,让你体会如何高效的让大模型根据自己的想法从基座模型变成某领域的专家。

我们介绍了第一代推理模型DeepSeek-R1-Zero和DeepSeek-R1。DeepSeek-R1-Zero是通过大规模强化学习(RL)训练的模型,无需将监督微调(SFT)作为初步步骤,展现出卓越的推理能力。通过强化学习,DeepSeek-R1-Zero自然地展现出许多强大且引人注目的推理行为。然而,它面临着诸如可读性差和语言混杂等挑战。为了解决这些问题并进一步提升推理性能,我们推出了Dee

摘要:中国科技大学与Metastone Technology联合提出的A-RAG框架对传统检索增强生成(RAG)技术进行了革新性升级。该技术通过赋予语言模型自主控制检索工具的能力,实现了动态检索策略选择和迭代信息收集。相比传统RAG的固定检索流程,A-RAG提供了关键词搜索、语义搜索和文本读取三种工具接口,在多跳问答任务中准确率提升10-20个百分点。该框架解决了传统RAG在检索维度单一、检索生成








