
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
有时候想看一部电影,比想象中更难。打开各种平台,推荐列表看起来很多,但真正想点进去的却不多;问朋友,得到的回答往往也比较随意;即使是用通用的 AI 工具去问,给出的结果也常常比较泛,很难真正贴合当下的心情和需求。

在日常开发中,我经常会遇到这样的情况:需要快速理解一段不熟悉的代码,但仅靠阅读往往效率不高,而直接使用通用的 AI 工具,又容易得到一些不够准确或者不够清晰的解释。尤其是在涉及算法逻辑或者多层调用时,很难做到既完整又易理解。

在日常学习和查资料的过程中,我经常会遇到这样的问题:资料很多,但整理效率很低;AI 虽然能回答问题,但往往缺乏对上下文的理解,也很难基于一批文档做出结构化的总结。于是我尝试用 Nexent 搭建一个“论文/资料整理助手”,希望它不仅能回答问题,还能真正参与到资料整理的过程中。

前段时间,我有幸免费得到了雷龙出品的贴片式TF卡芯片及转接板,这是一份意外的惊喜。这套组合包括两片贴片式NAND芯片和一个转接板,其中一个芯片已经被官方精心焊接在转接板上,完美无瑕。

在信息技术日新月异的今天,Linux操作系统以其强大的稳定性和灵活性,成为了服务器、嵌入式系统以及众多开发者心中的首选平台。而在Linux系统的广阔天地中,I/O(输入/输出)操作无疑是连接用户与硬件、软件之间的桥梁,其性能的优化直接关系到整个系统的响应速度和数据处理能力。

本文介绍了使用仓颉语言实现的HTML消毒库sanitize_html。该库采用分层模块化设计,包含HTML解析、标签过滤、URL验证等核心功能。文章重点解析了Frame、Tag等核心数据结构的设计,以及HTML解析器的实现流程,包括标签跟踪、文本处理和CDATA支持等关键技术。该项目展现了仓颉语言在Web安全领域的应用潜力,通过类型安全设计和Option模式,有效防止XSS攻击,为开发者提供了可靠
本文介绍了在GitCode云端Notebook环境中部署Mistral-7B-Instruct-v0.2大语言模型的完整流程。使用Atlas 800T NPU(1*Ascend 910B)硬件环境,详细说明了从环境检查、依赖安装(包括transformers、accelerate等库)、通过ModelScope SDK高速下载模型,到测试模型推理性能的完整步骤。文章提供了具体的代码示例和操作截图,

openEuler性能验证测试表明,该系统在多架构硬件环境下表现优异。测试采用x86和ARM双平台,验证了CPU、内存、存储及异构计算能力。结果显示openEuler能准确识别不同硬件架构,存储性能测试中顺序读写速度达1GB/s以上,随机读写IOPS超10万。GPU加速测试确认了其对NVIDIA显卡的良好支持,CUDA计算能力验证通过。测试数据表明openEuler具备优秀的跨平台兼容性和高性能表

本文分享了在GitCode云端Notebook环境中对Qwen2-7B-Instruct模型进行性能调优的完整实践。通过ModelScope高效下载模型后,重点测试了不同批大小、KV缓存和量化设置下的推理性能,并提供了详细的调优步骤和实测数据。文章面向初次接触大模型优化的开发者,涵盖环境准备、模型加载、性能测试方法及优化建议,帮助读者快速掌握Qwen2-7B模型的性能调优技巧。

本文介绍了在GitCode云端Notebook环境中部署Meta-Llama-3-8B-Instruct大模型的完整流程。教程从环境准备开始,详细说明了如何利用ModelScope实现模型高速下载,并提供了适配Ascend NPU的推理代码编写方法。文章包含环境检查、模型下载、性能测试和NPU负载监控等关键步骤,同时针对常见问题给出了解决方案。通过图文并茂的方式,作者展示了从零开始部署大模型的全过








