
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在机器学习领域,原始数据往往包含大量冗余、噪声或无关特征,直接使用全量特征会导致计算成本增加、模型过拟合以及解释性下降。特征选择的核心目标是从高维数据中筛选出最具预测能力的特征子集,从而提升模型性能、降低复杂度并增强可解释性。通过合理的特征工程,不仅能提升模型性能,还能为业务决策提供更清晰的洞见。特征选择作为机器学习中非常重要的一环,一直极大程度的决定这模型的效果,下面就让我们一起进入特征选择的世

2025年技术探索总结:作者回顾了全年60多篇技术文章,呈现出一条从基础工具到AI落地的完整学习路径。上半年聚焦SQL、Python基础和机器学习算法解析,下半年转向深度学习与大模型实践,并深入工程化部署(包括昇腾NPU适配)。通过RAG和AI Agent等新方向探索,实现了从"记结论"到"追根源"的思维转变。展望2026年,计划深耕大模型工程化和AI技术,

摘要:本文详细记录了在昇腾NPU上部署测试DeepSeek-OCR模型的全过程。作者从OCR技术发展历程切入,介绍了从传统模板匹配到深度学习驱动的技术演进,重点评估了DeepSeek-OCR在多语种识别、复杂场景适应性的表现。通过在GitCode Notebook的昇腾910B环境中完成模型部署,测试了包括印刷体、手写体、多语种混合等5种典型场景,结果显示该模型平均推理时间1.23秒/张,显存占用

装上之后你在 OpenClaw 里设 `model: free-opt/auto`,剩下的它全自动。不用管哪个平台今天正常、哪个超时——插件每小时跑一次全面测速,把你的模型排名更新一遍,下次聊天自动走排名第一的,自动发现 9大平台的免费模型,实时测速,每次聊天自动切换到当前最快那个

本文介绍了在GitCode+昇腾NPU环境中部署Rnj-1大模型的完整实践。通过GitCode Notebook的交互式开发环境和昇腾NPU的高效算力,详细讲解了从环境检查、依赖安装到模型部署和推理测试的全流程。文章重点解决了版本兼容性、模型权重下载加速等关键问题,并提供了性能优化建议和问题解决方案。实践表明,昇腾NPU在降低显存占用(FP16精度约14GB)的同时保持了良好的推理性能,结合Git

摘要:本文详细记录了在昇腾NPU上部署测试DeepSeek-OCR模型的全过程。作者从OCR技术发展历程切入,介绍了从传统模板匹配到深度学习驱动的技术演进,重点评估了DeepSeek-OCR在多语种识别、复杂场景适应性的表现。通过在GitCode Notebook的昇腾910B环境中完成模型部署,测试了包括印刷体、手写体、多语种混合等5种典型场景,结果显示该模型平均推理时间1.23秒/张,显存占用

本文详细测试了Qwen-Image-Edit-F2P模型在华为昇腾NPU环境下的表现。该模型基于Qwen-Image-Edit基础模型,通过LoRA技术优化了人脸驱动全身生成能力,能保持输入人脸特征的高度一致性。测试在GitCodeNotebook的昇腾Atlas800TA2服务器上进行,覆盖环境配置、模型部署、多场景生成和性能分析等环节。

最近几个月,OpenClaw 几乎刷屏了整个 AI 智能体圈子。网上到处都是“一键部署”“远程控制手机”“Telegram 养虾”这类教程,但我翻了一圈,几乎没人把它到底怎么跑起来的讲清楚。大家都在用,却很少有人真正理解:为什么一句话就能让电脑整理文件、让远端手机自动截屏?多设备是怎么被统一调度的?AI 凭什么敢直接操作你的桌面与文件?我花了几天时间把源码和架构文档啃完,然后翻阅了网上大量的教程和

最近几个月,OpenClaw 几乎刷屏了整个 AI 智能体圈子。网上到处都是“一键部署”“远程控制手机”“Telegram 养虾”这类教程,但我翻了一圈,几乎没人把它到底怎么跑起来的讲清楚。大家都在用,却很少有人真正理解:为什么一句话就能让电脑整理文件、让远端手机自动截屏?多设备是怎么被统一调度的?AI 凭什么敢直接操作你的桌面与文件?我花了几天时间把源码和架构文档啃完,然后翻阅了网上大量的教程和

继在上一章发布龙虾安装教程之后,这一章我们来进行龙虾接入飞书的配置,如果你还没有安装 Openclaw,那你也可以阅读[Windows 环境下 OpenClaw 本地部署全攻略]我的这篇文章,来进行前期的安装和准备工作,话不多说,接下来我们就来看看如何实现将Openclaw接入飞书。








