
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
GitHub 仓库:https://github.com/AstrBotDevs/AstrBotAstrBot 是一个专为 AI 大模型设计的开源聊天机器人框架,它让你可以轻松地把ChatGPT、DeepSeek、Claude 等 AI接入到 QQ、企业微信、Discord 等各种聊天平台。🤖原生支持主流 AI 模型:DeepSeek、OpenAI、Claude、GLM、通义千问等开箱即用🔌丰

在快节奏的现代生活里,我们总在和 “时间不够用” 较劲:早上出门忘关空调,要远程控制却找不到合适的工具;到了公司发现关键文件落在家里,只能干着急;收到全英文的工作邮件,逐字翻译耗时又费力;想做一份亮眼的 PPT,却卡在排版和内容构思上…… 我们需要的不是一个个零散的工具,而是一个能统筹所有需求、像真人一样替我们处理事务的 “数字员工”。OpenClaw 的出现,恰好填补了这一空白。

本文探讨了在ARM架构(如鲲鹏920)上优化TensorFlow Serving性能的实践。通过分析BoostKit开源项目中的tensorflow-serving补丁,揭示了如何通过编译优化和线程亲和性设置来提升推理性能。文章详细介绍了补丁的核心技术:1)针对性编译选项开启ARM指令集优化;2)将gRPC通信线程与计算线程隔离绑定到不同CPU核心,避免缓存失效。实践部分展示了如何打补丁、编译优化

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

飞算JavaAI的企业级专有模型,将采纳率提升至90%,以Java后端最简单的字符串去掉空格为例,此前用DS生成的代码,虽然能实现基础功能,但给出的代码示例罗列了空格、tab字段、换行符等各种情况或者替换空白字符的各种方法,但是程序员不关心有几种实现方式,更关心的是能不能直接给出一种简单又实用的代码,不需要让我们自己来衡量性能如何,是否需要手动补充匹配条件等;此前我遇到一个棘手的现场定位问题,跟踪

儿童AR识字游戏开发方案 本文基于Rokid CXR-M SDK设计了一款面向6-8岁儿童的AR识字游戏应用。系统采用分层架构设计,包含环境识别、交互控制和自适应学习三大核心模块。通过Rokid眼镜的AI场景定制能力,实现物品检测、汉字关联和语音交互功能。文章详细介绍了设备连接初始化、实时物品识别、自适应学习算法等关键技术实现,包括蓝牙/Wi-Fi双模连接、YOLOv5s轻量级模型部署等具体方案。

在‘百模大战’的当下,对于我们开发者而言,最头疼的往往不是如何写提示词,而是如何优雅地管理和切换不同的模型。今天对接了 MiniMax,明天由于业务需求又要换成 GLM,繁琐的接口文档、不统一的计费标准以及分散的 API Key 管理,常常让人在写代码前就耗尽了精力。那么,有没有一种方式,能让我们只用一套标准,就随意调度各大厂商的顶级能力?今天就给大家推荐一个能彻底解放生产力的解决方案AI Pin

本文详细介绍了在openEuler系统上通过KubeSphere和Kubernetes部署GPU加速AI应用的全流程。首先使用KubeKey为集群扩容GPU节点,然后安装NVIDIA GPU Operator实现GPU资源管理。在验证GPU可用性后,部署Ollama框架并成功运行1.5B参数的Qwen2模型进行推理测试。整个过程展示了从硬件配置到模型部署的完整云原生GPU管理链路,为企业级AI应用

本文详细介绍了在昇腾Atlas 800I A2服务器上部署DeepSeek-R1-671B大模型的实战过程。采用vLLM-Ascend框架,通过W8A8量化和PagedAttention技术,在双机16卡环境下实现高效推理。重点包括:硬件选型考量、环境配置、容器启动参数、关键环境变量设置以及主副节点启动流程。特别强调了网络配置、显存优化和并行策略等关键技术点,为大规模模型部署提供了可复现的解决方案

本文介绍了Doubao-Seed-Code的核心特性及其实战应用。该模型具备强大的视觉理解能力(VLM),能准确识别UI设计元素并推断交互功能,超越普通图片转文字方案。同时支持无缝兼容Claude Code API,大幅降低迁移成本。文章还详细演示了在Ubuntu服务器上配置开发环境的完整流程,包括Git、Node.js安装及API设置。最后通过"酷炫"风格UI改造的实战案例,








