logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

名片记忆助手开发全记录:Rokid AI Glasses 智能体从架构设计到功能落地

本文记录了基于RokidAIGlasses开发名片记忆助手智能体的全过程。首先分析了AR眼镜行业背景及设备能力,针对商务社交场景中的人脉记忆痛点,确立了"社交记忆增强系统"的产品定位。技术实现上采用灵珠平台的三模块架构:通过表格知识库存储结构化联系人数据,Prompt工程约束模型行为,工作流引擎实现多步骤交互。重点阐述了数据建模原则、Prompt调优策略及工作流节点设计,并演示

#人工智能
打造智能健康助手:用 ModelEngine 实现实时医学问答

摘要:本文介绍了基于ModelEngine平台构建智能医疗问答系统的实践过程。作者通过整合公开医学数据库、专业书籍和权威网站内容,建立了结构化医学知识库,并利用ModelEngine的低代码工作流功能设计了包含输入分析、知识检索和智能回复的完整问答流程。该系统能够根据用户描述的症状提供个性化医疗建议,解决了传统健康咨询平台信息基础、缺乏精准性的问题。未来计划扩展语音识别、图像分析和远程医疗集成功能

文章图片
#人工智能
【云擎未来,智信天下】移动云服务器Docker部署+远程连接Redis

Redis是一个完全开源免费的高性能(NOSQL)的key-value数据库。它遵守BSD协议,使用ANSI C语言编写,并支持网络和持久化。Redis拥有极高的性能,每秒可以进行11万次的读取操作和8.1万次的写入操作。它支持丰富的数据类型,包括String、Hash、List、Set和Ordered Set,并且所有的操作都是原子性的。此外,Redis还提供了多种特性,如发布/订阅、通知、ke

文章图片
#服务器#docker#redis
OpenNJet应用引擎——云原生时代的Web服务新选择

OpenNJet 应用引擎是基于 NGINX 的面向互联网和云原生应用提供的运行时组态服务程序,作为底层引擎,OpenNJet 实现了 NGINX 云原生功能增强、安全加固和代码重构,利用动态加载机制可以实现不同的产品形态,如 Web 服务器、流媒体服务器、负载均衡、代理 (Proxy)、应用中间件、API 网关、消息队列等产品形态等等。OpenNJet正是在这样的背景下应运而生,它不仅继承了NG

文章图片
#github#开源#云原生
python脚本抢各大平台大额优惠卷

当电商平台上演盛大的购物狂欢时,如双十一、双十二,我们常常面临着选择困难症:琳琅满目的商品使我们不知所措,而一旦选定了心仪的商品,看到价格后却可能望而却步。面对这种情况,很多人渴望能够享受到各种优惠,比如大额满减和优惠券,然而通常情况下,这些优惠券抢购的竞争激烈,一般人难以抢到。不过,别担心!今天我将分享如何利用Python实现零成本抢购优惠券,帮助你在电商狂潮中脱颖而出。通过这个方法,你将有机会

文章图片
#python#开发语言
基于 GitCode 昇腾 NPU 的 LLaMA 7B 部署与性能测评全流程

最近发现一款宝藏网站——GitCode,它与百度的星河社区一样,都可以提供免费的服务器资源给开发者使用,不过GitCode的优点在于可以用华为昇腾的910B卡进行深度模型的推理部署。同时,我也测评了他俩的性能,GitCode的免费服务器性能要比百度星河社区的服务器性能好很多,而且自由度更高,可以安装自己想要安装的所有深度学习框架,而百度的星河社区现在不仅需要算力卡,还只能使用百度自家的paddle

文章图片
#昇腾
基于 GitCode 云端环境的 CANN ops-math 算子库深度测评:Ascend NPU 上的数学引擎解析

ops-math仓库:https://gitcode.com/cann/ops-mathops-math是 CANN 算子库体系中的基础组件之一,专门用于提供数学类算子(math operators)的底层实现。基础算术运算数学函数归约运算矩阵操作比较逻辑类型变换:Cast、Clip、Round 等它相当于 Ascend 平台上的“数学引擎”,为上层框架(如 MindSpore、Paddle、Py

#人工智能
告别信息过载:基于 Nexent 构建开发者技术雷达智能体

原因我猜测是 PDF 里的排版干扰——多栏布局、公式、参考文献列表——导致文本提取时结构被打乱,总结模型拿到的是一堆碎片化文字,质量自然不如结构化的 Markdown,可以使用更好的大模型比如Claude 4.6、ChatGPT 5.2、Deepseek 3.2这种,就能很好的避免这种情况的发生。智能体没有调用 MCP,转而调用内置联网搜索,搜索了"GitHub Trending Rust",拿到

文章图片
将 Bright Data 集成到 Zapier Agents,赋能 AI 协作伙伴

本指南介绍如何将 Bright Data 集成到 Zapier Agents 中,以自动化网页数据任务、生成报告,并拓展你的 AI Agent 能力。

文章图片
#人工智能
GitCode × 昇腾 NPU:vLLM 推理框架性能实测分析指南

项目vLLM推理延迟 (Batch=1)0.27 s0.19 s702.5763.1显存占用30 GB28 GB稳定性无波动无波动缓存复用不支持支持(节省25%时间)vLLM 在昇腾 910B 上稳定运行,无需额外编译或算子修改。Continuous Batching + KV Cache 带来约 10% 吞吐提升25% 延迟下降。显存利用率更优,资源占用更平衡。本次评测验证了vLLM 框架在昇腾

    共 96 条
  • 1
  • 2
  • 3
  • 10
  • 请选择