
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文记录了基于RokidAIGlasses开发名片记忆助手智能体的全过程。首先分析了AR眼镜行业背景及设备能力,针对商务社交场景中的人脉记忆痛点,确立了"社交记忆增强系统"的产品定位。技术实现上采用灵珠平台的三模块架构:通过表格知识库存储结构化联系人数据,Prompt工程约束模型行为,工作流引擎实现多步骤交互。重点阐述了数据建模原则、Prompt调优策略及工作流节点设计,并演示
摘要:本文介绍了基于ModelEngine平台构建智能医疗问答系统的实践过程。作者通过整合公开医学数据库、专业书籍和权威网站内容,建立了结构化医学知识库,并利用ModelEngine的低代码工作流功能设计了包含输入分析、知识检索和智能回复的完整问答流程。该系统能够根据用户描述的症状提供个性化医疗建议,解决了传统健康咨询平台信息基础、缺乏精准性的问题。未来计划扩展语音识别、图像分析和远程医疗集成功能

Redis是一个完全开源免费的高性能(NOSQL)的key-value数据库。它遵守BSD协议,使用ANSI C语言编写,并支持网络和持久化。Redis拥有极高的性能,每秒可以进行11万次的读取操作和8.1万次的写入操作。它支持丰富的数据类型,包括String、Hash、List、Set和Ordered Set,并且所有的操作都是原子性的。此外,Redis还提供了多种特性,如发布/订阅、通知、ke

OpenNJet 应用引擎是基于 NGINX 的面向互联网和云原生应用提供的运行时组态服务程序,作为底层引擎,OpenNJet 实现了 NGINX 云原生功能增强、安全加固和代码重构,利用动态加载机制可以实现不同的产品形态,如 Web 服务器、流媒体服务器、负载均衡、代理 (Proxy)、应用中间件、API 网关、消息队列等产品形态等等。OpenNJet正是在这样的背景下应运而生,它不仅继承了NG

当电商平台上演盛大的购物狂欢时,如双十一、双十二,我们常常面临着选择困难症:琳琅满目的商品使我们不知所措,而一旦选定了心仪的商品,看到价格后却可能望而却步。面对这种情况,很多人渴望能够享受到各种优惠,比如大额满减和优惠券,然而通常情况下,这些优惠券抢购的竞争激烈,一般人难以抢到。不过,别担心!今天我将分享如何利用Python实现零成本抢购优惠券,帮助你在电商狂潮中脱颖而出。通过这个方法,你将有机会

最近发现一款宝藏网站——GitCode,它与百度的星河社区一样,都可以提供免费的服务器资源给开发者使用,不过GitCode的优点在于可以用华为昇腾的910B卡进行深度模型的推理部署。同时,我也测评了他俩的性能,GitCode的免费服务器性能要比百度星河社区的服务器性能好很多,而且自由度更高,可以安装自己想要安装的所有深度学习框架,而百度的星河社区现在不仅需要算力卡,还只能使用百度自家的paddle

ops-math仓库:https://gitcode.com/cann/ops-mathops-math是 CANN 算子库体系中的基础组件之一,专门用于提供数学类算子(math operators)的底层实现。基础算术运算数学函数归约运算矩阵操作比较逻辑类型变换:Cast、Clip、Round 等它相当于 Ascend 平台上的“数学引擎”,为上层框架(如 MindSpore、Paddle、Py
原因我猜测是 PDF 里的排版干扰——多栏布局、公式、参考文献列表——导致文本提取时结构被打乱,总结模型拿到的是一堆碎片化文字,质量自然不如结构化的 Markdown,可以使用更好的大模型比如Claude 4.6、ChatGPT 5.2、Deepseek 3.2这种,就能很好的避免这种情况的发生。智能体没有调用 MCP,转而调用内置联网搜索,搜索了"GitHub Trending Rust",拿到

本指南介绍如何将 Bright Data 集成到 Zapier Agents 中,以自动化网页数据任务、生成报告,并拓展你的 AI Agent 能力。

项目vLLM推理延迟 (Batch=1)0.27 s0.19 s702.5763.1显存占用30 GB28 GB稳定性无波动无波动缓存复用不支持支持(节省25%时间)vLLM 在昇腾 910B 上稳定运行,无需额外编译或算子修改。Continuous Batching + KV Cache 带来约 10% 吞吐提升25% 延迟下降。显存利用率更优,资源占用更平衡。本次评测验证了vLLM 框架在昇腾







