logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

从语音唤醒到边缘智能:ESP32-S3 + TensorFlow Lite Micro 的技术潜力

在语音芯片成熟的今天,为什么越来越多开发者选择在 ESP32-S3 上运行 TensorFlow Lite Micro?本文深入解析本地语音唤醒原理、模型部署方法及其在智能家居、可穿戴与工业监测中的应用价值,探索 MCU 级 AI 感知的未来方向。

文章图片
#tensorflow
RTSP 与 WebRTC 对比:AI 物联网视频识别的最佳协议选择

RTSP 与 WebRTC 是 AI 视频识别与物联网视频系统中最常用的两种流媒体协议。本文深入解析它们的技术差异、优劣对比,以及在 AI 视频识别与边缘计算中的应用与优化方案。

文章图片
#webrtc
自研 AIoT 平台的真实代价:CTO 关于涂鸦智能与自主开发 ROI 的深度对冲指南

本文深度对比PaaS 方案与自研AIoT平台(涂鸦智能与自主开发)的 ROI 指标。从全球基础设施建设、系统稳定性债务、移动端适配及全球合规性四个维度,揭示自研方案在生命周期内的隐性开销,为企业技术选型提供量化参考与战略建议。

文章图片
#边缘计算
ESP32 Edge AI 架构设计:固件、OTA 与端侧推理的完整实践

本文深度探讨基于 ESP32 Edge AI 架构设计,涵盖 ESP-DL 加速原理、SRAM 与 PSRAM 内存分配策略、以及 AI 模型与固件分离的 OTA 升级方案。为工程师提供从模型压缩到端侧推理落地的完整工程指南,解决边缘 AI 部署中的资源瓶颈与长效维护难题。

文章图片
#深度学习
Dify + MCP Server:用搭积木的方式构建模块化 AI 系统应用

MCP(模型上下文协议)正成为 LLM 连接工具与数据的关键标准。 通过Dify + MCP Server,提供低门槛、零代码的“AI 能力模块化”实现方式。本文将深度解析其架构、场景与工程潜力。

文章图片
#MCP
ESP32-S3 边缘AI 实战:深度优化 TensorFlow Lite Micro 推理性能

本文详细介绍如何在 ESP32-S3 上部署 TensorFlow Lite Micro (TFLM),涵盖硬件向量加速原理、环境搭建、INT8 量化流程及性能优化建议。适用于 AIoT 开发者与嵌入式架构师。

文章图片
声纹识别:声音中的“指纹”重塑无感身份认证

声纹识别是一种通过声音辨别身份的AI技术,区别于语音识别和声音检测,具备高准确、无接触、安全便捷的优势。本文深度解析声纹识别原理(特征提取、模型训练、比对机制)、技术优势,以及在智慧楼宇门禁、金融远程核身等场景的应用价值,展望声纹技术重塑智能安防和物联网交互的未来。

文章图片
#语音识别
RKNN / ONNX Opset 兼容性参考:边缘 NPU 模型转换的约束、报错定位与版本基线

面向嵌入式与边缘AI工程师的RKNN/ONNX Opset兼容性参考:解释转换失败根因、opset选型逻辑与YOLOv8等模型的结构约束,并给出可复用的导出与版本基线方法。

文章图片
Dify + MCP Server:用搭积木的方式构建模块化 AI 系统应用

MCP(模型上下文协议)正成为 LLM 连接工具与数据的关键标准。 通过Dify + MCP Server,提供低门槛、零代码的“AI 能力模块化”实现方式。本文将深度解析其架构、场景与工程潜力。

文章图片
#MCP
n8n vs Dify:AI时代的工作流自动化平台选型指南

n8n 和 Dify 是当前最流行的自动化工作流平台。本文将从功能、场景、技术架构等方面深入比较二者,帮助你快速完成平台选型,适用于 AI 应用开发者与自动化工程团队。

文章图片
#RAG
    共 24 条
  • 1
  • 2
  • 3
  • 请选择