logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《微信小程序demo开发》第二部分-基于云函数的邮箱发送

本文介绍了微信小程序开发中使用云函数和SMTP发送邮件的完整流程。首先需在微信公众平台注册账号并完成小程序备案,然后创建云函数模板工程,配置云开发环境。通过Node.js环境安装nodemailer包实现邮件发送功能,详细说明了SMTP服务开启和授权码获取方法。接着编写云函数代码并上传至云端,更新表单JS逻辑实现邮件内容提交。最后将代码上传至管理平台等待审核上线。文章为小程序开发者提供了从云函数配

文章图片
#微信小程序#小程序#javascript +1
FFmpeg链接时报错 undefined reference to av_frame_free

FFmpeg链接时报错 undefined reference to av_frame_free

文章图片
#c++
FFmpeg中avcodec_open2函数报错Codec type or id mismatches

FFmpeg中avcodec_open2函数报错Codec type or id mismatches

文章图片
基于 RK3588 的 YOLO 多线程推理多级硬件加速引擎框架设计(项目总览和加速效果)

基于RK3588的YOLO多线程推理多级硬件加速引擎框架设计(项目总览和加速效果)

文章图片
编译支持 RKmpp 和 RGA 的 ffmpeg 源码

编译支持RKmpp和RGA的ffmpeg源码

文章图片
#视频编解码
RK3588 使用 FFmpeg 硬件解码输出到 DRM Prime (DMA Buf) 加速数据传输

本文介绍了在RK3588开发板上基于DRMPrime和RGA硬件加速的视频处理优化方案。通过FFmpeg的RKmpp插件实现硬件解码,输出为DRMPrime格式的DMA缓冲区,避免了CPU参与的数据拷贝。作者详细阐述了如何修改解码器设置以支持DRMPrime输出,并展示了如何将解码后的NV12格式数据直接送入RGA进行硬件加速的色彩空间转换。文章还探讨了处理H264编码中stride对齐问题的解决

文章图片
使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第二章:前端交互与后端服务)

本文介绍了基于OpenVINO的本地AI模型部署方案,包含前端交互界面和后端服务器实现。前端采用HTML/CSS/JavaScript构建聊天界面,支持状态检测和消息交互;后端使用Flask框架提供REST API,通过OpenVINO GenAI实现模型推理优化。系统在CPU上运行DeepSeek-R1-8B量化模型,内存占用约10GB,推理耗时40秒左右。文章详细展示了前后端代码实现,包括模型

文章图片
#openvino#前端#人工智能
使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第一章:基础概念与模型转换)

本文探讨了在无独立显卡环境下部署大语言模型的三种方案:Ollama(简单易用但定制性差)、vLLM(GPU优化但CPU兼容性差)和OpenVINO(针对Intel CPU优化)。作者基于i7-13700H/32G内存环境,选择OpenVINO方案部署Qwen3-8B模型,详细介绍了使用Optimum-Intel工具进行INT4量化的转换过程(包括命令行和Python接口两种方式),以及转换前后的目

文章图片
#openvino#人工智能
使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第一章:基础概念与模型转换)

本文探讨了在无独立显卡环境下部署大语言模型的三种方案:Ollama(简单易用但定制性差)、vLLM(GPU优化但CPU兼容性差)和OpenVINO(针对Intel CPU优化)。作者基于i7-13700H/32G内存环境,选择OpenVINO方案部署Qwen3-8B模型,详细介绍了使用Optimum-Intel工具进行INT4量化的转换过程(包括命令行和Python接口两种方式),以及转换前后的目

文章图片
#openvino#人工智能
CUDA 编程笔记:CUDA延迟隐藏

GPU延迟隐藏技术通过多线程调度实现高性能计算。当部分线程束因内存访问或计算指令等待时,调度器立即切换执行其他就绪线程束,保持计算资源持续满载。该技术依赖两个关键条件:足够的并行线程束数量(通过合理配置线程块和网格实现)和均衡的负载分配(避免分支分化)。其本质是利用大量线程束快速切换,用计算时间填补等待时间,从而隐藏单一线程束的延迟,这是CUDA架构实现高效计算的核心机制。

文章图片
#GPU
    共 27 条
  • 1
  • 2
  • 3
  • 请选择