关于移植人脸识别功能到linux开发板
移植人脸识别到开发板上的思路
关于移植人脸识别功能到linux开发板的学习笔记
本人其他项目链接基于linux的智能仓储项目
基于Qt的人脸识别
基于STM32的智能家居
移植人脸识别到Linux开发板上
基于正点原子的IMX6ULL开发板的智能车载系统(Qt)
前言
在前面的学习中,在ubuntu中成功跑通了人脸识别模块。那么如何将人脸识别移植到linux开发板上呢?
提示:以下是本篇文章正文内容,下面案例可供参考
一、准备工作
其实该功能最难的是环境搭建工作,逻辑代码部分倒是很简单。首先就是得安装openssl库、libcurl库、jsoncpp库。但是这三个库也不是说简简单单的是使用apt-get install命令就能完成的,因为这样编译默认得到的是x86架构的库,没办法放在板子上跑,所以就得交叉编译。
二、依赖库的编译步骤
首先是安装好openssl、jsoncpp、libcurl库,然后进入到makefile文件中,将默认的编译器的环境变量换成交叉编译器的环境变量(说着简单,其实挺复杂的,具体的大家可以参考迅为电子的有一期车牌识别项目视频,此处为迅维电子的车牌识别项目入口
然后就是还得去百度智能云平台下载相应的API的包到工程目录下,方便调用。
在上述的库安装好后安装cmake,通过cmake将opencv也想办法编译成arm架构的,最终将刚刚编译好的库的include/ lib/文件夹(openssl、libcurl、jsoncpp)拷贝到根文件系统中的/lib文件夹,然后修改根文件系统的环境变量。还得将opencv的库拷贝到根文件系统的/lib目录下。
其实安装库的时候要各种不同版本的库还会存在兼容性问题,所以并不简单
总结
提示:这里对文章进行总结:
例如:现在自己只是了解了下大概流程,具体实施过程中肯定还会遇到其他困难。希望自己能坚持学下去,之后要是移植成功会继续完善这个帖子
更多推荐
所有评论(0)