logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

点云数据处理之安装python-openni

最近公司需要处理深度摄像头拍摄的数据,首先是要从摄像头保存的.oni文件中读取出文件来,这里就要用到openNI,但是网上大部分的教程都是C++写的,而为了方便写代码,我这里用python,所以要先装python-openni。安装sudo apt install libopenni-dev# 安装系统的openni开发环境pip install openni...

open3d学习系列之1读取深度图和彩色图生成点云数据

【代码】open3d学习系列之1读取深度图和彩色图生成点云数据。

#opencv#计算机视觉
Gstreamer-opencv读取视频文件加速

cv::VideoCapture capVideo("filesrc location=CarsDrivingUnderBridge.mp4 ! qtdemux ! h264parse ! nvv4l2decoder ! nvvidconv ! video/x-raw, format=BGRx ! videoconvert ! video/x-raw, format=BGR ! appsink "

realsense使用ubuntu python读取深度图、彩色图和IMU数据

【代码】realsense使用ubuntu python读取深度图、彩色图和IMU数据。

#python#ubuntu
手把手教你使用jetson nano运行maskrcnn-benchmark

准备工作一块jetson Nano一个SD卡,我这里是64G的安装pytorchPython 2.7wget https://nvidia.box.com/shared/static/m6vy0c7rs8t1alrt9dqf7yt1z587d1jk.whl-O torch-1.1.0a0+b457266-cp27-cp27mu-linux_aarch64.whl pip insta...

#pytorch
Logistic回归numpy版本

#!python#coding=UTF-8#logistic#sigmod#O(z)=1/(1+e(-z))#w:=w+af(w)#Logisticfrom numpy import *def loadDataSet():dataMat = [];labelMat = []fr = open('./testSet.txt')...

#numpy#深度学习
KNN最近邻算法numpy版本——深度学习

#!pythonfrom numpy import *import operatorfrom os import listdirdef createDataSet():group = array([[1.0,1.1],[1.0,1.0],[0.1,0.1],[0.2,0.1]])labels = ['A','A','B','B']return group,...

#numpy#深度学习
SVM numpy版本——深度学习

#!python#encoding=utf-8from numpy import *def loadDataSet(filename):dataMat = [];labelMat = []fr = open(filename)for line in fr.readlines():lineArr = line.strip().split('\t'...

#numpy#深度学习
使用opencv调用YOLOv3 tiny

#!/usr/bin/env python# coding: utf-8import cv2import numpy as npimport matplotlib.pyplot as pltfrom tqdm import tqdm_notebook as tqdmconfThreshold = 0.5#Confidence thresholdnmsThreshold = 0...

使用pybind11编译c++代码给python调用与undefined symbol问题

使用cmake编译安装pybind11:# Classic CMakecd pybind11mkdir buildcd buildcmake ..make install使用cmake编译原本的c++文件,CMakeLists.txt如下:cmake_minimum_required(VERSION 3.4)project(skyeyec_cpp)find_package(pybind11 REQ

#python#c++#opencv
    共 11 条
  • 1
  • 2
  • 请选择