奥比中光Zora P1开发板评测报告

奥比中光Zora P1开发板评测报告1 开箱 Zora P1 开发板的包装还是很精致的 除了开发板 还带了一个电源适配器和固定开发板的亚克力板配件 加上咸鱼淘的奥比 Astra 深度相机 我就开启了评测之旅 深度相机长这样子 它除了可以输出 RGB 图像之外 还可以输出深度图 因此又被叫做 RGB D 相机 2

大家好,我是讯享网,很高兴认识大家。

1、开箱

Zora P1开发板的包装还是很精致的,除了开发板,还带了一个电源适配器和固定开发板的亚克力板配件。
在这里插入图片描述
讯享网加上咸鱼淘的奥比Astra深度相机,我就开启了评测之旅~,深度相机长这样子,它除了可以输出RGB图像之外,还可以输出深度图,因此又被叫做RGB-D相机。
在这里插入图片描述
2、安装ubuntu系统,然后安装Astra SDK和openNI

3、人脸识别,区分出是人脸图片还是真人

于二维图像来说,要想区分出真人还是人脸图片有很大的难度,准确性难以保证,之前就有拿人脸图片刷开快递柜的新闻出现。而深度相机可以很轻易地让人脸图片现出原形,准确性有可靠保证,对于安防、金融支付这些应用场景来说,深度相机有重要的应用价值。

人脸识别是基于python和OpenCV开发的,过程如流程图所示,用到了openCV中的Haar CascadeClassifier,也就是级联分类器去识别图像中的人脸特征。识别到人脸特征后,还不能确定是否是真正的人脸,因此选取从RGB图像中获得的潜在真正人脸区域,坐标映射到深度图像中,对深度图像中对应的ROI区域计算标准差,设置阈值便能将两者区分开来。因为人脸图片在深度图中各点的深度信息没有变化,标准差很小;而真正的人脸各点深度信息变化明显,标准差大。
在这里插入图片描述

在这里插入图片描述
ubuntu配置openCV依赖项可以按照这个:https://blog.csdn.net/weixin_/article/details/

除了OpenCV库,我还用到了numpy和openNI,需要pip安装,安装时换成国内的源可以大大加快安装速度,在用清华源pip安装的时候,我遇到因为ubuntu系统时间没调,时间有偏差,导致安装失败的情况,解决方法就是把系统时间调整为北京时间,这样就可以用清华源正常安装python库了。还有一个要注意的就是DNS要设置一下。

4、最后,我想用一下板子上的GPIO引脚

查阅了Zora P1开发板的说明文档,看到是有8个GPIO引脚的,与树莓派相比不是很多。我的想法是实现一个基于人脸深度信息获取的智能风扇,根据之前获得的人脸深度信息,与调节风扇转速的模拟量值建立关系,实现人脸靠近时风速大,远离时风速小的效果。
在这里插入图片描述
于是,我便查阅了Linux通过指令控制GPIO的相关内容,操作步骤如下:

(1)定义GPIO:/sys/class/gpio# echo 1 > export,定义好之后在/sys/class/gpio路径下会生成gpio1文件夹。

(2)设置输入/输出:/sys/class/gpio/gpio1# echo out > direction

(3)设置输出值:/sys/class/gpio/gpio1#

echo 1 > value

这里也遇到一个问题,我理所当然的认为8个gpio口对应的编号便是1~8,其实不然,这就导致我定义GPIO是失败的。事实上,Zora P1的GPIO编号应该是在410-495和496-511这两个范围内,但具体的各个引脚软硬件映射关系说明文档没有提供,希望后面能发布出来。
在这里插入图片描述
附python代码:

from openni import openni2 import numpy as np import cv2 def mousecallback(event,x,y,flags,param): if event==cv2.EVENT_LBUTTONDBLCLK: print(y, x, dpt[y,x]) if __name__ == "__main__": openni2.initialize() dev = openni2.Device.open_any() print(dev.get_device_info()) depth_stream = dev.create_depth_stream() depth_stream.start() cap = cv2.VideoCapture(0) cv2.namedWindow('depth') cv2.setMouseCallback('depth',mousecallback) face_detector = cv2.CascadeClassifier("/home/orbbec/haarcascade_frontalface_default.xml") while True: frame = depth_stream.read_frame() dframe_data = np.array(frame.get_buffer_as_triplet()).reshape([480, 640, 2]) dpt1 = np.asarray(dframe_data[:, :, 0], dtype='float32') dpt2 = np.asarray(dframe_data[:, :, 1], dtype='float32') dpt2 *= 255 dpt = dpt1 + dpt2 cv2.imshow('depth', dpt) #print(dpt.shape)  ret,frame = cap.read() img=cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) face_rects=face_detector.detectMultiScale(img, 1.3, 5) for(x,y,w,h) in face_rects: cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),3) face_dpt=dpt[y:y+h,640-(x+w):640-x] the depth image and the frame are horizontal symmetry  calculate the standard deviation  (mean,stddev)=cv2.meanStdDev(face_dpt) #print(stddev)  Set threshold to recognize person true or not  if stddev>300: cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),3) cv2.putText(frame,"Real Person",(x,y-5),cv2.FONT_HERSHEY_SIMPLEX,1,(0,255,0),2) else: cv2.rectangle(frame,(x,y),(x+w,y+h),(0,0,255),3) cv2.putText(frame,"It's picture!",(x,y-5),cv2.FONT_HERSHEY_SIMPLEX,1,(0,0,255),2) #if w > 0:  # cv2.imshow('face_dpt', face_dpt)  cv2.imshow('color', frame) #print(frame.shape)  key = cv2.waitKey(1) if int(key) == ord('q'): break depth_stream.stop() dev.close() 

讯享网

备注:
点击下面链接,进入奥比中光开发者社区,了解更多3D视觉技术信息:
https://developer.orbbec.com.cn/

或扫描下方二维码,进入奥比中光开发者社区:
在这里插入图片描述

小讯
上一篇 2025-03-04 19:13
下一篇 2025-04-10 14:18

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/117689.html