环境:python3.9 opencv-python 4.5.5.62
首先是录入人脸,信息会保存到py文件的同级目录下的data文件中,data文件要先创建好,否则不能生成文件,然后训练生成trainer/trainer.yml文件,trainer文件也要先创建,然后进行检测就好,代码中用的xml文件的下载地址:代码中的xml文件
haarcascade_frontalface_alt2.xml
haarcascade_frontalface_default.xml
haarcascade的其他文件
haarcascade_eye.xml
haarcascade_eye_tree_eyeglasses.xml
haarcascade_frontalcatface.xml
haarcascade_frontalcatface_extended.xml
haarcascade_frontalface_alt.xml
haarcascade_frontalface_alt_tree.xml
haarcascade_fullbody.xml
haarcascade_lefteye_2splits.xml
haarcascade_licence_plate_rus_16stages.xml
haarcascade_lowerbody.xml
haarcascade_profileface.xml
haarcascade_righteye_2splits.xml
haarcascade_russian_plate_number.xml
haarcascade_smile.xml
haarcascade_upperbody.xml
# Enter
# 2022/2/17
import cv2
face_name = '' # 该人脸的名字
# 加载OpenCV人脸检测分类器
face_cascade = cv2.CascadeClassifier("E:/data/haarcascade_frontalface_default.xml")
recognizer = cv2.face.LBPHFaceRecognizer_create() # 准备好识别方法LBPH方法
camera = cv2.VideoCapture(0 ,cv2.CAP_DSHOW) # 0:开启摄像头
success, img = camera.read() # 从摄像头读取照片
W_size = 0.1 * camera.get(3) # 在视频流的帧的宽度
H_size = 0.1 * camera.get(4) # 在视频流的帧的高度
def get_face():
print("正在从摄像头录入新人脸信息 \n")
picture_num = 0 # 设置录入照片的初始值
while True: # 从摄像头读取图片
global success # 设置全局变量
global img # 设置全局变量
ret, frame = camera.read() # 获得摄像头读取到的数据(ret为返回值,frame为视频中的每一帧)
if ret is True:
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 转为灰度图片
cv2.imshow("gray",gray)
else:
break
face_detector = face_cascade # 记录摄像头记录的每一帧的数据,让Classifier判断人脸
faces = face_detector.detectMultiScale(gray, 1.3, 5) # gray是要灰度图像,1.3为每次图像尺寸减小的比例,5为minNeighbors
for (x, y, w, h) in faces: # 制造一个矩形框选人脸(xy为左上角的坐标,w为宽,h为高)
cv2.rectangle(frame, (x, y), (x + w, y + w), (255, 0, 0))
picture_num += 1 # 照片数加一
t = face_name
print("./data/1." + str(t) + '.' + str(picture_num))
cv2.imwrite("./data/1." + str(t) + '.' + str(picture_num) + '.jpg', gray[y:y + h, x:x + w])
# 保存图像,将脸部的特征转化为二维数组,保存在data文件夹内
maximums_picture = 13 # 设置摄像头拍摄照片的数量的上限
if picture_num > maximums_picture:
break
cv2.waitKey(1000)
get_face()
# Train
# 2022/2/17
import os
import cv2
from PIL import Image
import numpy as np
def getlable(path):
facesamples = [] # 储存人脸数据(该数据为二位数组)
ids = [] # 储存星门数据
imagepaths = [os.path.join(path, f) for f in os.listdir(path)] # 储存图片信息
face_detector = cv2.CascadeClassifier('E:/data/' 'haarcascade_frontalface_alt2.xml') # 加载分类器
print('数据排列:', imagepaths) # 打印数组imagepaths
for imagePath in imagepaths: # 遍历列表中的图片
pil_img = Image.open(imagePath).convert('L')
# 打开图片,灰度化,PIL的两种不同模式:
# (1)1(黑白,有像素的地方为1,无像素的地方为0)
# (2)L(灰度图像,把每个像素点变成0~255的数值,颜色越深值越大)
img_numpy = np.array(pil_img, 'uint8') # 将图像转化为数组
faces = face_detector.detectMultiScale(img_numpy) # 获取人脸特征
id = int(os.path.split(imagePath)[1].split('.')[0]) # 获取每张图片的id和姓名
for x, y, w, h in faces: # 预防无面容照片
ids.append(id)
facesamples.append(img_numpy[y:y + h, x:x + w])
# 打印脸部特征和id
print('id:', id)
print('fs:', facesamples)
return facesamples, ids
if __name__ == '__main__':
path = 'C:/Desktop/py/Face_ Recognition/data' # 图片路径
faces, ids = getlable(path) # 获取图像数组和id标签数组和姓名
recognizer = cv2.face.LBPHFaceRecognizer_create() # 获取训练对象
recognizer.train(faces, np.array(ids))
recognizer.write('trainer/trainer.yml') # 保存生成的人脸特征数据文件
# Recognition
# 2022/2/17
import cv2
import os
# 加载训练数据集文件
recogizer = cv2.face.LBPHFaceRecognizer_create()
recogizer.read('trainer/trainer.yml') # 获取脸部特征数据文件
names = []
warningtime = 0
def face_detect_demo(img):
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 转换为灰度图像
face_detector = cv2.CascadeClassifier("E:/data/haarcascade_frontalface_default.xml") # 加载分类器
face = face_detector.detectMultiScale(gray, 1.3, 5, cv2.CASCADE_SCALE_IMAGE, (100, 100), (300, 300))
# 进行识别,把整张人脸部分框起来
for x, y, w, h in face:
cv2.rectangle(img, (x, y), (x + w, y + h), color=(0, 0, 255), thickness=2) # 矩形
cv2.circle(img, center=(x + w // 2, y + h // 2), radius=w // 2, color=(0, 255, 0), thickness=1) # 圆形
ids, confidence = recogizer.predict(gray[y:y + h, x:x + w]) # 进行预测、评分
if confidence > 80:
global warningtime
warningtime += 1
if warningtime > 100: # 警报达到一定次数,说明不是这个人
warningtime = 0
cv2.putText(img, 'unkonw', (x + 10, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (0, 255, 0), 1)
else:
cv2.putText(img, str(names[ids - 1]), (x + 10, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (0, 255, 0), 1)
# 把姓名打到人脸的框图上
cv2.imshow('result', img)
# print('bug:',ids)
def name():
path = 'C:/Users/wangb/Desktop/py/Face_ Recognition/data'
imagepaths = [os.path.join(path, f) for f in os.listdir(path)]
for imagePath in imagepaths:
name1 = str(os.path.split(imagePath)[1].split('.', 2)[1])
names.append(name1)
cap = cv2.VideoCapture(0,cv2.CAP_DSHOW)
name()
while True:
flag, frame = cap.read() # 获得摄像头读取到的数据(flag为返回值,frame为视频中的每一帧)
if not flag:
break
face_detect_demo(frame)
if ord(' ') == cv2.waitKey(10): # 按空格,退出
break
cv2.destroyAllWindows()
cap.release()
# print(names)
识别效果
如果cv2.VideoCapture(0)
报错: ...\cap_msmf.cpp(435)anonymousnamespace'::SourceReaderCB::~SourceReaderCB terminating async callback
改为:cv2.VideoCapture(0 ,cv2.CAP_DSHOW)
可能是版本兼容问题
文章浏览阅读15次。空化气泡的大小和相应的空化能量可以通过调整完全标度的振幅水平来操纵和数字控制。通过强调超声技术中的更高通量处理和防止样品污染,Epigentek EpiSonic超声仪可以轻松集成到现有的实验室工作流程中,并且特别适合与表观遗传学和下一代应用的兼容性。Epigentek的EpiSonic已成为一种有效的剪切设备,用于在染色质免疫沉淀技术中制备染色质样品,以及用于下一代测序平台的DNA文库制备。该装置的经济性及其多重样品的能力使其成为每个实验室拥有的经济高效的工具,而不仅仅是核心设施。
文章浏览阅读4.2k次,点赞3次,收藏14次。目录点击这里查看所有博文 本系列博客,理论上适用于合宙的Air202、Air268、Air720x、Air720S以及最近发布的Air720U(我还没拿到样机,应该也能支持)。 先不管支不支持,如果你用的是合宙的模块,那都不妨一试,也许会有意外收获。 我使用的是Air720SL模块,如果在其他模块上不能用,那就是底层core固件暂时还没有支持,这里的代码是没有问题的。例程仅供参考!..._合宙获取天气
文章浏览阅读7.7k次,点赞2次,收藏41次。1 关于meshMesh的意思是网状物,以前读书的时候,在自动化领域有传感器自组网,zigbee、蓝牙等无线方式实现各个网络节点消息通信,通过各种算法,保证整个网络中所有节点信息能经过多跳最终传递到目的地,用于数据采集。十多年过去了,在无线路由器领域又把这个mesh概念翻炒了一下,各大品牌都推出了mesh路由器,大多数是3个为一组,实现在面积较大的住宅里,增强wifi覆盖范围,智能在多热点之间切换,提升上网体验。因为节点基本上在3个以内,所以mesh的算法不必太复杂,组网形式比较简单。各厂家都自定义了组_802.11s
文章浏览阅读5.2k次,点赞8次,收藏21次。线程的几种状态_线程状态
文章浏览阅读4.2w次,点赞124次,收藏688次。stack翻译为栈,是STL中实现的一个后进先出的容器。要使用 stack,应先添加头文件include<stack>,并在头文件下面加上“ using namespacestd;"1. stack的定义其定义的写法和其他STL容器相同, typename可以任意基本数据类型或容器:stack<typename> name;2. stack容器内元素的访问..._stack函数用法
文章浏览阅读71次。<li> <a href = "“#”>-</a></li><li>子节点:文本节点(回车),元素节点,文本节点。不同节点树: 节点(各种类型节点)childNodes:返回子节点的所有子节点的集合,包含任何类型、元素节点(元素类型节点):child。node.getAttribute(at...
文章浏览阅读3.4k次。//config的设置是全局的layui.config({ base: '/res/js/' //假设这是你存放拓展模块的根目录}).extend({ //设定模块别名 mymod: 'mymod' //如果 mymod.js 是在根目录,也可以不用设定别名 ,mod1: 'admin/mod1' //相对于上述 base 目录的子目录}); //你也可以忽略 base 设定的根目录,直接在 extend 指定路径(主要:该功能为 layui 2.2.0 新增)layui.exten_layui extend
文章浏览阅读3.2k次,点赞6次,收藏13次。分层思想分层思想分层思想-1分层思想-2分层思想-2OSI七层参考模型物理层和数据链路层物理层数据链路层网络层传输层会话层表示层应用层OSI七层模型的分层结构TCP/IP协议族的组成数据封装过程数据解封装过程PDU设备与层的对应关系各层通信分层思想分层思想-1在现实生活种,我们在喝牛奶时,未必了解他的生产过程,我们所接触的或许只是从超时购买牛奶。分层思想-2平时我们在网络时也未必知道数据的传输过程我们的所考虑的就是可以传就可以,不用管他时怎么传输的分层思想-2将复杂的流程分解为几个功能_5g分层结构
文章浏览阅读191次。在激光雕刻中,单向扫描(Unidirectional Scanning)是一种雕刻技术,其中激光头只在一个方向上移动,而不是来回移动。这种移动方式主要应用于通过激光逐行扫描图像表面的过程。具体而言,单向扫描的过程通常包括以下步骤:横向移动(X轴): 激光头沿X轴方向移动到图像的一侧。纵向移动(Y轴): 激光头沿Y轴方向开始逐行移动,刻蚀图像表面。这一过程是单向的,即在每一行上激光头只在一个方向上移动。返回横向移动: 一旦一行完成,激光头返回到图像的一侧,准备进行下一行的刻蚀。
文章浏览阅读577次。强连通:在有向图G中,如果两个点u和v是互相可达的,即从u出发可以到达v,从v出发也可以到达u,则成u和v是强连通的。强连通分量:如果一个有向图G不是强连通图,那么可以把它分成躲个子图,其中每个子图的内部是强连通的,而且这些子图已经扩展到最大,不能与子图外的任一点强连通,成这样的一个“极大连通”子图是G的一个强连通分量(SCC)。强连通分量的一些性质:(1)一个点必须有出度和入度,才会与其他点强连通。(2)把一个SCC从图中挖掉,不影响其他点的强连通性。_强连通分量
文章浏览阅读3.9k次,点赞5次,收藏18次。在做web开发,要给用户提供一个页面,页面包括静态页面+数据,两者结合起来就是完整的可视化的页面,django的模板系统支持这种功能,首先需要写一个静态页面,然后通过python的模板语法将数据渲染上去。1.创建一个templates目录2.配置。_django templates
文章浏览阅读1.7k次。Ubuntu等Linux系统显卡性能测试软件 Unigine 3DUbuntu Intel显卡驱动安装,请参考:ATI和NVIDIA显卡请在软件和更新中的附加驱动中安装。 这里推荐: 运行后,F9就可评分,已测试显卡有K2000 2GB 900+分,GT330m 1GB 340+ 分,GT620 1GB 340+ 分,四代i5核显340+ 分,还有写博客的小盒子100+ 分。relaybot@re...