随着抖音带货的火热,很多人开始加入了自媒体时代的潮流。由于很多人都不是专业演员出身,当拍视频的时候,或多或少有点不适应,好不容拍好的视频,由于不愿意露脸,又不会添加马赛克,幸苦拍好的视频也不愿意发出去。毕竟很多人也不会进行视频制作,更别说视频添加马赛克了。

中如何给部分地方添加马赛克(你是不是认为中的马赛克是后期添加的)(1)

本文利用人工智能技术,给图片或者视频添加马赛克,避免自己出镜的尴尬,再也不用担心朋友圈屏蔽老爸老妈了。

添加马赛克步骤

1、给定要添加的视频或者图片 2、利用人工智能技术识别图片或者视频中的人脸 3、创建屏蔽层 4、给图片或者视频添加上屏蔽层 5、显示最终的图片或者实时同步到视频 中

创建屏蔽层

给图片或者视频人脸添加马赛克,最主要步骤是创建屏蔽层,我们利用2种方式进行人脸的打码

import numpy as np import cv2 def face_blur(image, factor=3.0): (h, w) = image.shape[:2] kW = int(w / factor) kH = int(h / factor) #高斯内核 if kW % 2 == 0: kW -= 1 if kH % 2 == 0: kH -= 1 return cv2.GaussianBlur(image, (kW, kH), 0)

以上便是很简单的创建屏蔽层的代码

首先我们获取了图片的尺寸(h, w) = image.shape[:2]

利用要使用高斯运算,我们要计算高斯内核的尺寸

kW = int(w / factor) kH = int(h / factor)

以上计算了高斯内核的基本尺寸,由于高斯内核的尺寸只要求是奇数,当我们检测到基数时,需要转成为奇数。最后使用cv2.GaussianBlur(image, (kW, kH), 0)来创建屏蔽层

高斯函数

高斯滤波是一种线性平滑滤波,对于除去高斯噪声有很好的效果。

在图像处理中高斯滤波一般有两种实现方式:一种是用离散化窗口滑窗卷积,另一种是通过傅里叶变换。最常见的就是第一种滑窗实现,只有当离散化的窗口非常大,用滑窗计算量非常大的情况下会考虑基于傅里叶变换的方法。

opencv提供了GaussianBlur()函数对图形进行高斯滤波,其原型如下:

C : void GaussianBlur(InputArray src, outputArray dst, Size ksize, double sigmaX, double sigmaY=0, int borderType=BORDER_DEFAULT )

参数解释:

. InputArray src: 输入图像,可以是Mat类型,图像深度为CV_8U、CV_16U、CV_16S、CV_32F、CV_64F。

. OutputArray dst: 输出图像,与输入图像有相同的类型和尺寸。

. Size ksize: 高斯内核大小,这个尺寸与前面两个滤波kernel尺寸不同,ksize.width和ksize.height可以不相同但是这两个值必须为正奇数,如果这两个值为0,他们的值将由sigma计算。

. double sigmaX: 高斯核函数在X方向上的标准偏差

. double sigmaY: 高斯核函数在Y方向上的标准偏差,如果sigmaY是0,则函数会自动将sigmaY的值设置为与sigmaX相同的值,如果sigmaX和sigmaY都是0,这两个值将由ksize.width和ksize.height计算而来。具体可以参考getGaussianKernel()函数查看具体细节。建议将size、sigmaX和sigmaY都指定出来。

. int borderType=BORDER_DEFAULT: 推断图像外部像素的某种便捷模式,有默认值BORDER_DEFAULT,如果没有特殊需要不用更改,具体可以参考borderInterpolate()函数。

中如何给部分地方添加马赛克(你是不是认为中的马赛克是后期添加的)(2)

高斯屏蔽

自建马斯克图像

高斯函数的马赛克十分平滑,但是这跟我们平时见到的马斯克有所区别,我们新建一个函数来创建自己的马斯克

def face_blur(image, blocks=5): (h, w) = image.shape[:2] xSteps = np.linspace(0, w, blocks 1, dtype="int") ySteps = np.linspace(0, h, blocks 1, dtype="int") for i in range(1, len(ySteps)): for j in range(1, len(xSteps)): startX = xSteps[j - 1] startY = ySteps[i - 1] endX = xSteps[j] endY = ySteps[i] ROI = image[startY:endY, startX:endX] (B, G, R) = [int(x) for x in cv2.mean(roi)[:3]] cv2.rectangle(image, (startX, startY), (endX, endY),(B, G, R), -1) return image

首先获取了图片的尺寸,把图片分成block*block的小方块

计算每个小方块的初始位置与最终位置

把每个小方块图片提取roi = image[startY:endY, startX:endX]

opencv中封装了一个专门用于求解cv::Mat均值的函数,即cv::mean(&cv::Mat),该函数会得到Mat中各个通道的均值,若要获取指定通道的均值,做进一步解析即可。

最后把获取的平均值画到原始图片中,来实现加马赛克的效果

中如何给部分地方添加马赛克(你是不是认为中的马赛克是后期添加的)(3)

马赛克

函数中的blocks定义了图片需要进行马赛克的小方块的数量,以上图片的马赛克跟我们见到的很是类似

加载模型,检测图片

有了以上的添加屏蔽层的代码,便可以加载模型来进行图片的处理了

prototxtFacePath = "model/deploy.prototxt" weightsFacePath = "model/res10_300x300_ssd_iter_140000.caffemodel" faceNet = cv2.dnn.readNet(prototxtFacePath, weightsFacePath) image = cv2.imread("image/img1.jpg") orig = image.copy() (h, w) = image.shape[:2] blob = cv2.dnn.blobFromImage(image, 1.0, (300, 300),(104.0, 177.0, 123.0)) faceNet.setInput(blob) detections = faceNet.forward()

首先加载人脸检测模型

对人脸模型进行初始化faceNet = cv2.dnn.readNet(prototxtFacePath, weightsFacePath)

获取图片的尺寸大小,然后进行图片blob值的计算blob = cv2.dnn.blobFromImage(image, 1.0, (300, 300),(104.0, 177.0, 123.0))

最后进行人脸神经网络的预测f

aceNet.setInput(blob)

detections = faceNet.forward()

for i in range(0, detections.shape[2]): confidence = detections[0, 0, i, 2] if confidence > 0.5: box = detections[0, 0, i, 3:7] * np.array([w, h, w, h]) (startX, startY, endX, endY) = box.astype("int") face = image[startY:endY, startX:endX] face = face_blur(face, factor=3.0) # face1 = face_blur(face,blocks=5) image[startY:endY, startX:endX] = face output = np.hstack([orig,image]) cv2.imshow("Output", output) cv2.waitKey(0)

当检测到人脸后,提取所有人脸的置信度,我们判断大于0.5的人脸置信度为可靠人脸.

计算人脸在图片中的位置(startX, startY, endX, endY) = box.astype("int")

获取人脸图片ROI:face = image[startY:endY, startX:endX]

根据人脸的ROI图片来进行高斯模糊,以便达到添加马赛克的效果

最后把马赛克图片合并到原始图片中

中如何给部分地方添加马赛克(你是不是认为中的马赛克是后期添加的)(4)

mask

你还以为很多视频中的马赛克是后期处理添加上的吗??下期带你看如何为视频实时添加mask,