金磊 发自 凹非寺量子位 报道 | 公众号 QbitAI

图像分割,作为计算机视觉的基础,是图像理解的重要组成部分,也是图像处理的难点之一。

那么,如何优雅且体面的图像分割?

5行代码、分分钟实现的库——PixelLib,了解一下。

图像分割方法教程(快速实现图像分割)(1)

当然,如此好用的项目,开源是必须的。

为什么要用到图像分割?

虽然计算机视觉研究工作者,会经常接触图像分割的问题,但是我们还是需要对其做下“赘述”(方便初学者)。

我们都知道每个图像都是有一组像素值组成。简单来说,图像分割就是在像素级上,对图像进行分类的任务。

图像分割中使用的一些“独门秘技”,使它可以处理一些关键的计算机视觉任务。主要分为2类:

它的身影也经常会出现在比较重要的场景中:

所以,图像分割技术的应用还是非常重要的。

接下来,我们就直奔主题,开始了解一下PixelLib,这个神奇又好用的库。

快速安装PixelLib

PixelLib这个库可以非常简单的实现图像分割——5行代码就可以实现语义分割和实例分割。

老规矩,先介绍一下安装环境

安装最新版本的TensorFlow、Pillow、OpenCV-Python、scikit-image和PixelLib:

pip3installtensorflow pip3installpillow pip3installopencv-python pip3installscikit-image pip3installpixellib

PixelLib实现语义分割

PixelLib在执行语义分割任务时,采用的是Deeplabv3 框架,以及在pascalvoc上预训练的Xception模型。

用在pascalvoc上预训练的Xception模型执行语义分割:

importpixellib frompixellib.semanticimportsemantic_segmentation segment_image=semantic_segmentation() segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”) segment_image.segmentAsPascalvoc(“path_to_image”,output_image_name=“path_to_output_image”)

让我们看一下每行代码:

importpixellib frompixellib.semanticimportsemantic_segmentation #createdaninstanceofsemanticsegmentationclass segment_image=semantic_segmentation()

用于执行语义分割的类,是从pixellib导入的,创建了一个类的实例。

segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”)

调用函数来加载在pascal voc上训练的xception模型(xception模型可以从文末传送门链接处下载)。

segment_image.segmentAsPascalvoc(“path_to_image”,output_image_name=“path_to_output_image”)

这是对图像进行分割的代码行,这个函数包含了两个参数:

接下来,上图,实战

图像文件命名为:sample1.jpg,如下图所示。

图像分割方法教程(快速实现图像分割)(2)

执行代码如下:

importpixellib frompixellib.semanticimportsemantic_segmentation segment_image=semantic_segmentation() segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”) segment_image.segmentAsPascalvoc(“sample1.jpg”,output_image_name=“image_new.jpg”)

图像分割方法教程(快速实现图像分割)(3)

可以看到,在执行代码后,保存的图像中,所有对象都被分割了。

也可以对代码稍作修改,获取一张带有目标对象分段重叠(segmentation overlay)的图像。

segment_image.segmentAsPascalvoc(“sample1.jpg”,output_image_name=“image_new.jpg”,overlay=True)

添加了一个额外的参数,并设置为True,就生成了带有分段叠加的图像。

图像分割方法教程(快速实现图像分割)(4)

可以通过修改下面的代码,来检查执行分割所需的推理时间。

importpixellib frompixellib.semanticimportsemantic_segmentation importtime segment_image=semantic_segmentation() segment_image.load_pascalvoc_model(“pascal.h5”) start=time.time() segment_image.segmentAsPascalvoc(“sample1.jpg”,output_image_name=“image_new.jpg”) end=time.time() print(f”InferenceTime:{end-start:.2f}seconds”)

输出如下:

InferenceTime:8.19seconds

可以看到,在图像上执行语义分割,只用了8.19秒。

这个xception模型是用pascalvoc数据集训练的,有20个常用对象类别。

对象及其相应的color map如下所示:

图像分割方法教程(快速实现图像分割)(5)

PixelLib实现实例分割

虽然语义分割的结果看起来还不错,但在图像分割的某些特定任务上,可能就不太理想。

在语义分割中,相同类别的对象被赋予相同的colormap,因此语义分割可能无法提供特别充分的图像信息。

于是,便诞生了实例分割——同一类别的对象被赋予不同的colormap。

PixelLib在执行实例分割时,基于的框架是Mask RCNN,代码如下:

importpixellib frompixellib.instanceimportinstance_segmentation segment_image=instance_segmentation() segment_image.load_model(“mask_rcnn_coco.h5”) segment_image.segmentImage(“path_to_image”,output_image_name=“output_image_path”)

同样,我们先来拆解一下每行代码。

importpixellib frompixellib.instanceimportinstance_segmentation segment_image=instance_segmentation()

导入了用于执行实例分割的类,创建了该类的一个实例。

segment_image.load_model(“mask_rcnn_coco.h5”)

这是加载 Mask RCNN 模型来执行实例分割的代码(Mask RCNN模型可以从文末传送门链接处下载)。

segment_image.segmentImage(“path_to_image”,output_image_name=“output_image_path”)

这是对图像进行实例分割的代码,它需要两个参数:

上图,实战第二弹!

图像文件命名为:sample2.jpg,如下图所示。

图像分割方法教程(快速实现图像分割)(6)

执行代码如下:

importpixellib frompixellib.instanceimportinstance_segmentation segment_image=instance_segmentation() segment_image.load_model(“mask_rcnn_coco.h5”) segment_image.segmentImage(“sample2.jpg”,output_image_name=“image_new.jpg”)

图像分割方法教程(快速实现图像分割)(7)

上图便是保存到目录的图片,现在可以看到语义分割和实例分割之间的明显区别——在实例分割中,同一类别的所有对象,都被赋予了不同的colormap。

若是想用边界框(bounding box)来实现分割,可以对代码稍作修改:

segment_image.segmentImage(“sample2.jpg”,output_image_name=“image_new.jpg”,show_bboxes=True)

这样,就可以得到一个包含分割蒙版和边界框的保存图像。

图像分割方法教程(快速实现图像分割)(8)

同样的,也可以通过代码查询实例分割的推理时间:

importpixellib frompixellib.instanceimportinstance_segmentation importtime segment_image=instance_segmentation() segment_image.load_model(“mask_rcnn_coco.h5”) start=time.time() segment_image.segmentImage(“former.jpg”,output_image_name=“image_new.jpg”) end=time.time() print(f”InferenceTime:{end-start:.2f}seconds”)

输出结果如下:

InferenceTime:12.55seconds

可以看到,在图像上执行实例分割,需要12.55秒的时间。

最后,奉上项目、模型下载地址,快去试试吧~

传送门

PixelLib项目地址:https://github.com/ayoolaolafenwa/PixelLib

xception模型下载地址:https://github.com/bonlime/keras-deeplab-v3-plus/releases/download/1.1/deeplabv3_xception_tf_dim_ordering_tf_kernels.h5

Mask RCNN模型下载地址:https://github.com/matterport/Mask_RCNN/releases/download/v2.0/mask_rcnn_coco.h5

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

,