目标检测算法之YOLO系列算法的Anchor聚类代码实战
原标题:目标检测算法之YOLO系列算法的Anchor聚类代码实战
来源:今日头条 链接:https://www.yanxishe.com/columnDetail/16798
之前已经讲了一些目标检测原理性的东西了,今天讲一个偏工程一点的东西,就是如何在使用 YOLO 算法的时候针对自己的数据集获得合适的 Anchor?
原理
Anchor 如何获得?
如何获得 Anchor 的算法在前面讲解 YOLOv2 原理的时候已经说清楚了,推文地址如下:https://mp.weixin.qq.com/s/4PPhCpdna4AWgbEWhunNTQ 。我们再复习一下 Anchor 的获得策略。
在 Faster-RCNN 中,Anchor 都是手动设定的,YOLOv2 使用 k-means 聚类算法对训练集中的边界框做了聚类分析,尝试找到合适尺寸的 Anchor。另外作者发现如果采用标准的 k-means 聚类,在 box 的尺寸比较大的时候其误差也更大,而我们希望的是误差和 box 的尺寸没有太大关系。所以通过 IOU 定义了如下的距离函数,使得误差和 box 的大小无关:
d(box,centroid)=1−IOU(box,centroid)
Fig2 展示了聚类的簇的个数和 IOU 之间的关系,两条曲线分别代表了 VOC 和 COCO 数据集的测试结果。最后结合不同的 K 值对召回率的影响,论文选择了 K=5,Figure2 中右边的示意图是选出来的 5 个 box 的大小,这里紫色和黑色也是分别表示两个不同的数据集,可以看出其基本形状是类似的。而且发现聚类的结果和手动设置的 anchor box 大小差别显著。聚类的结果中多是高瘦的 box,而矮胖的 box 数量较少,这也比较符合数据集中目标的视觉效果。
在结果测试时,YOLOv2 采用的 5 种 Anchor 可以达到的 Avg IOU 是 61,而 Faster-RCNN 采用 9 种 Anchor 达到的平均 IOU 是 60.9,也即是说本文仅仅选取 5 种 Anchor 就可以达到 Faster-RCNN 中 9 种 Anchor 的效果。如 Table1 所示:
K-means 聚类
聚类指的是把集合,分组成多个类,每个类中的对象都是彼此相似的。K-means 是聚类中最常用的方法之一,它是基于点与点距离的相似度来计算最佳类别归属。在使用该方法前,要注意:
对数据异常值的处理
对数据标准化处理(x-min(x))/(max(x)-min(x))
每一个类别的数量要大体均等
不同类别间的特质值应该差异较大
在这里倒是没有严格的去执行上面的步骤,直接按照 k-means 的算法步骤执行即可。k-means 聚类的算法运行过程可以总结如下:
(1)选择 k 个初始聚类中心
(2)计算每个对象与这 k 个中心各自的距离,按照最小距离原则分配到最邻近聚类
(3)使用每个聚类中的样本均值作为新的聚类中心
(4)重复步骤(2)和(3)直到聚类中心不再变化
(5)结束,得到 k 个聚类
代码实现
有了上面的理论支持我们就可以比较容易的写出聚类 Anchor 的代码了,直接上代码,里面几乎每行我都标注了注释,所以就不再赘述代码了。在使用代码的时候注意替换 XML 文件所在的路径,需要聚类的 Anchor 数目还有输入到 YOLO 网络中的图片大小,就可以执行代码获得我们想要的 Anchor 了。
#coding=utf-8import xml.etree.ElementTree as ETimport numpy as np def iou(box, clusters): """ 计算一个ground truth边界盒和k个先验框(Anchor)的交并比(IOU)值。 参数box: 元组或者数据,代表ground truth的长宽。 参数clusters: 形如(k,2)的numpy数组,其中k是聚类Anchor框的个数 返回:ground truth和每个Anchor框的交并比。 """ x = np.minimum(clusters[:, 0], box[0]) y = np.minimum(clusters[:, 1], box[1]) if np.count_nonzero(x == 0) > 0 or np.count_nonzero(y == 0) > 0: raise ValueError("Box has no area") intersection = x * y box_area = box[0] * box[1] cluster_area = clusters[:, 0] * clusters[:, 1] iou_ = intersection / (box_area + cluster_area - intersection) return iou_def avg_iou(boxes, clusters): """ 计算一个ground truth和k个Anchor的交并比的均值。 """ return np.mean([np.max(iou(boxes[i], clusters)) for i in range(boxes.shape[0])])def kmeans(boxes, k, dist=np.median): """ 利用IOU值进行K-means聚类 参数boxes: 形状为(r, 2)的ground truth框,其中r是ground truth的个数 参数k: Anchor的个数 参数dist: 距离函数 返回值:形状为(k, 2)的k个Anchor框 """ # 即是上面提到的r rows = boxes.shape[0] # 距离数组,计算每个ground truth和k个Anchor的距离 distances = np.empty((rows, k)) # 上一次每个ground truth"距离"最近的Anchor索引 last_clusters = np.zeros((rows,)) # 设置随机数种子 np.random.seed() # 初始化聚类中心,k个簇,从r个ground truth随机选k个 clusters = boxes[np.random.choice(rows, k, replace=False)] # 开始聚类 while True: # 计算每个ground truth和k个Anchor的距离,用1-IOU(box,anchor)来计算 for row in range(rows): distances[row] = 1 - iou(boxes[row], clusters) # 对每个ground truth,选取距离最小的那个Anchor,并存下索引 nearest_clusters = np.argmin(distances, axis=1) # 如果当前每个ground truth"距离"最近的Anchor索引和上一次一样,聚类结束 if (last_clusters == nearest_clusters).all(): break # 更新簇中心为簇里面所有的ground truth框的均值 for cluster in range(k): clusters[cluster] = dist(boxes[nearest_clusters == cluster], axis=0) # 更新每个ground truth"距离"最近的Anchor索引 last_clusters = nearest_clusters return clusters# 加载自己的数据集,只需要所有labelimg标注出来的xml文件即可def load_dataset(path): dataset = [] for xml_file in glob.glob("{}/*xml".format(path)): tree = ET.parse(xml_file) # 图片高度 height = int(tree.findtext("./size/height")) # 图片宽度 width = int(tree.findtext("./size/width")) for obj in tree.iter("object"): # 偏移量 xmin = int(obj.findtext("bndbox/xmin")) / width ymin = int(obj.findtext("bndbox/ymin")) / height xmax = int(obj.findtext("bndbox/xmax")) / width ymax = int(obj.findtext("bndbox/ymax")) / height xmin = np.float64(xmin) ymin = np.float64(ymin) xmax = np.float64(xmax) ymax = np.float64(ymax) if xmax == xmin or ymax == ymin: print(xml_file) # 将Anchor的长宽放入dateset,运行kmeans获得Anchor dataset.append([xmax - xmin, ymax - ymin]) return np.array(dataset) if __name__ == '__main__': ANNOTATIONS_PATH = "F:Annotations" #xml文件所在文件夹 CLUSTERS = 9 #聚类数量,anchor数量 INPUTDIM = 416 #输入网络大小 data = load_dataset(ANNOTATIONS_PATH) out = kmeans(data, k=CLUSTERS) print('Boxes:') print(np.array(out)*INPUTDIM) print("Accuracy: {:.2f}%".format(avg_iou(data, out) * 100)) final_anchors = np.around(out[:, 0] / out[:, 1], decimals=2).tolist() print("Before Sort Ratios:n {}".format(final_anchors)) print("After Sort Ratios:n {}".format(sorted(final_anchors)))
首先下载 VOC2007 数据集获得每张图片的 XML 文件,然后将图片大小设置为 416,将 Anchor 的数目设置为 9,执行我们的代码,运行结果为:
可以看到这个平均 IOU 值和上面 YOLOv2 给出的数据是很接近的,说明代码实现应该问题不大。
对于自己的数据集
和上面一样的使用方式,这里使用我自己标注的 3 个类别的数据集来测试一下,Anchor 设为 9,输入到网络的图像大小设置为 416,测试结果如下:
根据平均 IOU 值来看还是比较优秀的,然后选出这些 Anchor 放到 YOLO 网络中进行训练即可。
后记
今天提供了一个如何计算自己的数据集的 Anchor 的工具,从原理到代码逐渐解析,希望可以帮助到你。同时新开了一个 GitHub 工程整理一些平时会用到的深度学习工具,地址为:https://github.com/BBuf/cv_tools ,持续更新欢迎关注。
欢迎关注我的微信公众号 GiantPandaCV,期待和你一起交流机器学习,深度学习,图像算法,优化技术,比赛及日常生活等。
【BBuf:发表 于专栏·GiantPandaCV】
一THE END一
免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。
合作及投稿邮箱:E-mail:editor@tusaishared.com
下一篇:知识图谱系列-1-概述
热门资源
应用笔画宽度变换...
应用背景:是盲人辅助系统,城市环境中的机器导航...
人体姿态估计的过...
人体姿态估计是计算机视觉中一个很基础的问题。从...
GAN之根据文本描述...
一些比较好玩的任务也就应运而生,比如图像修复、...
端到端语音识别时...
从上世纪 50 年代诞生到 2012 年引入 DNN 后识别效...
谷歌发布TyDi QA语...
为了鼓励对多语言问答技术的研究,谷歌发布了 TyDi...
智能在线
400-630-6780
聆听.建议反馈
E-mail: support@tusaishared.com