保姆级 Keras 实现 YOLO v3 三

保姆级 Keras 实现 YOLO v3 三

上一篇 文章中, 我们完成了读标注文件和聚类生成 k k k 个 anchor box, 接下来就是要为特征图的每一个 grid cell ( c h a n n e l s = 75 ) (channels = 75) (channels=75) 打标签了

上面讲为 每一个 grid cell ( c h a n n e l s = 75 ) (channels = 75) (channels=75) 打标签 而不为 每一个 anchor box 打标签 , 其实两句话是同一个意思, 但是最终反应到损失函数计算的时候, 其实是计算每个 grid cell 的 n n n 个通道对应于标签值的损失. 损失函数并不知道什么是 anchor box, 它只管数学上的计算式, 那要计算就需要网络的输出格式与标签格式在数学表达式上的匹配. 将 anchor box 对应的标签信息拉直打平放到 grid cell 的 n n n 个通道中, 那就是网络输出对应的真值了

在 《保姆级 Keras 实现 YOLO v3 一》 中我们知道网络输出有三个特征图, 三个特征图大小成倍递减, 是为了适应不同尺度的目标. 那一个 ground truth 对应这三个特征图的哪一个呢? 又对应某一特征图中的哪一个 grid cell 呢? 一个 grid cell 中有 k k k 个 anchor box, 又对应其中的哪一个呢?

一. 分配 anchor box

在 上一篇 文章中, 我们从小到大排列了 9 9 9 个聚类出来的 anchor box 尺寸, 有三个特征图, 正好一个特征图可以平均分配三个, 所以前三个就分配给预测小目标的 52 × 52 52 \times 52 52×52 的特征图, 中间三个就分配给预测中等大小目标的 26 × 26 26 \times 26 26×26 的特征图, 剩下的三个分配给预测大目标的 13 × 13 13 \times 13 13×13 的特征图. 这样, 每个特征图的每个 grid cell 就分配到了三个 anchor box

二. 正负样本匹配规则

训练的时候输出是未知的, 我们需要 ground truth 来调整网络的参数, 让输出向 ground truth 靠近. 就需要为每一个输出确定一个靠近的真值用于损失计算

由 YOLO v3 网络结构我们知道在一张图像中有 13 × 13 × 3 + 26 × 26 × 3 + 52 × 52 × 3 = 10 , 647 13 × 13 × 3 + 26 × 26 × 3 + 52 × 52 × 3 = 10,647 13×13×3+26×26×3+52×52×3=10,647 个 anchor box, 正负样本的匹配规则如下

  • 正样本: 一张图中对于第 j j j 个 ground truth, 找出包含它的中心点的那个 grid cell 的 k k k 个 anchor box, 分别计算 I o U IoU IoU, 选 I o U IoU IoU 最大的那一个 anchor box 当成正样本. 就算 I o U IoU IoU 低于阈值也当成正样本, 要不然就会出现某个 ground truth 没有对应的 anchor box. 一个 anchor box 只能分配给一个 ground truth
  • 负样本: 除正样本外, 对第 i i i 个 anchor box, 遍历一张图中所有 ground truth, 记录最大的 I o U IoU IoU 值, 如果最大的 I o U IoU IoU 小于阈值, 那这个 anchor box 就是负样本
  • 忽略样本: 除正负样本外, 都为忽略样本

按照上面的规则会有一个小问题, 就是正样本会很少, 因为 ground truth 的数量等于正样本的数量, 而一张图中的目标通常是很少的, 所以就会造成样本不均衡. 要解决这个问题就需要修改一下正样本的匹配规则, 修改后如下

  • 正样本: 一张图中对于第 j j j 个 ground truth, 找出包含它的中心点的那个 grid cell 的 k k k 个 anchor box, 分别计算 I o U IoU IoU, 选 I o U IoU IoU 最大的那一个 anchor box 当成正样本. 就算 I o U IoU IoU 低于阈值也当成正样本. 对于剩下的 k − 1 k -1 k1 个 anchor box, 如果它与第 j j j 个 ground truth 的 I o U IoU IoU 大于一个较大的阈值, 比如 0.7 0.7 0.7, 都将这些 anchor box 分配为 第 j j j 个 ground truth 的正样本. 一个 anchor box 只能分配给一个 ground truth

在有一些实现中, 计算正样本的 I o U IoU IoU 时, 将 ground truth 和 anchor box 的一个角移动到相同的位置, 比如下图, 将左上角移动到相同的位置. 计算方式就和聚类时计算 I o U IoU IoU 是一样的

label_iou
两个方式其实差异不大, 因为 ground truth 和 anchor box 的中心距离并不远, 所以交集面积是差不多的, 甚至大部分计算结果是一样的. 这也就导致了两种计算方式差异不大

三. 为每一个 anchor box 打标签

3.1 anchor box 长什么样?

网络输入是 416 × 416 416 \times 416 416×416, 52 × 52 52 \times 52 52×52 的特征图相比于原图缩小了 8 8 8 倍, 所以在原图中每隔 8 8 8 个像素放三个最小尺寸的 anchor box, 三个 anchor box 中心重叠. 如下图, 图中一个小格表示一个像素

52 anchors
26 × 26 26 \times 26 26×26 的特征图缩小了 16 16 16 倍, 所以就是每隔 16 16 16 个像素放三个中等尺寸的 anchor box, 类推 13 × 13 13 \times 13 13×13 特征图每隔 32 32 32 个像素就放最大的三个 anchor box

3.2 每一个 anchor box 标签需要填充的信息有哪些?

我们要预测 anchor box 的修正量 ( Δ x , Δ y , Δ w , Δ h ) (\Delta x, \Delta y, \Delta w, \Delta h) (Δx,Δy,Δw,Δh), 类别( 20 20 20 类), 还有要有一个置信度 C ∈ [ 0 , 1 ] C \in [0, 1] C[0,1], 所以一个 anchor box 需要的参数有 25 25 25 个, 一个 grid cell 有 3 3 3 个 anchor box, 所以一个 grid cell 需要 75 75 75 个参数, 这 75 75 75 个参数就填充一个 grid cell 的 75 75 75 个通道, 3 3 3 个 anchor box 的数据依次排列即可, 你要喜欢也可以按你想的顺序排列

channel data

3.3 ( Δ x , Δ y , Δ w , Δ h ) (\Delta x, \Delta y, \Delta w, \Delta h) (Δx,Δy,Δw,Δh) 怎么填?

我们要清楚一点, 网络对目标位置预测的是对于 anchor box 变换到 ground truth 的修正量 ( Δ x , Δ y , Δ w , Δ h ) (\Delta x, \Delta y, \Delta w, \Delta h) (Δx,Δy,Δw,Δh), 而不是直接预测目标的绝对坐标位置, 现在看图说话

delta

上图中, 绿色框表示 ground truth, 坐标表示形式是 ( x , y , w , h ) (x, y, w, h) (x,y,w,h), 其中 x , y x, y x,y 表示中心坐标, w , h w, h w,h 表示宽和高, 对应到图中便是 ( x g , y g , w g , h g ) (x_g, y_g, w_g, h_g) (xg,yg,wg,hg), 红色框表示一个 anchor box. 它的中心是 grid cell 的坐标 ( x c , y c ) (x_c, y_c) (xc,yc), 其宽和高分别是 w a , h a w_a, h_a wa,ha. 好了, 现在我们用网络的输出 ( t x , t y , t w , t h ) (t_x, t_y, t_w, t_h) (tx,ty,tw,th) 来修正 anchor box, 之所以用 ( t x , t y , t w , t h ) (t_x, t_y, t_w, t_h) (tx,ty,tw,th) 来表示预测值, 是因为我们要用 ( Δ x , Δ y , Δ w , Δ h ) (\Delta x, \Delta y, \Delta w, \Delta h) (Δx,Δy,Δw,Δh) 来表示标签值. 不要弄混了. 公式如下
x g = σ ( t x ) + x c y g = σ ( t y ) + y c w g = w a e t w h g = h a e t h \begin{aligned} x_g&= \sigma(t_x) + x_c \\ y_g &= \sigma(t_y) + y_c \\ w_g &= w_ae^{t_w} \\ h_g &= h_ae^{t_h} \\ \end{aligned} xgygwghg=σ(tx)+xc=σ(ty)+yc=waetw=haeth
其中 σ ( x ) = 1 / ( 1 + e − x ) \sigma(x) = 1 / (1 + e^{-x}) σ(x)=1/(1+ex), 函数图像如下

sigmax

所以 σ ( t x ) ∈ ( 0 , 1 ) \sigma(t_x) \in (0, 1) σ(tx)(0,1), σ ( t y ) ∈ ( 0 , 1 ) \sigma(t_y) \in (0, 1) σ(ty)(0,1). 这样就将中心点限制在了 grid cell 内部. 而用 e e e 指数则可以保证 w a e t w w_ae^{t_w} waetw h a e t h h_ae^{t_h} haeth 大于 0, 因为 w g w_g wg h g h_g hg 必须大于 0

所以, 我们希望网络的输出 ( t x , t y , t w , t h ) (t_x, t_y, t_w, t_h) (tx,ty,tw,th) 代入上面的公式之后, 能得到或者接近 ( x g , y g , w g , h g ) (x_g, y_g, w_g, h_g) (xg,yg,wg,hg) , 但是 ( t x , t y , t w , t h ) (t_x, t_y, t_w, t_h) (tx,ty,tw,th) 的值要是多少才合适呢?

( x g , y g , w g , h g ) (x_g, y_g, w_g, h_g) (xg,yg,wg,hg), ( x c , y c , w a , h a (x_c, y_c, w_a, h_a (xc,yc,wa,ha) 是已知量, 解上面的等式就可以得到 ( t x , t y , t w , t h ) (t_x, t_y, t_w, t_h) (tx,ty,tw,th),
t x = l n ( x g − x c 1 − x g + c x ) t y = l n ( y g − y c 1 − y g + c y ) t w = l n ( w g w a ) t h = l n ( h g h a ) \begin{aligned} t_x &= ln({{x_g - x_c} \over {1 - x_g + c_x}}) \\ t_y &= ln({{y_g - y_c} \over {1 - y_g + c_y}}) \\ t_w &= ln({w_g \over {w_a}}) \\ t_h &= ln({h_g \over {h_a}}) \\ \end{aligned} txtytwth=ln(1xg+cxxgxc)=ln(1yg+cyygyc)=ln(wawg)=ln(hahg)
现在, 解出来的 ( t x , t y , t w , t h ) (t_x, t_y, t_w, t_h) (tx,ty,tw,th) 就是标签值 ( Δ x , Δ y , Δ w , Δ h ) (\Delta x, \Delta y, \Delta w, \Delta h) (Δx,Δy,Δw,Δh)

x c , y c x_c, y_c xc,yc 有必要要另外说明一下, 两个都是整数, 因为它们是 grid cell 的坐标, 范围是 [ 0 , [0, [0, 特征图尺寸 − 1 ] - 1] 1], 如果哪一个 grid cell 中的 anchor box 负责预测目标, 那么这个 anchor box 的一部分坐标就已知了, 剩下的就是预测这个 anchor box 的中心坐标相对于这个 grid cell 左上角坐标 ( x c , y c ) (x_c, y_c) (xc,yc) 的偏移量.

还是以上面的图用具体的数字来说明, 假设上面的图是 52 × 52 52 \times 52 52×52 的特征图对应的原图, 那一个格子宽度是 8 个像素, 一个格子对应特征图一个 grid cell, 此时 ground truth 绝对坐标是 ( 18.82 , 12.98 , 17 , 20 ) (18.82, 12.98, 17, 20) (18.82,12.98,17,20), anchor box 的尺寸是 ( 16 , 22 ) (16, 22) (16,22). 从图中可以看到 c x = 2 , c y = 1 c_x = 2, c_y = 1 cx=2,cy=1, 则 σ ( Δ x ) = 0.3525 , σ ( Δ y ) = 0.6225 \sigma(\Delta x) = 0.3525, \sigma(\Delta y) = 0.6225 σ(Δx)=0.3525,σ(Δy)=0.6225, 0.3525 0.3525 0.3525 0.6225 0.6225 0.6225 这两个数字怎么来的?

因为 ground truth 中心点绝对坐标是 ( 18.82 , 12.98 ) (18.82, 12.98) (18.82,12.98), 相对于 grid cell 左上角的坐标是
( 18.82 − 8 x c , 12.98 − 8 y c ) = ( 2.82 , 4.98 ) (18.82 - 8x_c, 12.98 - 8y_c) = (2.82, 4.98) (18.828xc,12.988yc)=(2.82,4.98)
再将 ( 2.82 , 4.98 ) (2.82, 4.98) (2.82,4.98) 以步长 8 8 8 为分母归一化得到 ( 0.3525 , 0.6225 ) (0.3525, 0.6225) (0.3525,0.6225), 所以 ground truth 归一化后的中心坐标为 ( 2.3525 , 1.6225 ) (2.3525, 1.6225) (2.3525,1.6225), 公式中的 ( x g , y g ) (x_g, y_g) (xg,yg) 就是归一化后的坐标. 如果要还原成绝对坐标, 将 ( 2.3525 , 1.6225 ) (2.3525, 1.6225) (2.3525,1.6225) 乘以 8 8 8 就可以得到 ( 18.82 , 12.98 ) (18.82, 12.98) (18.82,12.98)

反解 σ ( Δ x ) = 0.3525 , σ ( Δ y ) = 0.6225 \sigma(\Delta x) = 0.3525, \sigma(\Delta y) = 0.6225 σ(Δx)=0.3525,σ(Δy)=0.6225, 再将 w g , h g , w a , h a w_g, h_g, w_a, h_a wg,hg,wa,ha 再入
Δ w = l n ( w g w a ) Δ h = l n ( h g h a ) \begin{aligned} \Delta w &= ln({w_g \over {w_a}}) \\ \Delta h &= ln({h_g \over {h_a}}) \\ \end{aligned} ΔwΔh=ln(wawg)=ln(hahg)
将就可以解出 ( Δ x , Δ y , Δ w , Δ h ) = ( − 0.608068 , 0.500173 , 0.060625 , − 0.095310 ) (\Delta x, \Delta y, \Delta w, \Delta h) = (-0.608068, 0.500173, 0.060625, -0.095310) (Δx,Δy,Δw,Δh)=(0.608068,0.500173,0.060625,0.095310), 所以这个 anchor box 的关于位置的标签值就是 ( − 0.608068 , 0.500173 , 0.060625 , − 0.095310 ) (-0.608068, 0.500173, 0.060625, -0.095310) (0.608068,0.500173,0.060625,0.095310)

其实将 σ ( Δ x ) \sigma(\Delta x) σ(Δx) σ ( Δ y ) \sigma(\Delta y) σ(Δy) 限制在 ( 0 , 1 ) (0, 1) (0,1) 是有一点问题的, 因为 Δ x \Delta x Δx Δ y \Delta y Δy 趋于 − ∞ -\infty σ ( x ) \sigma(x) σ(x) 才能取到 0 0 0, 趋于 + ∞ +\infty + σ ( x ) \sigma(x) σ(x) 才能取到 1 1 1. 所以当 ground truth 中心点在 grid cell 边界的时候是学习不到这个值的. 不过这个也不是什么大问题, 当 ∣ t x ∣ |t_x| tx ∣ t y ∣ |t_y| ty 大于 5 5 5 后, 就已经很接近了. 但是打标签会有问题, 因为按上面的公式计算出来的值是 − ∞ -\infty 或者 + ∞ +\infty +. 为了解决一个问题, 可以有两种方法, 一是打标签的时候, 把标签值的绝对值限制在某个范围内, 比如 5 5 5, σ ( 5 ) = 0.9933071491 \sigma(5)=0.9933071491 σ(5)=0.9933071491, 算是一个比较接近的数了. 另一个更好的方法是在 将 σ ( x ) \sigma(x) σ(x) 修改成
k σ ( x ) − b k\sigma(x) -b (x)b
其中 k > 1 , b > 0 k > 1, b > 0 k>1,b>0. 假设 k = 2 , b = 0.5 k = 2, b = 0.5 k=2,b=0.5, 这样的话, 假设 2 σ ( Δ x ) − 0.5 = 0.99 2\sigma(\Delta x) - 0.5 = 0.99 2σ(Δx)0.5=0.99, 则标签值 Δ x = 1.072120 \Delta x = 1.072120 Δx=1.072120, 假设 2 σ ( Δ x ) − 0.5 = 0.01 2\sigma(\Delta x) - 0.5 = 0.01 2σ(Δx)0.5=0.01, 则标签值 Δ x = − 1.072120 \Delta x = -1.072120 Δx=1.072120, 这很合理. 这就是在 YOLO v4 中的改进方法, 本文就选这种方法修正这个问题

3.4 类别标签怎么填?

这个很简单, 20 20 20 个类别, 只要按 one-hot 编码填进去就可以了, 在 3.2 3.2 3.2 节的图中就是一个例子

3.5 置信度标签怎么填?

这个更简单, 如果是负样本填 0 0 0, 正样本就填 1 1 1, 忽略的样本呢? 这个看你的心情了, 只要不是 0 0 0 或者 1 1 1 就行, 为了更好的区分, 我就填 − 1 -1 1

四. 打标签代码

既然要为 anchor box 打标签, 那首先要生成 anchor box

# 生成 anchor box 函数
# image_size: 图像尺寸
# anchor_size: 聚类生成的 anchor box 尺寸
def create_anchors(image_size, anchor_size):
    # 生成基础的 k 个 anchor box
    base_anchors = []
    for s in anchor_size:
        base_anchors.append((-s[0] // 2, -s[1] // 2, s[0] // 2, s[1] // 2))
    
    grid_anchors = len(anchor_size) // 3 # 每个特征图中一个 grid cell 包含的 anchor box 的数量
    anchor_boxes = [] # 存放各特征图生成的 anchor box 的列表
    
    # 生成三种尺寸特征图的 anchor box
    for i, stride in enumerate(STRIDES):
        # 特征图尺寸
        feature_rows = image_size[0] // stride
        feature_cols = image_size[1] // stride
        # 中心坐标
        ax = (tf.cast(tf.range(feature_cols), tf.float32)) * stride + stride // 2
        ay = (tf.cast(tf.range(feature_rows), tf.float32)) * stride + stride // 2
        ax, ay = tf.meshgrid(ax, ay)

        # 变换形状方便下面的 tf.stack
        ax = tf.reshape(ax, (-1, 1))
        ay = tf.reshape(ay, (-1, 1))

        # stack([ax, ay, ax, ay]) 成这样的格式, 是为了分别加上 base_anchor 的左上角坐标和右下角坐标
        boxes = tf.stack([ax, ay, ax, ay], axis = -1)
        # boxes: (x1, y1, x2, y2) = 中心坐标 + base_anchors, 一种尺寸的特征图取 3 个 anchor box        
        boxes = boxes + base_anchors[i * grid_anchors: i * grid_anchors + grid_anchors]
        
        anchor_boxes.append(boxes)
    
    # 将三个特征图的 anchor box 放到一个 Tensor 中, 最后 shape == (n, 4)
    feature_boxes = tf.concat([anchor_boxes[0], anchor_boxes[1], anchor_boxes[2]], axis = 0)
    feature_boxes = tf.reshape(feature_boxes, (-1, 4))

    return feature_boxes

测试 create_anchors 函数

# 测试 create_anchors 函数
anchor_boxes = create_anchors((LONG_SIDE, LONG_SIDE), cluster_anchors)
print(anchor_boxes)

打印结果

tf.Tensor(
[[ -4.  -7.  12.  15.]
 [ -9. -25.  17.  33.]
 [-20. -13.  28.  21.]
 ...
 [277. 333. 522. 467.]
 [322. 286. 478. 514.]
 [245. 268. 555. 531.]], shape=(10647, 4), dtype=float32)

因为打标签时会用到 I o U IoU IoU, 所以先定义一个函数计算 I o U IoU IoU

# 计算 IoU 函数
# gt_box: 一个标注框
# anchor_boxes: n 个 anchor box, shape = (n, 4)
def get_iou(gt_box, anchor_boxes):
    x = tf.maximum(gt_box[0], anchor_boxes[:, 0])
    y = tf.maximum(gt_box[1], anchor_boxes[:, 1])
    w = tf.maximum(tf.minimum(gt_box[2], anchor_boxes[:, 2]) - x, 0)
    h = tf.maximum(tf.minimum(gt_box[3], anchor_boxes[:, 3]) - y, 0)
    
    intersection = w * h
    
    gt_area = (gt_box[2] - gt_box[0]) * (gt_box[3] - gt_box[1])
    box_area = (anchor_boxes[:, 2] - anchor_boxes[:, 0]) * (anchor_boxes[:, 3] - anchor_boxes[:, 1])

    union = gt_area + box_area - intersection
    ious = intersection / union
    return tf.reshape(ious, (-1, 1))

测试 I o U IoU IoU

# 测试 IoU
a = (8, 8, 32, 64)
b = [(3, 3, 32, 65), (6, 3, 35, 70), (20, 15, 40, 70), (80, 100, 128, 160)]
print("iou(a, b) =", get_iou(a, np.array(b)))

测试结果

iou(a, b) = tf.Tensor(
[[0.74749722]
 [0.69171384]
 [0.31681034]
 [0.        ]], shape=(4, 1), dtype=float64)

在打位置标签 ( Δ x , Δ y , Δ w , Δ h ) (\Delta x, \Delta y, \Delta w, \Delta h) (Δx,Δy,Δw,Δh) 的时候, 需要作一些计算, 我们把这些计算也放到一个函数中去方便使用

# 位置标签函数
# gt_box: 一个标注框
# anchor_boxes: 一张图中所有 anchor box
def get_delta(gt_box, anchor_boxes):
    # 返回值, 返回一个 gt_box 与所有 anchor box 之间的修正量
    # 计算时把所有的 anchor box 当成正样本, 后面会根据 IoU 筛选出真正的正样本
    deltas = None
    
    # gt_box 在原图中的 (x, y, w, h) 形式坐标
    gt_x = (gt_box[0] + gt_box[2]) * 0.5
    gt_y = (gt_box[1] + gt_box[3]) * 0.5
    gt_w = (gt_box[2] - gt_box[0])
    gt_h = (gt_box[3] - gt_box[1])
    
    # anchor box 在原图中的宽和高
    a_w = anchor_boxes[..., 2] - anchor_boxes[..., 0]
    a_h = anchor_boxes[..., 3] - anchor_boxes[..., 1]
    
    # 每种特征图的 anchor box 数量 (52 × 52 × 3, 26 × 26 × 3, 13 × 13 × 3)
    anchor_num = [(LONG_SIDE // s) * (LONG_SIDE // s) * 3 for s in STRIDES]
    
    # 不同特征图 anchor box 切片索引
    idx_start = 0
    idx_end = anchor_num[0]
    
    for i in (0, 1, 2):
        # gt_box 中心点在特征图中距 grid cell 左上角的距离
        dist_x = tf.constant(gt_x / STRIDES[i] - round(gt_x) // STRIDES[i],
                             shape = (anchor_num[i],), dtype = tf.float32)
        dist_y = tf.constant(gt_y / STRIDES[i] - round(gt_y) // STRIDES[i],
                             shape = (anchor_num[i],), dtype = tf.float32)
    
        # 坐标计算公式为 2 * sigma(x) - 0.5
        delta_x = tf.math.log((0.5 + dist_x) / (1.5 - dist_x))
        delta_y = tf.math.log((0.5 + dist_y) / (1.5 - dist_y))
        
        # 每个尺寸的特征图的 anchor box 数量不一样, 所以要加以区分
        delta_w = tf.math.log(gt_w / a_w[idx_start: idx_end])
        delta_h = tf.math.log(gt_h / a_h[idx_start: idx_end])
        
        idx_start = idx_end
        idx_end = idx_end + (anchor_num[i + 1] if i < 2 else sum(anchor_num))
    
        if None == deltas:
            deltas = tf.stack([delta_x, delta_y, delta_w, delta_h], axis = -1)
        else:
            deltas = tf.concat([deltas, tf.stack([delta_x, delta_y, delta_w, delta_h], axis = -1)], axis = 0)
    
    return deltas

为了方便计算, get_delta 在函数内部我们假设所有的 anchor box 都是正样本, 这样计算也不影响, 因为损失函数中我们只关心真正的正样本, 至于其他样本是什么值并不影响

因为只有 ground truth 中心所在的 grid cell 中的 k k k 个 anchor box 才负责预测, 所以我们要把这 k k k 个 anchor box 的序号找出来, 方便后面函数的操作

# 计算 ground truth 所在 grid cell 的 k 个 anchor box 的序号
# 一共有 10647 个, 返回的是在三个特征图中的位置序号
def get_valid_idx(gt_box):
    # 每种特征图的 anchor box 数量 (52 × 52 × 3, 26 × 26 × 3, 13 × 13 × 3)
    anchor_num = [(LONG_SIDE // s) * (LONG_SIDE // s) * 3 for s in STRIDES]
    # 一个 grid cell 中的 anchor box 数量
    grid_anchors = (CLUSTER_K // 3)
        
    # gt_box 在原图的中心坐标
    x = (gt_box[0] + gt_box[2]) * 0.5
    y = (gt_box[1] + gt_box[3]) * 0.5
    
    # 后面的特征图中 anchor box 的序号要加上前面的特征图的总的 anchor box 的数量
    offset = [0, anchor_num[0], anchor_num[0] + anchor_num[1]]
    
    # 返回值
    ret_idx = []
    
    for i in (0, 1, 2):
        grid_x = round(x) // STRIDES[i]
        grid_y = round(y) // STRIDES[i]
        # 在各特征图中的起始序号
        idx_start = grid_y * (LONG_SIDE //  STRIDES[i]) * grid_anchors + grid_x * grid_anchors + offset[i]
        ret_idx.append(idx_start)
        # 后面 grid_anchors - 1 个 anchor box 序号顺序增加
        for j in range(1, grid_anchors):
            ret_idx.append(ret_idx[-1] + 1)
            
    return ret_idx
# 测试 get_valid_idx 函数
valid_boxes = get_valid_idx((0, 0, 8, 8))
print(valid_boxes)

输出结果

[0, 1, 2, 8112, 8113, 8114, 10140, 10141, 10142]

现在定义一个函数, 为一张图像的 anchor box 打标签

# 定义打标签函数
# gts: get_ground_truth 函数的第三个返回值, 前两个在这里用不上, 所以下面的循环中只用了最后一个
# anchor_boxes: create_anchors 函数生成的 anchor box
def get_label(gts, anchor_boxes):
    # 总的 anchor box 数量
    anchor_nums = anchor_boxes.shape[0]
     # 类别数量
    categories = len(CATEGORIES)
    
    # 位置标签(Δx,Δy,Δw,Δh), 全部初始化为 0
    deltas = tf.zeros((anchor_nums, 4), dtype = tf.float32)
    # 各 gt_box 与 anchor box 的最大 IoU, 要比较各 gt_box 与所有 anchor box IoU 的大小
    # 把最大值记录下来, 这样将标签分配给最合适的 anchor box, 还有一个功能是用来判断是否是负样本
    max_ious = tf.zeros((anchor_nums, 1), dtype = tf.float32)
    # 类别标签, 全部初始化为 0
    cls_ids = tf.zeros((anchor_nums, categories), dtype = tf.float32)
    # 置信度标签, 全部初始化为 -1, 表示忽略样本
    confidence = tf.fill((anchor_nums, 1), -1.0)
    
    for gt_box, cls_id in gts[-1]:
        # 所有 anchor box 的可用状态, 只有 gt_box 所在 grid cell 的 k 个 anchor box 可用, 先全部初始化为 False
        valid_mask = tf.fill((anchor_nums, 1), False)
        # 取出 gt_box 所在 grid cell 的 k 个 anchor box 的序号
        indices = get_valid_idx(gt_box)
        indices = tf.reshape(tf.constant(indices), (-1, 1))
        updates = tf.constant(True, shape = indices.shape)
        # 将序号位置的 False 变成 True
        valid_mask = tf.tensor_scatter_nd_update(valid_mask, indices, updates)
        
        # 正常计算 IoU
        # ious = get_iou(gt_box, anchor_boxes)
        
        # 聚类方式计算 IoU, gt_box 与 所有 anchor box 的 IoU, 左上角都在 (0, 0)
        ious = cluster_iou((gt_box[2] - gt_box[0], gt_box[3] - gt_box[1]),
                           tf.stack([anchor_boxes[:, 2] - anchor_boxes[:, 0],
                                     anchor_boxes[:, 3] - anchor_boxes[:, 1]], axis = -1))
        # 聚类方式计算 IoU 结果要变换到合适的 shape
        ious = tf.reshape(ious, (anchor_nums, -1))
        
        # 屏蔽掉其他 grid cell 的 IoU
        ious = tf.where(valid_mask, ious, 0.0)
        
        # 找出最大值所在的位置
        grater_mask = ious > max_ious
        # 记录每次比较的最大值, 这个是在不同的 gt_box 这间比较
        max_ious = tf.maximum(ious, max_ious)
        
        # 获取当前 gt_box 与 anchor box IoU 最大值和对应的索引,
        # k = 1, 表示我们只关心最大的一个, 这个也许是小于阈值的, 但是我们也要将其变成正样本
        _, indices = tf.math.top_k(tf.reshape(ious, (anchor_nums, )), k = 1)     
        # 创建掩码, 只有最大值位置为 True, 其他为 False
        max_mask = tf.cast(tf.one_hot(indices, depth = anchor_nums), dtype = tf.bool)
        max_mask = tf.reshape(max_mask, (-1, 1))
        # 将 IoU >= POS_THRES 的也标记成 True, 这样可以增加正样本数量, 再将 max_mask 加入到 pos_mask
        pos_mask = ious >= POS_THRES
        pos_mask = tf.logical_or(max_mask, pos_mask)
        # 与 grater_mask 做 and 是因为当前 gt_box 匹配的 IoU 要大于之前匹配的
        # 才能变更这个 anchor box 的标签, 要不然就是之前的标签更合适
        pos_mask = tf.logical_and(pos_mask, grater_mask)
        
        # 将 deltas 正样本位置替换成计算好的标签值
        deltas = tf.where(pos_mask, get_delta(gt_box, anchor_boxes), deltas)
        
        # 当前 gt_box 的整数类别转换成 one-hot
        one_hot = tf.reshape(tf.one_hot(cls_id, depth = categories), (-1, 20))
        # 将 cls_ids 对应位置替换成当前 gt_box 的 one-hot 标签
        cls_ids = tf.where(pos_mask, one_hot, cls_ids)
        
        # 将正样本位置置信度替换成 1
        confidence = tf.where(pos_mask, 1.0, confidence)
    
    # 循环完成后, confidence 中只有正样本和忽略样本, 还没有负样本
    # 找出 confidence 所有正样本的位置
    pos_mask = confidence > 0
    # 由 max_ious 定位出所有小于阈值的位置
    neg_mask = max_ious < NEG_THRES
    # 从 neg_mask 中去除 pos_mask 位置
    neg_mask = tf.where(pos_mask, False, neg_mask)
    # 将负样本位置的值替换成 0
    confidence = tf.where(neg_mask, 0.0, confidence)
    
    # 组合成总的标签信息
    # 现在 label 的格式为 (位置标签, 类别标签, 置信度), shape = (10647 × 25)
    # 如果 reshape 可变成 75 个通道, 只是这样就要分成三个 tensor 了, 没有必要
    label = tf.concat([deltas, cls_ids, confidence], axis = -1)
    
    # 最后返回 max_ious 是不需要的, 只是为了查看每个 ancor box 与 ground truth 的 IoU
    return label

测试函数

# 测试打标签函数
gts = get_ground_truth(label_data[1], label_data[2], CATEGORIES)
label = get_label(gts, anchor_boxes)
# 找出最后一维值为 1 的行, 也就是正样本
pos_mask = tf.equal(label[:, -1], 1)
pos_targets = tf.boolean_mask(label, pos_mask)
print(pos_targets)

输出结果

tf.Tensor(
[[-0.6466271   0.          0.09909087  0.38566247  1.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   1.        ]
 [-1.0986123   0.2513144   0.08004274  0.38566247  1.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   1.        ]
 [-0.3794896   0.7884574   0.01869218 -0.44055638  1.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   1.        ]
 [-0.6466271   0.12516314  0.01869218 -0.44055638  1.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   1.        ]
 [-0.8622235  -0.18805222  0.         -0.42285687  1.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   1.        ]
 [ 0.06252041 -0.2513144   0.03704124 -0.5146644   1.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   0.          0.          0.          0.          0.          0.
   1.        ]], shape=(6, 25), dtype=float32)

找到 6 6 6 个正样本, 将它们画到原图上

# 将找出来的正样本 anchor box 显示到原图, gt_box 已经在前面画过了
indices = tf.where(tf.equal(label[:, -1], 1.0))
for t in indices:
    t = t.numpy()[0]
    box = anchor_boxes[t].numpy()
    print(box)
    cv.rectangle(img_copy, (round(box[0]), round(box[1])), (round(box[2]), round(box[3])),
                 (0, 0, random.randint(128, 256)), 2)
    
plt.figure("label_box", figsize = (8, 4))
plt.imshow(img_copy[..., : : -1])
plt.show()
[ 44. 203.  92. 237.]
[ 60. 275. 108. 309.]
[333.  60. 386. 147.]
[141.  76. 194. 163.]
[ 29.  92.  82. 179.]
[157. 172. 210. 259.]

pos_anchors

五. 代码下载

示例代码可下载 Jupyter Notebook 示例代码

上一篇: 保姆级 Keras 实现 YOLO v3 二
下一篇: 保姆级 Keras 实现 YOLO v3 四 (待续…)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/245912.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

uniapp交互反馈api的使用示例

官方文档链接&#xff1a;uni.showToast(OBJECT) | uni-app官网 1.uni.showToast({}) 显示消息提示框。 常用属性&#xff1a; title:页面提示的内容 image&#xff1a;改变提示框默认的icon图标 duration&#xff1a;提示框在页面显示多少秒才让它消失 添加了image属性后。 注…

vs code 设置了自动格式化保存 但是json 配置文件不想自动格式化

vscode 点击文件>首选项>设置>点击打开设置 >转化成文本格式 "editor.formatOnSave": true, "[json]": { "editor.formatOnSave": false }, 即可

智安网络|计算机视觉在城市交通中的前景与变化

随着科技的不断发展&#xff0c;计算机视觉技术在各个领域扮演着越来越重要的角色。在交通领域&#xff0c;计算机视觉为智能交通系统带来了许多机遇&#xff0c;为城市交通管理和出行体验提供了前所未有的可能性。 首先&#xff0c;计算机视觉技术可以用于智能交通监控。传统…

力扣题:数字与字符串间转换-12.15

力扣题-12.15 [力扣刷题攻略] Re&#xff1a;从零开始的力扣刷题生活 力扣题1&#xff1a;592. 分数加减运算 解题思想&#xff1a;首先通过对表达式进行分离&#xff0c;然后利用分数的加法原则进行计算&#xff0c;最后除以最大公因数即可 class Solution(object):def fra…

【MATLAB】数据拟合第10期-二阶多项式的局部加权回归拟合算法

有意向获取代码&#xff0c;请转文末观看代码获取方式~也可转原文链接获取~ 1 基本定义 二阶多项式局部加权回归拟合算法是一种用于回归分析的方法&#xff0c;主要通过局部加权线性回归模型来实现。以下是对二阶多项式局部加权回归拟合算法的介绍&#xff1a; 局部加权线性回…

微信小程序 实现上传图片前裁剪功能

前言 技术支持&#xff1a; wx-cropper 裁剪 总体思路是&#xff1a;安装完wx-cropper之后就它当成组件使用。在使用页面的地方引入组件就行。上传图片的逻辑不变&#xff0c;在 通过wx.chooseMedia() Api 拿到图片之后传递给子组件&#xff0c;子组件在拿到图片进行裁剪处理等…

ChatGPT如何做科研??

2023年我们进入了AI2.0时代。微软创始人比尔盖茨称ChatGPT的出现有着重大历史意义&#xff0c;不亚于互联网和个人电脑的问世。360创始人周鸿祎认为未来各行各业如果不能搭上这班车&#xff0c;就有可能被淘汰在这个数字化时代&#xff0c;如何能高效地处理文本、文献查阅、PPT…

算法:单链表反转

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 目录 一、问题描述 二、栈解法Stack 三、三指针法 总结 提示&#xff1a;以下是本篇文章正文内容&#xff0c;下面案例可供参考 一、问题描述 有个单链表&#xff0c;现…

Gitlab基础篇: Gitlab docker 安装部署、Gitlab 设置账号密码

文章目录 1、环境准备2、配置1)、初始化2)、修改gitlab配置文件3)、修改docker配置的gitlab默认端口 gitlab进阶配置gitlab 设置账号密码 1、环境准备 安装docker gitlab前确保docker环境&#xff0c;如果没有搭建docker请查阅“Linux docker 安装文档” docker 下载 gitlab容…

阿里云SLS日志服务之数据导入与加工处理

一、背景 采集vm虚拟机上的Log日志文本&#xff0c;如果需要经过特殊的加工处理&#xff0c;在本文主要讲述如何在SLS把kafka采集上来的数据经导入并加工后存储。 二、数据流转图 三、数据导入 服务地址&#xff1a;填写kafka集群的地址数据格式&#xff1a;json字符串&#…

libevent服务GET/POST的简单使用

目录 1、前言2、测试demo2.1、目录结构2.2、 测试源码2.2.1、http_server.cpp2.2.2、 http_server.h 2.3、 编译2.4、 运行结果2.4.1、测试POST2.4.2 、测试GET请求 1、前言 项目开发中经常需要使用到私有协议和Qt,Android等GUI前端通信&#xff0c;比较常用的使用POST和GET方式…

《算法通关村——透彻理解动态规划》

《算法通关村——透彻理解动态规划》 62. 不同路径 一个机器人位于一个 m x n 网格的左上角 &#xff08;起始点在下图中标记为 “Start” &#xff09;。 机器人每次只能向下或者向右移动一步。机器人试图达到网格的右下角&#xff08;在下图中标记为 “Finish” &#xff…

Matlab示例-Examine 16-QAM Using MATLAB学习笔记

​工作之余学习16-QAM 写在前面 网上看到许多示例&#xff0c;但一般都比较难以跑通。所以&#xff0c;还是老方法&#xff0c;先将matlab自带的例子研究下。 Examine 16-QAM Using MATLAB Examine 16-QAM Using MATLAB 或者&#xff0c;在matlab中&#xff0c;键入&#x…

Re9 Attention is all you need

变形金刚&#xff0c;启动&#xff01; Abstract 主流序列转录模型基于复杂的循环神经网络和卷积神经网络&#xff0c;包括一个encoder和decoder&#xff0c;同时在这之中使用一个叫注意力机制attention的东西本文提出了一个简单的网络架构&#xff0c;仅仅使用注意力机制&am…

【论文阅读】O’Reach: Even Faster Reachability in Large Graphs

Hanauer K, Schulz C, Trummer J. O’reach: Even faster reachability in large graphs[J]. ACM Journal of Experimental Algorithmics, 2022, 27: 1-27. Abstract 计算机科学中最基本的问题之一是可达性问题&#xff1a;给定一个有向图和两个顶点s和t&#xff0c;s可以通过…

(1)Linux的 安装与用户的创建

前言 本章正式开始Linux的学习 如果关于Linux环境搭配有问题的朋友 可以阅读此文章:Linux环境搭建 一&#xff0c;浅用一下吧 —— Hello, Linux! 我们现在已经登陆上了&#xff0c;我们当然可以用它来做很多事。 我们来用它写一个 "Hello, Linux!" &#xff0c;来…

Layui继续学习

1、简单评论区代码&#xff1a; <!DOCTYPE html> <html> <head> <meta charset"utf-8"> <title>社区评论区</title> <link rel"stylesheet" href"https://cdn.staticfile.org/layui/2.6.8/css/…

关于“Python”的核心知识点整理大全20

目录 ​编辑 9.2 使用类和实例 9.2.1 Car 类 下面来编写一个表示汽车的类&#xff0c;它存储了有关汽车的信息&#xff0c;还有一个汇总这些信息的方法&#xff1a; car.py 9.2.2 给属性指定默认值 9.2.3 修改属性的值 1. 直接修改属性的值 2. 通过方法修改属性的值 3.…

记录Oracle Exadata X8M-2 存储服务器告警灯亮的处理过程(/SYS/MB/P0PCIE7)

文章目录 概要调查流程处理方式&#xff1a; 概要 现场服务器告警灯亮&#xff0c;其他服务器正常&#xff0c;磁盘灯正常&#xff0c;所以从整体来看应是内部部件抛出的异常问题&#xff0c;需要登录机器确认&#xff1a; 调查流程 通过ILOM web界面查看服务器状态进行信息…

基于轻量级GhostNet模型开发构建工业生产制造场景下滚珠丝杠传动表面缺陷图像识别系统

轻量级识别模型在我们前面的博文中已经有过很多实践了&#xff0c;感兴趣的话可以自行移步阅读&#xff1a; 《移动端轻量级模型开发谁更胜一筹&#xff0c;efficientnet、mobilenetv2、mobilenetv3、ghostnet、mnasnet、shufflenetv2驾驶危险行为识别模型对比开发测试》 《基…