先上效果圖,這里顯示有點色差, 實際數(shù)值是純色的, 而不是混色的.
這個算法最大的特點是保留原始像素的數(shù)值, 而不是把邊框統(tǒng)一變成白色.
實現(xiàn)的算法也超級簡單. 就是有點慢. 考慮到我這個應用場景對性能要求不高, 比人快就行. 人工是它的幾百倍. 所以也就無所謂啦.
測試結果一張1080*1920的圖用時3秒, 如果換成c語言估計0.5秒左右.
算法原理, 每次4個田子形像素逐行掃描. 發(fā)現(xiàn)4個像素不一致的就輸出到結果圖上. 否則就是輸出0.
代碼如下.
#
# demo.py
# 識別單張圖片
#
import argparse
import os
import numpy as np
import time
from modeling.deeplab import *
from dataloaders import custom_transforms as tr
from PIL import Image
from torchvision import transforms
from dataloaders.utils import *
from torchvision.utils import make_grid, save_image,to_image
import matplotlib
matplotlib.use('TkAgg')
import matplotlib.pyplot as plt
def main():
im = Image.open("test_border.png")
npimg = np.array(im) # 這個圖片是1維的索引圖.
# chwimg = npimg.transpose(2,0,1) # HWC 變成 CHW 格式的矩陣
print(npimg.shape)
h,w,c = npimg.shape
src = np.sum(npimg,axis=2) # 這里測試用, 先把3通道的合成了一個通道的, 實際使用的時候也是1通道的.
print(src.shape)
borderimg = np.zeros(src.shape) #默認都輸出了0 后面就不用輸出0了.
# 修補bug, 解決邊框線會丟失的問題.
borderimg[0,:]=src[0,:]
borderimg[:,0]=src[:,0]
borderimg[-1,:]=src[-1,:]
borderimg[:,-1]=src[:,-1]
t1= time.time()
for x in range(0,h-1,1):
for y in range(0,w-1,1):
# point = src[x,y]
# if(point>0):
# print(point)
if not (src[x,y] == src[x+1,y] == src[x,y+1] == src[x+1,y+1]): # 發(fā)現(xiàn)4個像素不一致的就輸出到結果圖上.
borderimg[x,y] = src[x,y]
borderimg[x+1,y] = src[x+1,y]
borderimg[x,y+1] = src[x,y+1]
borderimg[x+1,y+1] = src[x+1,y+1]
t2= time.time()
print("耗時",t2-t1)
plt.figure()
plt.title('display')
plt.imshow(src)
plt.show( )
plt.imshow(borderimg)
plt.show( )
print("start test get image border ...")
if __name__ == "__main__":
main()
else:
main()