本发明公开了基于反卷积神经网络的场景语义分割方法,所述方法包括下述步骤:步骤S1,对场景图片用全卷积神经网络提取密集特征表达;步骤S2,利用局部敏感的反卷积神经网络并借助所述图片的局部亲和度矩阵,对步骤S1中得到的密集特征表达进行上采样学习以及物体边沿优化,得到所述图片的分数图,从而实现精细的场景语义分割.通过局部敏感的反卷积神经网络,利用局部底层信息来加强全卷积神经网络对局部边沿的敏感性,从而得到更高精度的场景分割.
发明专利
CN201610947960.8
2016.10.26
CN107066916A
2017-08-18
黄凯奇 赵鑫 程衍华
中国科学院自动化研究所
G06K9/00(2006.01)I,G,G06,G06K,G06K9
G06K9/00(2006.01)I,G06K9/46(2006.01)I,G,G06,G06K,G06K9,G06K9/00,G06K9/46
一种基于反卷积神经网络的场景语义分割方法,其特征在于,所述方法包括下述步骤:步骤S1,对场景图片用全卷积神经网络提取密集特征表达;步骤S2,利用局部敏感的反卷积神经网络并借助所述图片的局部亲和度矩阵,对步骤S1中得到的密集特征表达进行上采样和优化,得到所述图片的分数图,从而实现精细的场景语义分割.