<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 設計應用 > 基于圖像的目標區域分割算法研究

基于圖像的目標區域分割算法研究

作者:楊順波 龍永紅 姚佳成 向昭宇 時(shí)間:2019-01-29 來(lái)源:電子產(chǎn)品世界 收藏

作者 楊順波,龍永紅,姚佳成,向昭宇(湖南工業(yè)大學(xué) 電氣與信息工程學(xué)院,湖南 株洲 421007)

本文引用地址:http://dyxdggzs.com/article/201901/397276.htm

  摘要:通常在進(jìn)行圖像處理時(shí),并不需要對整幅圖像進(jìn)行處理,往往我們感興趣的部分只有圖像中的某個(gè)區域??焖?、有效地將目標區域分割出來(lái),不僅能降低運行時(shí)間,而且能為后續處理工作打下基礎。因此,本文將對目標區域分割算法進(jìn)行研究,分別采用(OTSU)、、進(jìn)行研究,通過(guò)實(shí)驗對比發(fā)現,背景較單一時(shí),相對來(lái)說(shuō)效果較好。

  關(guān)鍵詞;;;

  0 引言

  隨著(zhù)人工智能技術(shù)的興起,無(wú)論是工業(yè)上還是生活上,人們對智能化的要求變得越來(lái)越高。那么對于生產(chǎn)一個(gè)智能化的產(chǎn)品而言,它首先應該考慮到問(wèn)題就是要感知外部世界,目前感知外部世界主要有基于視覺(jué)、紅外、雷達、溫度等傳感器以及各傳感器混合使用的方法。當背景較為單一時(shí),基于視覺(jué)的方法效果較好,而且價(jià)格也便宜。

  然而,大多數情況下,我們并不需要整幅圖像的所有信息,我們感興趣的區域[1](ROI, Region of Interest)只是圖像中的一部分。為提高后續處理的效率,本文將對大津法[2](OTSU)、[3]、分水嶺方法[4]進(jìn)行研究,通過(guò)實(shí)驗比較三者之間的優(yōu)劣,為更好的改善區域分割算法打下基礎。

  1 OTSU算法研究

  1.1 OTSU算法的閾值分割

  OTSU最早是在1979年被提出來(lái),借助灰度直方圖,通過(guò)閾值的方式將圖像進(jìn)行分類(lèi),然后計算各類(lèi)之間的方差,選取使類(lèi)間方差最大時(shí)閾值作為最優(yōu)閾值。本文實(shí)驗的對象背景單一,只需要進(jìn)行單閾值就能將目標區域從圖像中分割出來(lái)。下面將重點(diǎn)分析OTSU算法的閾值分割。

  原理分析如下:設圖像有L個(gè)灰度級,ni為第個(gè)灰度級所包含的像素個(gè)數,N為總的像素個(gè)數,則有,Pi為第i個(gè)灰度級出現的概率,表示為,則有。設定一個(gè)閾值t,將圖像按灰度級劃分為C0和C1兩類(lèi),其中。用w0,w1分別表示C0,C1兩類(lèi)的概率分布。

0.5.jpg

  其中分別表示類(lèi)間方差、類(lèi)內方差和總方差,具體表示如下:

0.6.jpg

  此時(shí),問(wèn)題轉化為如何尋找一個(gè)最優(yōu)t,使得三個(gè)判別函數最大。由于0.7.jpg,因此a,b,g之間的關(guān)系式可以轉換為:

0.8.jpg

  由上式可知,三個(gè)判別函數單調性一致,又因為能快速計算且與t無(wú)關(guān)。因此將作為分析對象最為簡(jiǎn)單,又,所以能進(jìn)一步簡(jiǎn)化分析函數,即將作為分類(lèi)判別函數:

  0.9.jpg

  其中0.10.jpg。

  假設最佳時(shí)的閾值為t*,則有:

0.11.jpg

  由于本文實(shí)驗對象背景單一,只需要借助一維灰度直方圖就能很好實(shí)現分割,且不需要考慮像素空間位置等其它信息。因此,這里只對一維大津閾值法進(jìn)行介紹,不對二維閾值方法進(jìn)行介紹。

  1.2 改進(jìn)型OTSU算法

  Otsu算法最關(guān)鍵的部分在于找一個(gè)合適的閾值t。t值過(guò)大,會(huì )丟失部分目標點(diǎn);t值過(guò)小,則會(huì )產(chǎn)生一些偽目標點(diǎn)??梢?jiàn),t值過(guò)大、過(guò)小都會(huì )影響目標區域分割效果,進(jìn)而為后面處理帶來(lái)影響。

  鑒于上文分析的基礎上,對Otsu算法進(jìn)一步改進(jìn)。Otsu算法的基本原理是使得分割出來(lái)的類(lèi)間距離較大,而類(lèi)內之間盡可能保持一定的聚合性,也就是各類(lèi)中像素與類(lèi)中心之間的距離盡量較小。根據以上要求,可以假設一個(gè)滿(mǎn)足上述要求的公式,即與各類(lèi)之間的均值距離差成正比,與各類(lèi)內間距離之和成反比。當取最大時(shí),此時(shí)的t就為所求的最佳閾值。表達式如下:

  0.12.jpg

  其中P0(t),PB(t)分別為目標,背景均值d0(t),d1(t),分別為目標、背景平均方差:

0.13.jpg

  最佳閾值t對應X(t)取最大值時(shí)的t。分別對四個(gè)方向圖像進(jìn)行處理,結果如圖1所示。

nEO_IMG_1.jpg

  2 K-means聚類(lèi)分割法

  2.1 K-means算法分析

  K-means算法是由Macqueen在1967年提出的,是一種具有無(wú)監督學(xué)習性能的聚類(lèi)算法。由于K-means算法簡(jiǎn)單、易于實(shí)現,且對規模較大的數有很好的聚類(lèi)分割效果,因此,受到中外學(xué)者廣泛使用,并對它進(jìn)行不斷改進(jìn)。其核心思想在于對每個(gè)類(lèi)進(jìn)行反復迭代運算,直到迭代結果滿(mǎn)足一個(gè)穩定值。該算法對連續型數據處理效果較好,對離散型數據處理效果不是很理想。

  K-means算法實(shí)現的是內類(lèi)相似最大化,類(lèi)間相似最小化,與Otsu算法正好相反,Otsu算法是使內類(lèi)達到方差最小化,內類(lèi)方差最大化。K-means算法同時(shí)也存在著(zhù)不足,在執行此算法時(shí),首先需要選取初始聚類(lèi)中心,還需要確定聚類(lèi)數目(算法中的k值)和算法需要迭代的次數。如果所選初始中心為噪聲點(diǎn)或離散點(diǎn),則算法很容易陷入局部聚類(lèi)最優(yōu)值。當處理數據較大時(shí),也易導致聚類(lèi)時(shí)間延長(cháng),為此,又提出來(lái)很多改進(jìn)K-means算法。Huifeng Cheng等人通過(guò)顏色轉換將RGB圖轉換成HIS圖,初始聚類(lèi)中心以及初始聚類(lèi)數通過(guò)平均方差確定,進(jìn)行K-means算法聚類(lèi)之后,利用粗糙集理論將彩色成分快速自動(dòng)地分割出來(lái)。Shiv Ram Dubey等人根據水果顏色特征,提出了K-means無(wú)監督缺陷分割方法,該方法是一種二維聚類(lèi)法,利用了水果的顏色信息和空間信息進(jìn)行聚類(lèi)。該方法的一大優(yōu)點(diǎn)是:能將分好的小區域合并成較大的區域,減少了算法處理時(shí)間。

  2.2 K-means算法流程

  K-means算法流程圖如圖2所示。

1549695081795237.jpg

 ?、匐S機從數據樣本n中取k個(gè)數據作為初始聚類(lèi)中心;

 ?、趯祿颖緉中的每個(gè)數據進(jìn)行分類(lèi),以距離最小為依據,將每個(gè)數據與初始聚類(lèi)中心計算,將數據歸為距離最小的那一類(lèi);

0.14.jpg

 ?、蹖π滦纬删垲?lèi)中的數據不斷的求均值,將得到的均值作為聚類(lèi)中心;

 ?、苋裘看胃碌玫降木挡皇諗?,則返回第2步,以當前均值為聚類(lèi)中心重新計算,直到均值收斂為止,此時(shí)均值即為聚類(lèi)中心;

 ?、莸玫絢個(gè)聚類(lèi)類(lèi)別。

  2.3 K-means算法最佳判別函數

  設數據集為,其中xi表示由d維特征組成的向量。K-means算法將數據集劃分為k類(lèi),形成聚類(lèi)集,設第Ck個(gè)類(lèi)對應的聚類(lèi)中心為mk,定義數據點(diǎn)到任意聚類(lèi)中心mk的距離為:

  0.15.jpg

  則所有在Ck類(lèi)中的數據點(diǎn)與聚類(lèi)中心mk之間的距離之和可表示為:

0.16.jpg

  上式為單個(gè)聚類(lèi)集判別函數。那么將各聚類(lèi)集的最小歐式距離求和一次,便得到了整個(gè)數據集的最小歐式距離,也即K-means算法的最佳判別函數:

0.17.jpg

  上式中0.18.jpg。顯然,要使J最小,則應滿(mǎn)足J對任意聚類(lèi)中心求偏導為0,即:

  0.19.jpg

  式中0.20.jpg,因此可以看出J最小時(shí),聚類(lèi)中心為各類(lèi)內樣本數據的平均值,此時(shí)能得到最好的聚類(lèi)效果。取不同k值時(shí),結果如圖3所示。

1549695100946667.jpg

  3 分水嶺分割法

  3.1 分析

  分水嶺法[8]算最早是Digabel和Lantuejoul等人將其引入數字圖像處理,該算法是一種基于數學(xué)形態(tài)學(xué)的分割方法。起初由于該算法被用于圖像的二值化,并沒(méi)有引起研究人員的廣泛關(guān)注,后來(lái)Vincent和Soille等人將像素灰度值看成地形高度值,模擬水浸沒(méi)過(guò)程實(shí)現分水嶺算法,此后該算法的優(yōu)勢便得以顯現,同時(shí)受到學(xué)者們的廣泛關(guān)注。

  基于浸水型的分水嶺算法是模擬底部浸水過(guò)程,漸漸浸水直到找到目標物邊緣。它是將圖像灰度值看成地面點(diǎn)高度值,因此灰度圖像就可以看成一幅上下起伏的地形圖。每個(gè)“積水盆地”之間的“山脈”被稱(chēng)為“分水嶺”,浸水型分水嶺算法實(shí)現原理如下:

 ?、僭诟鳌胺e水盆地”最低點(diǎn)處刺孔;

 ?、趯⑺ㄟ^(guò)孔洞緩緩注入“積水盆地”;

 ?、垭S著(zhù)水慢慢的涌入,水位漸漸上升,當水即將漫過(guò)盆地進(jìn)入其它盆地時(shí),在此即為該盆地的分水嶺;

 ?、墚斔患磳⒙^(guò)深度最深的盆地時(shí),所有的盆地浸水過(guò)程結束,即實(shí)現的分水嶺操作。

  當然,這只是分水嶺算法最基本的步驟。由于該算法對噪聲相當敏感,極易引起過(guò)分割,因此有必要在進(jìn)行分水嶺算法之前對圖像濾波處理;同時(shí)分水嶺算法自身就存在著(zhù)嚴重的過(guò)分割,該算法處理后會(huì )產(chǎn)生若干個(gè)非必要區域,嚴重影響處理效果,因此在處理之后加上一個(gè)合并操作,將相似區域進(jìn)行合并,減少分割區域。浸水型分水嶺算法流程圖如圖4所示。

nEO_IMG_4.jpg

  3.2 改進(jìn)型分水嶺分割算法

  由于分水嶺算法存在一些不足(噪聲敏感、過(guò)分割等),對此,人們開(kāi)始著(zhù)手研究其改進(jìn)算法。改進(jìn)的算法重點(diǎn)考慮如何很好的解決圖像過(guò)分割現象。研究發(fā)現,基于標記理論的分水嶺算法能有效抑制過(guò)分割現象。與傳統的分水嶺算法相比,該算法預先標記極小值(像素)點(diǎn),較好的抑制了圖像過(guò)分割。從本質(zhì)上看,是利用一種先驗知識來(lái)解決過(guò)度分割的問(wèn)題。

  基于標記的分水嶺算法實(shí)現步驟:

 ?、賹D像進(jìn)行去噪處理;

 ?、趯D像進(jìn)行梯度處理,計算處理后圖像中各“積水盆地”位置;

 ?、凼褂胕mextendedmin函數獲得標記符;

 ?、苁褂脀atershed函數對標記好的圖像進(jìn)行分割處理;

 ?、莺喜⑦^(guò)分割區域。

  傳統方法與改進(jìn)方法處理效果如圖5所示。

1549695136796451.jpg

  4 實(shí)驗結果與分析

  上述實(shí)驗均是基于VS2015+Opencv3.1.0實(shí)驗平臺。根據圖1可以看出,對四個(gè)不同方向圖像處理后,隨著(zhù)相機與目標物之間夾角的增大,分割出來(lái)的目標物偏差也在增大。誤分割主要是發(fā)生在兩個(gè)側面,側面光線(xiàn)較暗,算法處理時(shí)兩個(gè)側面部分被當作背景,沒(méi)有分割出來(lái)。根據圖3有:取不同的k值進(jìn)行實(shí)驗,k值較小時(shí)處理效果較好。這也與本實(shí)驗所處的場(chǎng)景相吻合,即背景單一,聚類(lèi)中心少,所需k值小。同時(shí)隨著(zhù)k值的增大,算法處理時(shí)間也有相應延長(cháng)。根據圖5有:改進(jìn)的分水嶺算法較傳統算法有了較大提高,基于標記的分割法對分水嶺算法的過(guò)分割現象有很好的抑制效果。相關(guān)實(shí)驗數據如表1所示,其中OTSU算法取a圖數據,K-means算法取k=2時(shí)的數據。

  nEO_IMG_b1.jpg

  5 結論

  通過(guò)對三種不同的分割算法進(jìn)行比較,當背景區域較為單一時(shí),大津閾值法相對來(lái)說(shuō)效果較好。但是,圖像的背景往往都比較復雜,因此十分有必要對背景較復雜的圖像進(jìn)行研究。接下來(lái)的研究工作的重點(diǎn)是對復雜背景下圖像分割算法分析與改進(jìn)。

  參考文獻

  [1]呂欣然,陳潔,張立保,等.基于顯著(zhù)特征聚類(lèi)的遙感圖像感興趣區域檢測[J].光學(xué)學(xué)報,2015,35(A01):103-108.

  [2]曹亮.基于 Otsu 理論的圖像分割算法研究[D].武漢:武漢理工大學(xué),2008.

  [3]劉小丹,牛少敏.一種改進(jìn)的 K—means 聚類(lèi)彩色圖像分割方法[J]. 湘潭大學(xué)自然科學(xué)學(xué)報, 2012, 34(2): 90-93.

  [4]王宇,陳殿仁,沈美麗,等.基于形態(tài)學(xué)梯度重構和標記提取的分水嶺圖像分割[J].中國圖象圖形學(xué)報, 2008, 13(11): 2176-2180.

  [5]Patel B C, Sinha D G R. An adaptive K-means clustering algorithm for breast image segmentation[J]. International Journal of Computer Applications, 2010, 10(4): 35-38.

  [6]Paul T U,Bandhyopadhyay S K. Segmentation of Brain Tumor from Brain MRI Images Reintroducing K–Means with advanced Dual Localization Method[J]. International Journal of Engineering Research and Applications (IJERA), 2012, 2(3): 226-231.

  [7]王雪光,陳淑紅.基于K均值聚類(lèi)的成熟草莓圖像分割算法[J].農機化研究, 2013, 35(6): 51-54.

  [8]孫惠杰,鄧廷權,李艷超.改進(jìn)的分水嶺圖像分割算法[J].哈爾濱工程大學(xué)學(xué)報,2014, 35(7): 857-864.

  [9]Soille B V. Watershed in Digital Spaces: An Efficient Based on Immersion Simu-lations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1991,13(6) : 583–598.

  [10]郭昱杉,劉慶生,劉高煥,等.基于標記控制分水嶺分割方法的高分辨率遙感影像單木樹(shù)冠提取[J].地球信息科學(xué)學(xué)報, 2016,18(9):1259-1266.

本文來(lái)源于科技期刊《電子產(chǎn)品世界》2019年第2期第64頁(yè),歡迎您寫(xiě)論文時(shí)引用,并注明出處



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>