<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 谷歌推機器學(xué)習標注圖片中物體界面 整體速度提高3倍

谷歌推機器學(xué)習標注圖片中物體界面 整體速度提高3倍

作者: 時(shí)間:2018-10-25 來(lái)源:新浪科技 收藏

  10月24日上午消息,據中國臺灣地區媒體iThome.com.tw報道,Google在2018 ACM多媒體會(huì )議上,推出一種使用來(lái)標注圖片界面,讓使用者快速為圖片中物體標記出輪廓以及標簽,提高整體標記速度達三倍。

本文引用地址:http://dyxdggzs.com/article/201810/393356.htm

  由于現代基于深度學(xué)習電腦視覺(jué)模型的性能,取決標簽訓練資料的多少,越大的資料庫將能讓有更好的表現。Google在許多深度學(xué)習的研究都一再提到,高品質(zhì)的訓練資料取得并不容易,而這個(gè)問(wèn)題已經(jīng)成為發(fā)展電腦視覺(jué)的主要瓶頸,對于諸如自動(dòng)駕駛、機器人或是圖片搜尋等這類(lèi)以像素為辨識基礎的工作更是如此。



  傳統的方法需要使用者手動(dòng)以標記工具,圈出圖片中物體的邊界,Google提到,使用COCO加Stuff資料集,標記一個(gè)圖片需要19分鐘,標記完整個(gè)資料集需要53000個(gè)小時(shí),太過(guò)耗時(shí)沒(méi)效率。因此Google探索了全新的訓練資料標記方法-流體標注(Fluid Annotation),能以幫助使用者快速找出圖片物體輪廓上標簽。

  流體標注從強語(yǔ)義分割模型的輸出開(kāi)始,使用者能以自然的使用者界面,借由機器學(xué)習輔助進(jìn)行編輯和修改,界面提供使用者需要修正的物體以及順序,讓人們能夠專(zhuān)心于那些機器尚無(wú)法辨識清楚的部分。為了標注圖片,Google預先以約一千張具有分類(lèi)標簽和信任分數的圖片訓練了語(yǔ)意分割模型(Mask-RCNN),具有最高信心的片段(Segment)能被用于初始標簽中。

  流體標注能夠為使用者產(chǎn)生一個(gè)短清單,透過(guò)點(diǎn)擊就能快速為物體上標簽,而使用者也可以增加范圍標記,來(lái)覆蓋沒(méi)被偵測出來(lái)的物體,并透過(guò)滾動(dòng)選擇最佳的形狀。另外,除了能夠增加,也能刪除既有的物體標記或是變更物體深度順序。

  目前這一階段的流體標注的目標是讓圖像更快更容易,提高整體資料集標記速度達三倍。接下來(lái)Google要改進(jìn)物體邊界標記,并以更多的人工智能加速界面操作,擴展界面以處理現在無(wú)法辨識的類(lèi)別。



關(guān)鍵詞: 谷歌 機器學(xué)習

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>