<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > CVPR 2018獎項出爐:最佳論文花落斯坦福大學(xué)

CVPR 2018獎項出爐:最佳論文花落斯坦福大學(xué)

作者: 時(shí)間:2018-06-27 來(lái)源:網(wǎng)絡(luò ) 收藏

  昨日,一年一度頂級會(huì )議 2018 在美國鹽湖城拉開(kāi)帷幕,排起長(cháng)龍的注冊隊伍讓現場(chǎng)參會(huì )的機器之心分析師看到了這屆 的火熱。據統計,本屆大會(huì )有超過(guò) 3300 篇的大會(huì )論文投稿,錄取 979 篇(接受率約為 29%,其中包括 70 篇 Oral 和 224 篇 Spotlight 論文)。

本文引用地址:http://dyxdggzs.com/article/201806/382362.htm

  而在一個(gè)小時(shí)前,最受關(guān)注的 2018 最佳論文結果揭曉:來(lái)自斯坦福大學(xué)和 UC Berkeley 的 Amir R. Zamir 等人獲得 CVPR2018 的最佳論文(Best Paper Award);來(lái)自卡內基梅隆大學(xué)的 Hanbyul Joo 等人獲得了本屆大會(huì )最佳學(xué)生論文獎(Best Student Paper Award)。此外,Tübingen 大學(xué)教授 Andreas Geiger 與 FAIR 研究科學(xué)家何愷明獲得本屆大會(huì )的 PAMI 年輕學(xué)者獎。

  在 19 號上午的主會(huì )議上,CVPR 方面先介紹了今年大會(huì )的數據信息,除了論文接收量再次超越往年,今年的注冊參會(huì )人員也達到了 6512 位。

  此外,論文評審人員的數量在今年也達到了新高,2385 名 reviewer,而 2014 年 CVPR 的參會(huì )人員也才 2000 人左右。

  介紹完大會(huì )數據方面的信息,接下來(lái)就是揭曉最佳論文得主了:

  最佳論文

  CVPR2018 的最佳論文(Best Paper Award)由斯坦福大學(xué)和 UC Berkeley 的 Amir R. Zamir 等人獲得。他們提出了一個(gè)映射視覺(jué)任務(wù)空間的框架,通過(guò)計算不同任務(wù)的相關(guān)性來(lái)確定遷移學(xué)習方案,從而可以在保持準確率的同時(shí),大大降低對數據、監督信息和計算資源的需求。

  最佳論文:Taskonomy: Disentangling Task Transfer Learning

  視覺(jué)任務(wù)之間是否相關(guān)?例如,能否使用曲面法線(xiàn)簡(jiǎn)化估計圖像深度的過(guò)程?直覺(jué)上對這些問(wèn)題的正面回答暗示著(zhù)在各種視覺(jué)任務(wù)之間存在一種結構。了解這種結構具有巨大的價(jià)值;它是遷移學(xué)習背后的概念,且可為識別任務(wù)間的冗余提供了一種有理可依的方法,比如,為了在相關(guān)任務(wù)間無(wú)縫地重復使用監督或在一個(gè)系統中解決多個(gè)任務(wù)而不增加復雜度。

  我們提出了一種完全計算的方法來(lái)建模視覺(jué)任務(wù)的空間結構,通過(guò)在一個(gè)位于隱空間內的 26 個(gè)二維、2.5 維、三維和語(yǔ)義任務(wù)中尋找(一階或更高階)遷移學(xué)習依賴(lài)關(guān)系來(lái)實(shí)現。其成品是用于任務(wù)遷移學(xué)習的計算分類(lèi)圖。我們研究了這個(gè)結構的成果,比如出現的非平凡相關(guān)關(guān)系,并利用它們減少對標注數據的需求。比如,我們展示了解決一組 10 個(gè)任務(wù)所需的標注數據點(diǎn)總數可以減少約 2/3(與獨立訓練相比),同時(shí)保持性能幾乎一致。我們提供了一套計算和探測這種分類(lèi)結構的工具,包括一個(gè)求解器,用戶(hù)可以用它來(lái)為其用例設計有效的監督策略。

  會(huì )后,該論文的第一作者、斯坦福大學(xué)和加州大學(xué)伯克利分校的博士后研究員 Amir Roshan Zamir 告訴機器之心記者,「這篇論文主要圍繞了當前機器學(xué)習系統最大的缺點(diǎn),也就是需要很多標注數據才能完成它們想要的結果。人類(lèi)是可以借鑒學(xué)到的不同技能,也就是遷移學(xué)習,你在第一盤(pán)棋中學(xué)到的技能可以用到第 10、第 100 盤(pán)棋,這篇論文的重點(diǎn)就是將這個(gè)概念帶去機器學(xué)習、尤其是在感知(perception)這塊兒?;旧夏阌媚阒皩W(xué)的技能解決新的問(wèn)題?!?br />

  該論文的共同二作,斯坦福大學(xué)計算機科學(xué)系的現本科生/準博士生沈博魁告訴記者,他們的目標是找到不同任務(wù)之間的關(guān)聯(lián),這些任務(wù)比如說(shuō)是深度感知(depth-perception)、surface normal estimation 之類(lèi)的,發(fā)現這些關(guān)聯(lián)之后就能用更少的數據來(lái)解決更多的任務(wù)。比如用邊緣檢測和 surface normal estimation 就能更好地學(xué)深度感知。

  最佳學(xué)生論文

  本屆大會(huì )的最佳學(xué)生論文(Best Student Paper Award)由來(lái)自卡耐基梅隆大學(xué)(CMU)的 Hanbyul Joo、Tomas Simon、Yaser Sheikh 獲得。該研究提出了一種 3D 人體模型,不僅可以追蹤身體的姿勢,還可以追蹤人臉表情和手勢等微小動(dòng)作。

  最佳學(xué)生論文:Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies

  摘要:我們展示了一種用于無(wú)標記捕捉多尺度人類(lèi)動(dòng)作(包括人臉表情、身體動(dòng)作和手勢)的統一變形模型(deformation model)。初始模型通過(guò)將人體各部位的模型進(jìn)行局部組合來(lái)形成,我們稱(chēng)之為「弗蘭肯斯坦」模型。該模型能夠通過(guò)單個(gè)無(wú)縫模型完整表達人體部位的動(dòng)作,包括人臉和手的動(dòng)作。通過(guò)對穿著(zhù)日常服飾的人們進(jìn)行大規模數據收集,我們優(yōu)化弗蘭肯斯坦模型以創(chuàng )建「亞當」(Adam)。亞當是校準模型,它與初始模型具備同樣的基礎層級,但是它可以表現頭發(fā)和衣服的幾何形狀,使之可直接用于查看衣服和人是否相配,就像真的在日常生活中穿了這些衣服一樣。最后,我們展示了這些模型可用于整體動(dòng)作追蹤,同時(shí)捕捉一組人的大規模身體動(dòng)作和細微的面部和手部動(dòng)作。

  榮譽(yù)提名獎(Honorable Mention)

  論文:Deep Learning of Graph Matching

  作者:Andrei Zanfir、Cristian Sminchisescu

  論文:SPLATNet: Sparse Lattice Networks for Point Cloud Processing

  作者:Hang Su、Varun Jampani、Deqing Sun、Subhransu Maji、Evangelos Kalogerakis、Ming-Hsuan Yang、Jan Kautz

  論文:CodeSLAM - Learning a Compact, Optimisable Representation for Dense Visual SLAM

  作者:Michael Bloesch、Jan Czarnowski、Ronald Clark、Stefan Leutenegger、Andrew J. Davison

  論文:Efficient Optimization for Rank-based Loss Functions

  作者:Pritish Mohapatra、Michal Rol′?nek、C.V. Jawahar、Vladimir Kolmogorov、M. Pawan Kumar

  除了以上獲獎?wù)撐?,大?huì )還公布了今年的 PAMI Longuet-Higgins Prize 與 PAMI Young Researcher Award。前者是頒發(fā)給至少 10 年前發(fā)布的論文,而后者是頒發(fā)給 7 年內獲得博士學(xué)位且早期研究極為有潛力的研究人員。今年 Longuet-Higgins Prize 的得主為 CVPR 2008 年的論文《A discriminatively trained, multiscale, deformable part model》;PAMI Young Researcher Award 的得主為 Andreas Geiger 與何愷明。

  Andreas Geiger 是德國蒂賓根大學(xué)計算機科學(xué)系的教授,自動(dòng)駕駛視覺(jué)組成員。今年他們有四篇論文被 CVPR 2018 接收。而另一位獲獎?wù)吆螑鹈鞔蠹叶急容^熟悉,他于 2016 年 8 月加入 FAIR(Facebook AI Research),擔任研究科學(xué)家。此前,他曾以第一作者身份拿過(guò)兩次 CVPR 最佳論文獎(2009 和 2016)。



關(guān)鍵詞: CVPR 的計算機視覺(jué)

評論


技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>