<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > AI學(xué)者沈春華全職回國加入浙大,將助力浙大國重實(shí)驗室計算機視覺(jué)研究

AI學(xué)者沈春華全職回國加入浙大,將助力浙大國重實(shí)驗室計算機視覺(jué)研究

發(fā)布人:深科技 時(shí)間:2021-12-19 來(lái)源:工程師 發(fā)布文章

曾獲澳大利亞科研終生成就獎,本月剛剛加盟浙江大學(xué),他就是沈春華。談到計算機視覺(jué)的相關(guān)前沿研究,沈春華教授是業(yè)界熟知的領(lǐng)軍人物。


沈春華教授本科和碩士均畢業(yè)于南京大學(xué),于2005年在阿德萊德大學(xué)獲得計算機視覺(jué)博士學(xué)位沈春華教授,曾在NICTA(澳大利亞國家信息通信技術(shù)局)堪培拉研究實(shí)驗室的計算機視覺(jué)項目工作了約6年。2012至2016年,他獲得了澳大利亞研究理事會(huì )的未來(lái)學(xué)者人才項目資助ARC Future Fellowship。他于2014-2021年之間擔任阿德萊德大學(xué)計算機科學(xué)系終身教授,其研究興趣是在計算機視覺(jué)和統計機器學(xué)習的交叉領(lǐng)域。


根據谷歌學(xué)術(shù)的官方統計,沈春華教授已經(jīng)在計算機視覺(jué)和機器學(xué)習領(lǐng)域發(fā)表相關(guān)論文超過(guò)150篇,被引次數多達33000余次,此外,h指數92。


在所有發(fā)表論文中,其中包括IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI)論文32篇,International Journal of Computer Vision (IJCV)論文16篇,Journal of Machine Learning Research (JMLR)論文1篇,以及ACM Transactions on Graphics (TOG)論文 1篇。


2020年,澳大利亞終身成就者排行榜列出了澳大利亞大學(xué)和研究機構在八個(gè)主要學(xué)科領(lǐng)域中的五位頂尖研究人員,其依據是研究人員的科研生產(chǎn)力以及影響力。。


2021年,沈春華教授獲得AI 2000計算機視覺(jué)全球最具影響力學(xué)者提名。該領(lǐng)域的學(xué)者排名參考過(guò)去十年19366位學(xué)者在國際會(huì )議 IEEE Conference on Computer Vision and Pattern Recognition(CVPR)、International Conference on Computer Vision(ICCV)、European Conference on Computer Vision(ECCV) 以及 IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI) 發(fā)表的22853篇論文的累計引用情況。排名前10的學(xué)者當選該領(lǐng)域當年最具影響力學(xué)者,排名前100內的其他學(xué)者獲最具影響力學(xué)者提名。


據阿德萊德大學(xué)官網(wǎng)顯示,沈春華教授已于今年10月結束任職


更加值得關(guān)注的是,沈春華教授在其GitHub主頁(yè)上,更新了工作單位,表示其已經(jīng)于今年12月加入浙江大學(xué)計算機輔助設計與圖形學(xué)國家重點(diǎn)實(shí)驗室。


FCOS:開(kāi)發(fā)者們公認的代表作


在阿德萊德大學(xué)期間,沈春華教授團隊開(kāi)發(fā)的用于多個(gè)實(shí)例級檢測和識別任務(wù)的開(kāi)放源碼工具箱,AdelaiDet,已被研究者們廣泛使用,主要包括FCOS、BlendMask、ABCNet、CondInst、SOLO等。


這些算法中,部分曾經(jīng)用于一些旗艦手機上,以可幫助優(yōu)化拍照功能,使得照片更加鮮艷,還可幫助相機更好地實(shí)現特效功能和背景虛幻等功能。


沈春華教授近期影響力最大的論文是《FCOS: Fully Convolutional One-Stage Object Detection》,該論文從2019年發(fā)表至今,目前的被引次數已經(jīng)達到近1400次。


在該論文中,團隊提出了一個(gè)完全卷積的單階段物體檢測器(FCOS),以每像素預測的方式解決物體檢測,類(lèi)似于語(yǔ)義分割。幾乎所有最先進(jìn)的物體檢測器,如RetinaNet、SSD、YOLOv3和Faster R-CNN,都依賴(lài)于預先定義的錨定框。


相比之下,這篇論文提出的檢測器FCOS是無(wú)錨定框的,也無(wú)需事先生成目標的候選框。通過(guò)消除預定義的錨箱集,FCOS完全避免了與錨框有關(guān)的復雜計算,如在訓練期間計算重疊。更重要的是,FCOS還避免了與錨框有關(guān)的所有超參數,這些參數往往對最終的檢測性能非常敏感。通過(guò)唯一的后處理非最大抑制(NMS),采用ResNeXt-64x4d-101的FCOS在單模型和單規模測試的AP中達到了44.7%,超過(guò)了以前的單階段檢測器,其優(yōu)點(diǎn)是更簡(jiǎn)單。


FCOS與流行的基于錨的階段性檢測器相比更勝一籌,FCOS完全避免了所有與錨點(diǎn)相關(guān)的計算,并以每像素預測的方式解決物體檢測問(wèn)題與其他密集預測任務(wù)類(lèi)似,如語(yǔ)義分割,FCOS也達到了單階段檢測器中最先進(jìn)的性能。本研究還表明 FCOS可以被用作兩階段檢測器中的RPNs Faster R-CNN,并且在很大程度上超過(guò)了其RPN。鑒于其有效性和效率, FCOS有望作為目前主流的基于錨的檢測器的一個(gè)強大而簡(jiǎn)單的替代品。


如上圖所示,FCOS能很好地處理各種物體,包括擁擠的、遮擋的、高度重疊的、極小的和極大的物體??傊?,沈春華教授團隊首次展示了一個(gè)更簡(jiǎn)單和靈活的檢測框架,實(shí)現了更高的檢測精度,且該框架可以作為許多其他實(shí)例級任務(wù)的一個(gè)簡(jiǎn)單而強大的替代方案。


助力國重實(shí)驗室計算機視覺(jué)研究,將培養更多相關(guān)研究者


據浙大計算機學(xué)院官網(wǎng)介紹,學(xué)院學(xué)科建設覆蓋計算機科學(xué)與技術(shù)、軟件工程、網(wǎng)絡(luò )空間安全、設計學(xué)4個(gè)國家一級學(xué)科以及與一級學(xué)科體量相當的人工智能交叉學(xué)科。其中,“計算機科學(xué)與技術(shù)”、“軟件工程”雙雙獲評國家“A+”學(xué)科并進(jìn)入“雙一流”學(xué)科建設。據《基本科學(xué)指標》數據庫(ESI)2019年11月數據統計,計算機學(xué)科ESI學(xué)科排名世界前1‰,列全球第22位。USNEWS計算機學(xué)科排名全球第九??梢?jiàn),浙大計算機的學(xué)術(shù)實(shí)力非常優(yōu)厚。


浙江大學(xué)計算機輔助設計與圖形學(xué)國家重點(diǎn)實(shí)驗室,簡(jiǎn)稱(chēng)CAD&CG(紫金港),是絕對大牛級別的實(shí)驗室,實(shí)驗室的學(xué)術(shù)委員包含十名院士,還有一名外籍院士。中國工程院院士潘云鶴教授是實(shí)驗室學(xué)術(shù)委員會(huì )的現任主任。


據官網(wǎng)介紹,實(shí)驗室的研究工作主要集中在CAD&CG的基礎理論和算法,以及它們在工業(yè)中的應用。實(shí)驗室的目標是站在國際學(xué)術(shù)領(lǐng)域的前沿,爭取獲得原創(chuàng )性的成果。實(shí)驗室將建設成為具有國際影響力的CAD&CG領(lǐng)域的領(lǐng)先研究機構,成為培養青年人才、促進(jìn)學(xué)術(shù)交流和傳播高新技術(shù)的基地。


該實(shí)驗室主要從事計算機圖形、計算機視覺(jué)與圖像處理、人機交互、可視化、虛擬現實(shí)等領(lǐng)域的基礎理論、算法、關(guān)鍵技術(shù)與應用系統等方面的研究。在光照明模型、曲面環(huán)境的輻射度算法、實(shí)時(shí)圖形繪制技術(shù)、三維形狀過(guò)渡和數字幾何信號處理技術(shù)等方面取得了一系列創(chuàng )新性成果。


過(guò)去的幾年里,在計算機科學(xué)系、數學(xué)系和機械工程系的支持下,實(shí)驗室承擔了一系列國家級科研項目和國際合作項目,并取得了眾多成果,有些成果還獲得了國家級獎項。實(shí)驗室的研究團隊富有創(chuàng )造性和勤奮性。實(shí)驗室與美國、德國、英國和日本等國家的CAD&CG相關(guān)機構有密切聯(lián)系。實(shí)驗室被國際期刊《科學(xué)》評為中國頂級的國家重點(diǎn)實(shí)驗室之一。


據實(shí)驗室官網(wǎng)消息,實(shí)驗室周昆教授主持的“真實(shí)感圖形的實(shí)時(shí)計算理論與方法”曾獲得2020年國家自然科學(xué)二等獎。



重點(diǎn)實(shí)驗室有專(zhuān)門(mén)的圖形與視覺(jué)計算研究方向,其研究?jì)热葜饕菐缀?、材質(zhì)、運動(dòng)數據的獲取、處理和表示的基礎理論與算法,解決復雜對象的高效構建和逼真呈現等關(guān)鍵問(wèn)題,研發(fā)高清影視、立體電視、三維游戲創(chuàng )作的軟件系統,實(shí)現產(chǎn)業(yè)應用。重點(diǎn)研究包括幾何計算與設計、真實(shí)感圖形的高效繪制、圖象與三維視覺(jué)計算、計算機動(dòng)畫(huà)與游戲。


沈春華教授將在計算機視覺(jué)領(lǐng)域繼續前沿研究,更加值得關(guān)注的是,他也培養了非常多的計算機視覺(jué)領(lǐng)域的優(yōu)秀博士生,他們都在互聯(lián)網(wǎng)頭部企業(yè)或科研院所任職。因此,沈春華教授加盟浙大將為計算機視覺(jué)領(lǐng)域人才的培養貢獻其獨特的力量。此外,我們也看到,其Github主頁(yè)也已經(jīng)開(kāi)始招兵買(mǎi)馬。


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。

交換機相關(guān)文章:交換機工作原理




關(guān)鍵詞: AL

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>