<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 業(yè)界動(dòng)態(tài) > 盤(pán)點(diǎn)2018年計算機視覺(jué)領(lǐng)域技術(shù)突破

盤(pán)點(diǎn)2018年計算機視覺(jué)領(lǐng)域技術(shù)突破

作者: 時(shí)間:2019-01-07 來(lái)源:網(wǎng)絡(luò ) 收藏
編者按:回顧2018年,是屬于人工智能的一年,不論是Google、Facebook、Intel、阿里巴巴等通過(guò)產(chǎn)業(yè)布局進(jìn)入人工智能領(lǐng)域的互聯(lián)網(wǎng)企業(yè),亦或如曠視科技Face++、極鏈科技Video++、優(yōu)必選科技這樣直接以人工智能起家的原生技術(shù)企業(yè),都將AI注入到每個(gè)角落,掀起了一輪又一輪的技術(shù)高潮。

image.png

  因而,Video-to-Video Synthesis也被看作是在過(guò)去幾年中,視頻領(lǐng)域的一次重大突破,畢竟從靜態(tài)框架轉換為動(dòng)態(tài)框架的難度是很大的,但機器訓練卻在盡量模擬預測視頻將會(huì )發(fā)生的情景,通過(guò)給定的輸入視頻學(xué)習映射函數,產(chǎn)生仿真度極高的視頻內容。

本文引用地址:http://dyxdggzs.com/article/201901/396390.htm

  Fast.ai18分鐘訓練ImageNet

  在普遍認知還停留在需要大量計算資源來(lái)執行適當的深度學(xué)習任務(wù)時(shí),Fast.ai通過(guò)使用16個(gè)公共AWS云實(shí)例,每個(gè)配備8個(gè)NVIDIA V100 GPU,運行fast.ai和PyTorch,用18分鐘在ImageNet上將圖像分類(lèi)模型訓練到了93%的準確率,刷新了一個(gè)新的速度記錄。

盤(pán)點(diǎn)2018年計算機視覺(jué)領(lǐng)域技術(shù)突破

  這是一個(gè)令人驚喜的結果,尤其在公共基礎設施上訓練ImageNet能達到這種準確性,并且比其專(zhuān)有TPU Pod群集上的谷歌DAWNBench記錄快40%,運行成本僅約為40美元。這意味著(zhù)一個(gè)關(guān)鍵的里程碑出現了,幾乎所有人都可以在一個(gè)相當大的數據集上訓練大規模神經(jīng)網(wǎng)絡(luò )。

  除了這些重要的節點(diǎn)之外,2018年的技術(shù)也部署更多方面,不論是亞馬遜發(fā)布Rekognition將置于開(kāi)發(fā)人員、微軟為OneDrive和SharePoint推出了新的AI服務(wù)、Google相冊讓我們的記憶變得可搜索、還是每個(gè)場(chǎng)景下都正在逐漸普及的AI人臉識別等等,正在逐步滲透到我們生活的每個(gè)部分。

  最后,最值得注意的是,計算機視覺(jué)的市場(chǎng)增長(cháng)幾乎與其技術(shù)能力的增長(cháng)是一樣快的,預計到 2025年,計算機視覺(jué)領(lǐng)域會(huì )帶來(lái)超過(guò)262億美元的收益,因而在的未來(lái)里,計算機視覺(jué)一定是最有力的表現形式,并將隨處可見(jiàn)。


上一頁(yè) 1 2 下一頁(yè)

關(guān)鍵詞: 計算機視覺(jué) 人工智能

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>