<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 設計應用 > 深度學(xué)習開(kāi)源框架,AI從業(yè)者的選擇之路

深度學(xué)習開(kāi)源框架,AI從業(yè)者的選擇之路

作者: 時(shí)間:2017-10-22 來(lái)源:網(wǎng)絡(luò ) 收藏

  本文內容來(lái)自微軟美國總部機器學(xué)習科學(xué)家彭河森博士的分享,并由彭河森博士親自整理成文。

本文引用地址:http://dyxdggzs.com/article/201710/367700.htm

  正如程序語(yǔ)言一樣,深度學(xué)習同樣各有優(yōu)劣和適用的場(chǎng)景,那么 從業(yè)者該如何有針對性地選擇這些平臺來(lái)玩轉深度學(xué)習?

  本期特邀了先后在谷歌、亞馬遜、微軟供職的機器學(xué)習科學(xué)家彭河森博士為大家講述《MXNet火了,從業(yè)者該如何選擇深度學(xué)習》。彭河森博士親眼見(jiàn)證并深入參與了這三家巨頭布局深度學(xué)習的過(guò)程。

  嘉賓介紹

  彭河森,埃默里大學(xué)統計學(xué)博士?,F擔任微軟美國總部的機器學(xué)習科學(xué)家、微軟必應廣告部應用資深研究員,當前主要研究方向是自然語(yǔ)言處理和機器學(xué)習在廣告和推薦系統中的應用。此外,彭河森博士曾是亞馬遜最年輕的機器學(xué)習研究員,之前還供職于谷歌計量經(jīng)濟學(xué)部和中科院。

  

  深度學(xué)習是一個(gè)非常熱門(mén)的領(lǐng)域,現在市面上也有很多非常優(yōu)秀的平臺,相信大家在入行之初都在想,這么多平臺應該怎么選擇?

  我先提兩點(diǎn),可能是一般測評沒(méi)有考慮到的東西:

  一個(gè)是圖像計算和符號求導,這是深度學(xué)習一個(gè)非常有意思且非常重要的副產(chǎn)物。

  另一個(gè)是深度學(xué)習框架的可觸碰深度,這點(diǎn)直接關(guān)系到深度學(xué)習系統的發(fā)展未來(lái)和用戶(hù)的自由度。

  這兩點(diǎn)對于初學(xué)者和從業(yè)人員都非常重要,我在后面詳細講述。

  首先要恭喜 MXNet 近日獲得了亞馬遜的背書(shū),MXNet 平臺本身非常優(yōu)秀,具有很多優(yōu)良的性質(zhì):例如多節點(diǎn)模型訓練,目前是我知道最全面的多語(yǔ)言支持。此外,也有評測說(shuō) MXNet 性能方面可以高出同行平臺很多,我們將會(huì )在后面的討論中提到?,F在進(jìn)入正題,我們該如何選擇深度學(xué)習開(kāi)源平臺,參考標準應該是什么樣的?

  一、深度學(xué)習開(kāi)源平臺的 5 大參考標準

  今天主要探討的平臺(或者軟件)包括:Caffe, Torch, MXNet, CNTK, Theano, TensorFlow, Keras。

  如何選擇一個(gè)深度學(xué)習平臺?我總結出了下面的這些考量標準。因人而異,因項目而異??赡苣闶亲鰣D像處理,也可能是自然語(yǔ)言處理,或是數量金融,根據你不同的需求,對平臺做出的選擇可能會(huì )不同。

  標準1:與現有編程平臺、技能整合的難易程度

  無(wú)論是學(xué)術(shù)研究還是工程開(kāi)發(fā),在上馬深度學(xué)習課題之前一般都已積累不少開(kāi)發(fā)經(jīng)驗和資源??赡苣阕钕矚g的編程語(yǔ)言已經(jīng)確立,或者你的數據已經(jīng)以一定的形式儲存完畢,或者對模型的要求(如延遲等)也不一樣。標準1 考量的是深度學(xué)習平臺與現有資源整合的難易程度。這里我們將回答下面的問(wèn)題:

  是否需要專(zhuān)門(mén)為此學(xué)習一種新語(yǔ)言?

  是否能與當前已有的編程語(yǔ)言結合?

  標準 2: 和相關(guān)機器學(xué)習、數據處理生態(tài)整合的緊密程度

  我們做深度學(xué)習研究最后總離不開(kāi)各種數據處理、可視化、統計推斷等軟件包。這里我們要回答問(wèn)題:

  建模之前,是否具有方便的數據預處理工具?當然大多平臺都自身帶了圖像、文本等預處理工具。

  建模之后,是否具有方便的工具進(jìn)行結果分析,例如可視化、統計推斷、數據分析?

  標準 3:通過(guò)此平臺做深度學(xué)習之外,還能做什么?

  上面我們提到的不少平臺是專(zhuān)門(mén)為深度學(xué)習研究和應用進(jìn)行開(kāi)發(fā)的,不少平臺對分布式計算、GPU 等構架都有強大的優(yōu)化,能否用這些平臺/軟件做其他事情?

  比如有些深度學(xué)習軟件是可以用來(lái)求解二次型優(yōu)化;有些深度學(xué)習平臺很容易被擴展,被運用在強化學(xué)習的應用中。哪些平臺具備這樣的特點(diǎn)?

  這個(gè)問(wèn)題可以涉及到現今深度學(xué)習平臺的一個(gè)方面,就是圖像計算和自動(dòng)化求導。

  標準 4:對數據量、硬件的要求和支持

  當然,深度學(xué)習在不同應用場(chǎng)景的數據量是不一樣的,這也就導致我們可能需要考慮分布式計算、多 GPU 計算的問(wèn)題。例如,對計算機圖像處理研究的人員往往需要將圖像文件和計算任務(wù)分部到多臺計算機節點(diǎn)上進(jìn)行執行。

  當下每個(gè)深度學(xué)習平臺都在快速發(fā)展,每個(gè)平臺對分布式計算等場(chǎng)景的支持也在不斷演進(jìn)。今天提到的部分內容可能在幾個(gè)月后就不再適用。

  標準 5:深度學(xué)習平臺的成熟程度

  成熟程度的考量是一個(gè)比較主觀(guān)的考量因素,我個(gè)人考量的因素包括:社區的活躍程度;是否容易和開(kāi)發(fā)人員進(jìn)行交流;當前應用的勢頭。

  講了 5 個(gè)參考標準后,接下來(lái)我們用上面的這些標準對各個(gè)深度學(xué)習平臺進(jìn)行評價(jià):

  二、深度學(xué)習平臺評價(jià)

  評判1:與現有編程平臺、技能整合的難易程度

  標準1 考量的是深度學(xué)習平臺與現有資源整合的難易程度。這里我們將回答下面的問(wèn)題:是否需要專(zhuān)門(mén)為此學(xué)習一種新語(yǔ)言?是否能與當前已有的編程語(yǔ)言結合?

  這一個(gè)問(wèn)題的干貨在下面這個(gè)表格。這里我們按照每個(gè)深度學(xué)習平臺的底層語(yǔ)言和用戶(hù)語(yǔ)言進(jìn)行總結,可以得到下表。

  

  其中 Keras 通過(guò) Theano, TensorFlow 作為底層進(jìn)行建模。

  我們可以看到這樣的趨勢:

  深度學(xué)習底層語(yǔ)言多是 C++ / C 這樣可以達到高運行效率的語(yǔ)言。

  操作語(yǔ)言往往會(huì )切近實(shí)際,我們大致可以斷定 Python 是未來(lái)深度學(xué)習的操作平臺語(yǔ)言,微軟在 CNTK 2.0 加入了對 Python 的支持。

  當然,還有不少平臺可以通過(guò)腳本的方式配置網(wǎng)絡(luò )并且訓練模型。

  從格局上來(lái)說(shuō),Python 作為深度學(xué)習建模的基本語(yǔ)言是可以確定的。如果你最喜歡編程語(yǔ)言是 Python,恭喜您,大多數平臺都可以和你的技術(shù)無(wú)縫銜接。如果是 Java 也不用擔心,不少平臺也具有 Java 支持,Deeplearning4J 還是一個(gè)原生的 Java 深度學(xué)習平臺。

  標準 2: 和相關(guān)機器學(xué)習、數據處理生態(tài)整合的緊密程度

  這里我們要提一下現在主要的數據處理工具,比較全面的數據分析工具包括 R 及其相關(guān)生態(tài),Python 及其相關(guān)生態(tài),小眾一點(diǎn)的還包括 Julia 及其相關(guān)生態(tài)。

  完成深度學(xué)習建模等任務(wù)之后,和生態(tài)的整合也尤為重要。

  我們可以發(fā)現,上面和 Python, R, 整合較為緊密,這里 Keras 生態(tài)(TensorFlow, Theano), CNTK, MXNet, Caffe 等占有大量?jì)?yōu)勢。

  同時(shí) Caffe 具有大量圖像處理包,對數據觀(guān)察也具有非常大的優(yōu)勢。

  標準 3:通過(guò)此平臺做深度學(xué)習之外,還能做什么?

  下圖是本次公開(kāi)課的核心:

  

  其實(shí)深度學(xué)習平臺在創(chuàng )造和設計時(shí)的側重點(diǎn)有所不同,我們按照功能可以將深度學(xué)習平臺分為上面六個(gè)方面:

  CPU+GPU控制,通信:這一個(gè)最低的層次是深度學(xué)習計算的基本層面。

  內存、變量管理層:這一層包含對于具體單個(gè)中間變量的定義,如定義向量、矩陣,進(jìn)行內存空間分配。

  基本運算層:這一層主要包含加減乘除、正弦、余弦函數,最大最小值等基本算數運算操作。

  基本簡(jiǎn)單函數:

  ○ 包含各種激發(fā)函數(acTIvaTIon funcTIon),例如 sigmoid, ReLU 等。

  ○ 同時(shí)也包含求導模塊

  神經(jīng)網(wǎng)絡(luò )基本模塊,包括 Dense Layer, ConvoluTIon Layer (卷積層), LSTM 等常用模塊。

  最后一層是對所有神經(jīng)網(wǎng)絡(luò )模塊的整合以及優(yōu)化求解。

  眾多機器學(xué)習平臺在功能側重上是不一樣的,我將他們分成了四大類(lèi):

  1. 第一類(lèi)是以 Caffe, Torch, MXNet, CNTK 為主的深度學(xué)習功能性平臺。這類(lèi)平臺提供了非常完備的基本模塊,可以讓開(kāi)發(fā)人員快速創(chuàng )建深度神經(jīng)網(wǎng)絡(luò )模型并且開(kāi)始訓練,可以解決現今深度學(xué)習中的大多數問(wèn)題。但是這些模塊很少將底層運算功能直接暴露給用戶(hù)。

  2. 第二類(lèi)是以 Keras 為主的深度學(xué)習抽象化平臺。Keras 本身并不具有底層運算協(xié)調的能力,Keras 依托于 TensorFlow 或者 Theano 進(jìn)行底層運算,而 Keras 自身提供神經(jīng)網(wǎng)絡(luò )模塊抽象化和訓練中的流程優(yōu)化??梢宰層脩?hù)享受快速建模的同時(shí),具有很方便的二次開(kāi)發(fā)能力,加入自身喜歡的模塊。

  3. 第三類(lèi)是 TensorFlow。TensorFlow 吸取了已有平臺的長(cháng)處,既能讓用戶(hù)觸碰底層數據,又具有現成的神經(jīng)網(wǎng)絡(luò )模塊,可以讓用戶(hù)非??焖俚膶?shí)現建模。TensorFlow 是非常優(yōu)秀的跨界平臺。

  4. 第四類(lèi)是 Theano, Theano 是深度學(xué)習界最早的平臺軟件,專(zhuān)注底層基本的運算。

  所以對平臺選擇可以對照上圖按照自己的需求選用:

  如果任務(wù)目標非常確定,只需要短平快出結果,那么第 1 類(lèi)平臺會(huì )適合你。

  如果您需要進(jìn)行一些底層開(kāi)發(fā),又不想失去現有模塊的方便,那么第 2、3 類(lèi)平臺會(huì )適合你。

  如果你有統計、計算數學(xué)等背景,想利用已有工具進(jìn)行一些計算性開(kāi)發(fā),那么第 3, 4 類(lèi)會(huì )適合你。

  這里我介紹下深度學(xué)習的一些副產(chǎn)品,其中一個(gè)比較重要的功能就是符號求導。

  圖計算和符號求導:深度學(xué)習對開(kāi)源社區的巨大貢獻

  大家可能會(huì )有疑問(wèn):我能訓練出來(lái)深度學(xué)習模型就蠻好的了,為什么需要接觸底層呢?

  這里我先介紹下深度學(xué)習的一些副產(chǎn)品,其中一個(gè)比較重要的功能就是符號求導。符號求導英文是 Symbolic Differentiation,現在有很多有關(guān)的文獻和教程可以使用。

  符號求導是什么意思?

  以前我們做機器學(xué)習等研究,如果要求導往往需要手動(dòng)把目標函數的導數求出來(lái)。最近一些深度學(xué)習工具,如 Theano, 推出了自動(dòng)化符號求導功能,這大大減少了開(kāi)發(fā)人員的工作量。

  當然,商業(yè)軟件如 MatLab, Mathematica 在多年前就已具有符號計算的功能,但鑒于其商業(yè)軟件的限制,符號計算并沒(méi)有在機器學(xué)習應用中被大量采用。

  深度學(xué)習由于其網(wǎng)絡(luò )的復雜性,必須采用符號求導的方法才能解決目標函數過(guò)于復雜的問(wèn)題。另外一些非深度學(xué)習問(wèn)題,例如:二次型優(yōu)化等問(wèn)題,也都可以用這些深度學(xué)習工具來(lái)求解了。

  更為優(yōu)秀的是,Theano 符號求導結果可以直接通過(guò) C程序編譯,成為底層語(yǔ)言,高效運行。

  這里我們給一個(gè) Theano 的例子:

  》》》 import numpy

  》》》 import theano

  》》》 import theano.tensor as T

  》》》 from theano import pp

  》》》 x = T.dscalar(‘x’)

  》》》 y = x ** 2

  》》》 gy = T.grad(y, x)

  》》》 f = theano.function([x], gy)

  》》》 f(4)

  8

  上面我們通過(guò)符號求導的方法,很容易的求出 y 關(guān)于 x 的導數在 4 這個(gè)點(diǎn)的數值。

  標準 4:對數據量、硬件的要求和支持

  對于多 GPU 支持和多服務(wù)器支持,我們上面提到的所有平臺都聲稱(chēng)自己能夠完成任務(wù)。同時(shí)也有大量文獻說(shuō)某個(gè)平臺的效果更為優(yōu)秀。我們這里把具體平臺的選擇留給在座各位,提供下面這些信息:

  首先想想你想要干什么?,F在深度學(xué)習應用中,需要運用到多服務(wù)器訓練模型的場(chǎng)景往往只有圖像處理一個(gè),如果是自然語(yǔ)言處理,其工作往往可以在一臺配置優(yōu)秀的服務(wù)器上面完成。如果數據量大,往往可以通過(guò) hadoop 等工具進(jìn)行數據預處理,將其縮小到單機可以處理的范圍內。

  本人是比較傳統的人,從小就開(kāi)始自己折騰各種科學(xué)計算軟件的編譯?,F在主流的文獻看到的結果是,單機使用 GPU 能比 CPU 效率提高數十倍左右。

  但是其實(shí)有些問(wèn)題,在 Linux 環(huán)境下,編譯 Numpy 的時(shí)候將線(xiàn)性函數包換為 Intel MLK 往往也可以得到類(lèi)似的提高。

  當然現在很多評測,往往在不同硬件環(huán)境、網(wǎng)絡(luò )配置情況下,都會(huì )得到不一樣的結果。

  就算在亞馬遜云平臺上面進(jìn)行測試,也可能因為網(wǎng)絡(luò )環(huán)境、配置等原因,造成完全不同的結果。所以對于各種測評,基于我的經(jīng)驗,給的建議是:take it with a grain of salt,自己要留個(gè)心眼。前面我們提到的主要工具平臺,現在都對多 GPU、多節點(diǎn)模型訓練有不同程度的支持,而且現在也都在快速的發(fā)展中,我們建議聽(tīng)眾自己按照需求進(jìn)行鑒別。

  標準 5:深度學(xué)習平臺的成熟程度

  對于成熟程度的評判往往會(huì )比較主觀(guān),結論大多具有爭議。我在這里也只列出數據,具體如何選擇,大家自己判斷。

  這里我們通過(guò) Github 上面幾個(gè)比較受歡迎的數量來(lái)判斷平臺的活躍程度。這些數據獲取于今天下午(2016-11-25)。我們用黑體標出了每個(gè)因子排名前三的平臺:

  第一個(gè)因子是貢獻者數量,貢獻者這里定義非常寬泛,在 Github issues 里面提過(guò)問(wèn)題的都被算作是 Contributor,但是還是能作為一個(gè)平臺受歡迎程度的度量。我們可以看到 Keras, Theano, TensorFlow 三個(gè)以 Python 為原生平臺的深度學(xué)習平臺是貢獻者最多的平臺。

  第二個(gè)因子是 Pull Request 的數量,Pull Request 衡量的是一個(gè)平臺的開(kāi)發(fā)活躍程度。我們可以看到 Caffe 的 Pull Request 最高,這可能得益于它在圖像領(lǐng)域得天獨厚的優(yōu)勢,另外 Keras 和 Theano 也再次登榜。

  

  另外,這些平臺在應用場(chǎng)景上有側重:

  自然語(yǔ)言處理,當然要首推 CNTK,微軟MSR(A) 多年對自然語(yǔ)言處理的貢獻非常巨大,CNTK 的不少開(kāi)發(fā)者也是分布式計算牛人,其中所運用的方法非常獨到。

  當然,對于非常廣義的應用、學(xué)習,Keras/TensorFlow/Theano 生態(tài)可能是您最好的選擇。

  對于計算機圖像處理,Caffe 可能是你的不二選擇。

  關(guān)于深度學(xué)習平臺的未來(lái):

  微軟在對 CNTK 很有決心,Python API 加的好,大家可以多多關(guān)注。

  有觀(guān)點(diǎn)認為深度學(xué)習模型是戰略資產(chǎn),應該用國產(chǎn)軟件,防止壟斷。我認為這樣的問(wèn)題不用擔心,首先 TensorFlow 等軟件是開(kāi)源的,可以通過(guò)代碼審查的方法進(jìn)行質(zhì)量把關(guān)。另外訓練的模型可以保存成為 HDF5 格式,跨平臺分享,所以成為谷歌壟斷的概率非常小。

  很有可能在未來(lái)的某一天,大家訓練出來(lái)一些非常厲害的卷積層(convolution layer),基本上能非常優(yōu)秀地解決所有計算機圖像相關(guān)問(wèn)題,這個(gè)時(shí)候我們只需要調用這些卷積層即可,不需要大規模卷積層訓練。另外這些卷積層可能會(huì )硬件化,成為我們手機芯片的一個(gè)小模塊,這樣我們的照片拍好的時(shí)候,就已經(jīng)完成了卷積操作。



關(guān)鍵詞: AI 開(kāi)源框架

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>