深度學(xué)習入門(mén)課:你需要了解的十大框架和選型攻略
深度學(xué)習框架是幫助使用者進(jìn)行深度學(xué)習的工具,它的出現降低了深度學(xué)習入門(mén)的門(mén)檻,你不需要從復雜的神經(jīng)網(wǎng)絡(luò )開(kāi)始編代碼,就可以根據需要使用現有的模型。
本文引用地址:http://dyxdggzs.com/article/201710/370283.htm做個(gè)比喻,一套深度學(xué)習框架就像是一套積木,各個(gè)組件就是某個(gè)模型或算法的一部分,使用者可以自己設計和組裝符合相關(guān)數據集需求的積木。
當然也正因如此,沒(méi)有什么框架是完美的,就像一套積木里可能沒(méi)有你需要的那一種積木,所以不同的框架適用的領(lǐng)域不完全一致。
深度學(xué)習的框架有很多,不同框架之間的“好與壞”卻沒(méi)有一個(gè)統一的標準,因此,當大家要開(kāi)始一個(gè)深度學(xué)習項目時(shí),在研究到底有哪些框架具有可用性,哪個(gè)框架更適合自己時(shí),卻找不到一個(gè)簡(jiǎn)明扼要的“說(shuō)明書(shū)”告訴大家從何著(zhù)手。
首先,我們先熟悉一下深度學(xué)習的框架。
Caffe是最成熟的框架之一,由Berkeley Vision and Learning Center開(kāi)發(fā)。它是模塊化的,而且速度非???,并且只需要很少的額外工作就可以支持多個(gè)GPU。它使用類(lèi)似JSON的文本文件來(lái)描述網(wǎng)絡(luò )架構以及求解器方法。
此外,在一個(gè)可以下載Caffe模型以及網(wǎng)絡(luò )權重的網(wǎng)站——“model zoo”中,還可以幫助你快速地準備樣本。但是,需要注意的是,在Caffe框架中,要調整超參數比其他框架更為繁瑣,部分原因是需要為每組超參數單獨定義不同的求解器和模型文件。

▲ 使用Caffe編寫(xiě)的LeNet CNN實(shí)現代碼示例
上圖是LeNet CNN架構的代碼片段,該模型由卷積最大池化(convolution max pooling)和激活層組成的7層卷積網(wǎng)絡(luò )構成。
Deeplearning4j
Deeplearning4j是由Andrej Karpathy開(kāi)發(fā)的、支持GPU的多平臺框架,它是用Java編寫(xiě)的,并擁有一個(gè)Scala API。Deeplearning4j也是一個(gè)成熟的框架(用Lua編寫(xiě)),在互聯(lián)網(wǎng)上有許多可以使用的樣本,并且支持多個(gè)GPU。
Tensorflow
Tensorflow是一個(gè)由谷歌開(kāi)發(fā)的、相對比較新的框架,但已經(jīng)被廣泛采用。它性能良好,支持多個(gè)GPU和CPU。Tensorflow提供了調整網(wǎng)絡(luò )和監控性能的工具,就像Tensorboard一樣,它還有一個(gè)可用作網(wǎng)絡(luò )應用程序的教育工具。
Theano
Theano是使用符號邏輯創(chuàng )建網(wǎng)絡(luò )的框架,是以Python編寫(xiě)的,但利用了numpy的高效代碼庫,從而提高了性能,超過(guò)了標準的Python。Theano在構建網(wǎng)絡(luò )方面有很大的優(yōu)勢,但是在創(chuàng )造完整的解決方案中則具有比較大的挑戰。Theano將機器學(xué)習中使用的梯度計算作為網(wǎng)絡(luò )創(chuàng )建的“免費”副產(chǎn)品,對于那些希望更多地關(guān)注網(wǎng)絡(luò )架構而不是梯度計算的人來(lái)說(shuō),這可能是有用的。此外,它的文本文件質(zhì)量也相當不錯。
但需要提醒大家的一點(diǎn)是,Theano目前已停止更新。
Lasagne
Lasagne是用Python編寫(xiě)的,建立在Theano之上的框架。它是一個(gè)相對簡(jiǎn)單的系統,能夠使得網(wǎng)絡(luò )構建比直接使用Theano更容易。因此,其表現極大地反映了Theano的潛能。
Keras
Keras是用Python編寫(xiě)的框架,可以作為T(mén)heano或Tensorflow的后端(如下圖)。這使得Keras在構建完整的解決方案中更容易,而且因為每一行代碼都創(chuàng )建了一個(gè)網(wǎng)絡(luò )層,所以它也更易于閱讀。此外,Keras還擁有最先進(jìn)算法(優(yōu)化器(optimizers)、歸一化例程(normalization routines)、激活函數(activation functions))的最佳選擇。
需要說(shuō)明的是,雖然Keras支持Theano和Tensorflow后端,但輸入數據的維度假設是不同的,因此需要仔細的設計才能使代碼支持兩個(gè)后端工作。該項目有完備的文本文件,并提供了一系列針對各種問(wèn)題的實(shí)例以及訓練好了的、用于傳輸學(xué)習實(shí)現常用體系的結構模型。
在編寫(xiě)的時(shí)候,有消息宣稱(chēng)Tensorflow將采用Keras作為首選的高級包。其實(shí),這并不奇怪,因為Keras的開(kāi)發(fā)者Francois Chollet本身就是谷歌的軟件工程師。

▲ 使用Keras編寫(xiě)的LeNet CNN實(shí)現代碼示例
MXNet
MXNet是一個(gè)用C ++編寫(xiě)的深度學(xué)習框架,具有多種語(yǔ)言綁定,并支持分布式計算,包括多GPU。它提供對低級結構以及更高級/符號級API的訪(fǎng)問(wèn)。在性能上被認為可以與Tensorflow、Caffe等在內的其他框架匹敵。GitHub中提供了很多關(guān)于MXNet的教程和培訓示例。
Cognitive Network Toolkit (CNTK)
CNTK是由微軟開(kāi)發(fā)的框架,并被描述為機器學(xué)習的“Visual Studio”。對于那些使用Visual Studio進(jìn)行編程的人,這可能是一種更溫和、更有效的進(jìn)入深度學(xué)習的方式。
DIGITS
DIGITS是由英偉達開(kāi)發(fā)的,一款基于網(wǎng)絡(luò )的深層開(kāi)發(fā)工具。在很多方面,它像Caffe一樣,能夠使用文本文件而不是編程語(yǔ)言來(lái)描述網(wǎng)絡(luò )和參數。它具有網(wǎng)絡(luò )可視化工具,因此文本文件中的錯誤更容易被識別出來(lái)。此外,它還具有用于可視化學(xué)習過(guò)程的工具,并支持多個(gè)GPU。
Torch
Torch是一款成熟的機器學(xué)習框架,是用C語(yǔ)言編寫(xiě)的。它具有完備的文本,并且可以根據具體需要進(jìn)行調整。由于是用C語(yǔ)言編寫(xiě)的,所以Torch的性能非常好。
PyTorch
PyTorch是Torch計算引擎的python前端,不僅能夠提供Torch的高性能,還能夠對GPU的提供更好支持。該框架的開(kāi)發(fā)者表示,PyTorch與Torch的區別在于它不僅僅是封裝,而是進(jìn)行了深度集成的框架,這使得PyTorc在網(wǎng)絡(luò )構建方面具有更高的靈活性。(如下圖)

▲ PyTorch代碼示例和等效方框圖
Chainer
Chainer與其他框架有點(diǎn)不同,它將網(wǎng)絡(luò )構建視為其計算的一部分。它的開(kāi)發(fā)者介紹說(shuō),在這一框架中,大多數工具都是“定義然后運行”,這意味著(zhù)你要定義架構,然后才能運行它。Chainer嘗試構建并優(yōu)化其架構,使其成為學(xué)習過(guò)程的一部分,或者稱(chēng)之為“通過(guò)運行定義”。
其他
除了上述的深度學(xué)習框架之外,還有更多的專(zhuān)注于具體任務(wù)的開(kāi)源解決方案。例如,Nolearn專(zhuān)注于深度信念網(wǎng)絡(luò )(deep belief networks); Sklearn-theano提供了一個(gè)與scikit-learn(即Python中一個(gè)重要的機器學(xué)習的庫)匹配的編程語(yǔ)法,可以和Theano庫配合使用;Paddle則可以提供更好的自然語(yǔ)言處理能力……
面對如此之多的深度學(xué)習框架,使用者該如何做出合適的選擇?對此,LexiconAI的CEO兼創(chuàng )始人Matthew Rubashkin及其團隊通過(guò)對不同的框架在計算機語(yǔ)言、教程(Tutorials)和訓練樣本、CNN建模能力、RNN建模能力、架構的易用性、速度、多GPU支持、Keras兼容性等方面的表現對比,總結出了以下圖表:

| Matthew Rubashkin畢業(yè)于加州大學(xué)伯克利分校,是UCSF的Insight數據工程研究員和博士生。曾在硅谷數據科學(xué)(SVDS)就職,并領(lǐng)導SVDS的深度學(xué)習研發(fā)團隊進(jìn)行項目研究,包括在IoT設備上的TensorFlow圖像識別等等。
值得注意的是,這一結果結合了Matthew Rubashkin團隊在圖像和語(yǔ)音識別應用方面對這些技術(shù)的主觀(guān)經(jīng)驗和公開(kāi)的基準測試研究,并且只是階段性檢測,未囊括所有可用的深度學(xué)習框架。我們看到,包括DeepLearning4j、Paddle、Chainer等在內的框架都還未在其列。
以下是對應的評估依據:
計算機語(yǔ)言
編寫(xiě)框架所使用的計算機語(yǔ)言會(huì )影響到它的有效性。盡管許多框架具有綁定機制,允許使用者使用與編寫(xiě)框架不同的語(yǔ)言訪(fǎng)問(wèn)框架,但是編寫(xiě)框架所使用的語(yǔ)言也不可避免地在某種程度上影響后期開(kāi)發(fā)的語(yǔ)言的靈活性。
因此,在應用深度學(xué)習模型時(shí),最好能夠使用你所熟悉的計算機語(yǔ)言的框架。例如,Caffe(C++)和Torch(Lua)為其代碼庫提供了Python綁定,但如果你想更好地使用這些技術(shù),就必須能夠熟練使用C++或者Lua。相比之下,TensorFlow和MXNet則可以支持多語(yǔ)言,即使使用者不能熟練使用C++,也可以很好地利用該技術(shù)。


教程(Tutorials)和訓練樣本
框架的文本質(zhì)量、覆蓋范圍以及示例對于有效使用框架至關(guān)重要。高質(zhì)量的文本文件以及待處理的問(wèn)題的示例將有助于有效解決開(kāi)發(fā)者的問(wèn)題。完備的文件也表明該工具已經(jīng)成熟并且在短期內不會(huì )改變。
而不同的深度學(xué)習框架之間在教程和訓練樣本的質(zhì)量和數量的需求方面存在很大的區別。舉例來(lái)說(shuō),Theano、TensorFlow、Torch和MXNet由于具有很好的文本化教程(documented tutorials),所以非常易于理解和實(shí)現。另外,我們還發(fā)現,不同的框架在GitHub社區的參與度和活躍度高低不僅可以作為其未來(lái)發(fā)展的重要指標,同時(shí)也可以用來(lái)衡量通過(guò)搜索StackOverflow或Git報告事件來(lái)檢測和修復bug的速度。值得注意的是,在教程數量、訓練樣本以及開(kāi)發(fā)人員和用戶(hù)社區方面,TensorFlow的需求量非常非常大(像是一個(gè)800磅重的大猩猩一樣的龐然大物)。

CNN建模能力
卷積神經(jīng)網(wǎng)絡(luò )(CNN)是由一組不同的層組成,將初始數據量轉換成預定義類(lèi)分數的輸出分數。是一種前饋神經(jīng)網(wǎng)絡(luò ),它的人工神經(jīng)元可以響應一部分覆蓋范圍內的周?chē)鷨卧?,對于大型圖像處理有出色表現,可用于圖像識別、推薦引擎和自然語(yǔ)言處理。此外,CNN還可以用于回歸分析,如自動(dòng)駕駛車(chē)輛轉向角輸出模型等等。CNN建模能力包括幾個(gè)功能:定義模型的概率空間、預構建層的可用性以及可用于連接這些層的工具和功能。我們看到,Theano、Caffe和MXNet都具有很好的CNN建模功能,這意味著(zhù),TensorFlow能夠很容易地在其InceptionV3模型上進(jìn)行能力構建,Torch中包括易于使用的時(shí)間卷積集在內的優(yōu)秀的CNN資源,都使得這兩種技術(shù)在CNN建模功能上能夠很好地區分開(kāi)來(lái)。
RNN建模能力
有別于CNN,遞歸神經(jīng)網(wǎng)絡(luò )(RNN)可以用于語(yǔ)音識別、時(shí)間序列預測、圖像字幕和其他需要處理順序信息的任務(wù)。由于預先構建的RNN模型不像CNN那樣多,因此,如果你有一個(gè)RNN深度學(xué)習項目,那么就必須考慮為特定技術(shù)預先實(shí)施和開(kāi)源何種RNN模型,這是非常重要的。例如,Caffe擁有極少的RNN資源,而微軟的CNTK和Torch則擁有豐富的RNN教程和預置模型。雖然TensorFlow也具有一些RNN資源,但TFLearn和Keras中所包含的RNN示例要比使用TensorFlow多得多。
架構
為了在特定的框架中創(chuàng )建和訓練新的模型,至關(guān)重要的一點(diǎn)是要有一個(gè)易于使用而且是模塊化的前端架構。檢測結果表明,TensorFlow、Torch和MXNet都具有直觀(guān)的模塊化架構,這使得開(kāi)發(fā)變得簡(jiǎn)單并且直觀(guān)。相比之下,像Caffe這樣的框架則需要花大量的工作來(lái)創(chuàng )建一個(gè)新的層。另外,我們還發(fā)現由于TensorBoard Web GUI應用程序已經(jīng)被包含在內,TensorFlow在訓練期間和訓練之后會(huì )特別容易調試和監控。
速度
在開(kāi)放源代碼卷積神經(jīng)網(wǎng)絡(luò )(CNN)方面Torch和Nervana擁有基準測試的最佳性能記錄,TensorFlow性能在大多數測試中也“有的一拼”,而Caffe和Theano在這方面則表現得并不突出;在遞歸神經(jīng)網(wǎng)絡(luò )(RNN)方面,微軟則聲稱(chēng)CNTK的訓練時(shí)長(cháng)最短,速度最快。當然,也有另一項直接針對RNN建模能力速度進(jìn)行比較的研究表明,在Theano、Torch和TensorFlow中,Theano的表現最好。
多GPU支持
大多數深度學(xué)習應用程序需要大量的浮點(diǎn)運算(FLOP)。例如,百度的DeepSpeech識別模型需要10秒鐘的ExaFLOPs(百萬(wàn)兆浮點(diǎn)運算)進(jìn)行訓練。那可是大于10的18次方的計算量!而作為領(lǐng)先的圖形處理單元(GPU)——如英偉達的Pascal TitanX,每秒可以執行11萬(wàn)億次浮點(diǎn)運算,在一個(gè)足夠大的數據集上訓練一個(gè)新的模型需要一周的時(shí)間。為了減少構建模型所需的時(shí)間,需要多臺機器上的多個(gè)GPU。幸運的是,上面列出的大多數技術(shù)都提供了這種支持,比如,MXNet就具有一個(gè)高度優(yōu)化的多GPU引擎。
Keras兼容性
Keras是一個(gè)用于進(jìn)行快速深度學(xué)習原型設計的高級庫,是一個(gè)讓數據科學(xué)家能夠自如地應用深度學(xué)習的工具。Keras目前支持兩個(gè)后端——TensorFlow和Theano,并且還將在TensorFlow中獲得正式的支持。
Matthew Rubashkin建議,當你要開(kāi)始一個(gè)深度學(xué)習項目時(shí),首先要評估好自己團隊的技能和項目需求。舉例來(lái)說(shuō),對于以Python為中心的團隊的圖像識別應用程序,他建議使用TensorFlow,因為其文本文件豐富、性能適宜并且還擁有優(yōu)秀的原型設計工具。而如果是為了將RNN擴展到具有Lua能力的客戶(hù)團隊產(chǎn)品上,他則推薦使用Torch,這是因為它具有卓越的速度和RNN建模能力。
總而言之,對于大多數人而言,“從零開(kāi)始”編寫(xiě)深度學(xué)習算法成本非常高,而利用深度學(xué)習框架中可用的巨大資源是更有效率的。如何選擇更合適的框架將取決于使用者的技能和背景,以及具體項目的需求。因此,當你要開(kāi)始一個(gè)深度學(xué)習項目時(shí),的確值得花一些時(shí)間來(lái)評估可用的框架,以確保技術(shù)價(jià)值的最大化。
評論