2016AI巨頭開(kāi)源IP盤(pán)點(diǎn) 50個(gè)最常用的深度學(xué)習庫
Data Science Central網(wǎng)站主編、有多年數據科學(xué)和商業(yè)分析模型從業(yè)經(jīng)驗的Bill Vorhies曾撰文指出,過(guò)去一年人工智能和深度學(xué)習最重要的發(fā)展不在技術(shù),而是商業(yè)模式的轉變——所有巨頭紛紛將其深度學(xué)習IP開(kāi)源。 毋庸置疑,“開(kāi)源浪潮”是2016年人工智能領(lǐng)域不可忽視的一大趨勢,而其中最受歡迎的項目則是谷歌的深度學(xué)習平臺TensorFlow。下文就從TensorFlow說(shuō)起,盤(pán)點(diǎn)2016年AI開(kāi)源項目,最后統計了Github最常用深度學(xué)習開(kāi)源項目Top 50。
本文引用地址:http://dyxdggzs.com/article/201612/342174.htm

谷歌開(kāi)源:圍繞TensorFlow打造深度學(xué)習生態(tài)圈
1.Google第二代深度學(xué)習引擎TensorFlow開(kāi)源
2015年11月,谷歌開(kāi)源深度學(xué)習平臺TensorFlow。2016年4月,谷歌推出了分布式TensorFlow?,F在,TensorFlow已經(jīng)成為業(yè)內最受歡迎的深度學(xué)習平臺之一。
2.谷歌開(kāi)源全球最精準語(yǔ)言解析器SnytaxNet
2016年5月13日,Google Research宣布,世界準確度最高的自然語(yǔ)言解析器SyntaxNet開(kāi)源。谷歌開(kāi)源再進(jìn)一步。據介紹,谷歌在該平臺上訓練的模型的語(yǔ)言理解準確率超過(guò)90%。SyntaxNet是一個(gè)在TensoFlow中運行的開(kāi)源神經(jīng)網(wǎng)絡(luò )框架,提供自然語(yǔ)言理解系統基矗谷歌公開(kāi)了所有用用戶(hù)自己的數據訓練新SyntaxNet模型所需要的代碼,以及谷歌已經(jīng)訓練好的,可用于分析英語(yǔ)文本的模型Paesey McParseface。
Paesey McParseface建立于強大的機器學(xué)習算法,可以學(xué)會(huì )分析句子的語(yǔ)言結構,能解釋特定句子中每一個(gè)詞的功能。此類(lèi)模型中,Paesey McParseface是世界上最精確的,谷歌希望它能幫助對自動(dòng)提取信息、翻譯和其他自然語(yǔ)言理解(NLU)中的應用感興趣的研究者和開(kāi)發(fā)者。
3.谷歌推出Deep&Wide Learning,開(kāi)源深度學(xué)習API
2016年6月29日,谷歌推出Wide & Deep Learning,并將TensorFlow API開(kāi)源,歡迎開(kāi)發(fā)者使用這款最新的工具。同時(shí)開(kāi)源的還有對Wide & Deep Learning的實(shí)現,作為T(mén)F.Learn應用程序接口的一部分,讓開(kāi)發(fā)者也能自己訓練模型。
4.谷歌開(kāi)源TensorFlow自動(dòng)文本摘要生成模型
2016年8月25日,谷歌開(kāi)源了TensorFlow中用于文本信息提取并自動(dòng)生成摘要的模型,尤其擅長(cháng)長(cháng)文本處理,這對自動(dòng)處理海量信息十分有用。自動(dòng)文本摘要最典型的例子便是新聞報道的標題自動(dòng)生成,為了做好摘要,機器學(xué)習模型需要能夠理解文檔、提取重要信息,這些任務(wù)對于計算機來(lái)說(shuō)都是極具挑戰的,特別是在文檔長(cháng)度增加的情況下。
5.谷歌開(kāi)源圖像分類(lèi)工具TF-Slim,定義TensorFlow復雜模型
2016年8月31日,谷歌宣布開(kāi)源TensorFlow高級軟件包TF-Slim,能使用戶(hù)快速準確地定義復雜模型,尤其是圖像分類(lèi)任務(wù)。自發(fā)布以來(lái),TF-Slim已經(jīng)得到長(cháng)足發(fā)展,無(wú)論是網(wǎng)絡(luò )層、代價(jià)函數,還是評估標準,都增加了很多類(lèi)型,訓練和評估模型也有了很多便利的常規操作手段。這些手段使你在并行讀取數據或者在多臺機器上部署模型等大規模運行時(shí),不必為細節操心。此外,谷歌研究員還制作了TF-Slim圖像模型庫,為很多廣泛使用的圖像分類(lèi)模型提供了定義以及訓練腳本,這些都是使用標準的數據庫寫(xiě)就的。TF-Slim及其組成部分都已經(jīng)在谷歌內部得到廣泛的使用,很多升級也都整合進(jìn)了tf.contrib.slim。
6.谷歌開(kāi)源大規模數據庫,10億+數據,探索RNN極限
2016年9月13日,谷歌宣布開(kāi)源大規模語(yǔ)言建模模型庫,這項名為“探索RNN極限”的研究今年2月發(fā)表時(shí)就引發(fā)激論,如今姍姍來(lái)遲的開(kāi)源更加引人矚目。研究測試取得了極好的成績(jì),另外開(kāi)源的數據庫含有大約10億英語(yǔ)單詞,詞匯有80萬(wàn),大部分是新聞數據。這是典型的產(chǎn)業(yè)研究,只有在谷歌這樣的大公司才做得出來(lái)。這次開(kāi)源也應該會(huì )像作者希望的那樣,在機器翻譯、語(yǔ)音識別等領(lǐng)域起到推進(jìn)作用。
7.谷歌開(kāi)源TensorFlow圖說(shuō)生成模型,可真正理解圖像
2016年9月23日,谷歌宣布開(kāi)源圖說(shuō)生成系統Show and Tell最新版在TensorFlow上的模型。該系統采用編碼器-解碼器神經(jīng)網(wǎng)絡(luò )架構,分類(lèi)準確率達93.9%,在遇到全新的場(chǎng)景時(shí)能夠生成準確的新圖說(shuō)。谷歌表示,這說(shuō)明該系統能夠真正理解圖像。
8.谷歌開(kāi)源超大數據庫,含800萬(wàn)+視頻
2016年9月28日,谷歌在官方博客上宣布,將含有800萬(wàn)個(gè)Youtube視頻URL的視頻數據庫開(kāi)源,視頻總時(shí)長(cháng)達到了50萬(wàn)個(gè)小時(shí)。一并發(fā)布的還有從包含了4800個(gè)知識圖譜分類(lèi)數據集中提取的視頻級別標簽。這一數據庫在規模和覆蓋的種類(lèi)上都比現有的視頻數據庫有顯著(zhù)提升。例如,較為著(zhù)名的Sports-1M數據庫,就只由100萬(wàn)個(gè)Youtube視頻和500個(gè)運動(dòng)類(lèi)目。谷歌官方博客上說(shuō),在視頻的數量和種類(lèi)上,Youtube-8M代表的是幾乎指數級的增長(cháng)。
9.谷歌發(fā)布Open Images圖片數據集,包含900萬(wàn)標注圖片
2016年10月1日,繼前天發(fā)布800萬(wàn)視頻數據集之后,谷歌又發(fā)布了圖片數據庫Open Images,包含了900萬(wàn)標注數據,標簽種類(lèi)超過(guò)6000種。谷歌在官方博客中寫(xiě)到,這比只擁有1000個(gè)分類(lèi)的ImageNet更加貼近實(shí)際生活。對于想要從零開(kāi)始訓練計算機視覺(jué)模型的人來(lái)說(shuō),這些數據遠遠足夠了。就在12月,谷歌還開(kāi)源了Open Images并行下載工具的腳本,5天速度最高超過(guò)200 M。
10.DeepMind開(kāi)源AI核心平臺DeepMind Lab(附論文)
2016年12月5日,DeepMind宣布將其AI核心平臺DeepMind Lab開(kāi)源。DeepMind實(shí)驗室把全部代碼上傳至Github,供研究人員和開(kāi)發(fā)者進(jìn)行實(shí)驗和研究。DeepMind Lab這一平臺將幾個(gè)不同的AI研究領(lǐng)域整合至一個(gè)環(huán)境下,方便研究人員測試AI智能體導航、記憶和3D成像等能力。值得一提的是,這些代碼也包括AlphaGO的代碼,谷歌希望以此增加AI能力的開(kāi)放性,讓更多開(kāi)發(fā)者參與AI研究,觀(guān)察其他開(kāi)發(fā)者是否能夠挑戰并打破DeepMind現在的紀錄。
Facebook開(kāi)源:貫徹理念
1.Facebook開(kāi)源圍棋引擎DarkForest
6個(gè)月前,Facebook將其圍棋引擎DarkForest開(kāi)源?,F在訓練代碼已經(jīng)全部發(fā)布。Github鏈接:https://github.com/facebookresearch/darkforestGo。
2.Facebook開(kāi)源文本分類(lèi)工具fastText,不用深度學(xué)習也可以又快又準
2016年8月19日,Facebook AI實(shí)驗室(FAIR)宣布開(kāi)源文本分析工具fastText。fastText既可以用于文本分類(lèi),又能用于學(xué)習詞匯向量表征。在文本分類(lèi)的準確率上與一些常用的深度學(xué)習工具不相上下,但是在時(shí)間上卻快很多——模型訓練時(shí)間從幾天減少到幾秒。除了文本分類(lèi),fastText也能被用于學(xué)習詞語(yǔ)的向量表征,Facebook稱(chēng)fastText比常用的Word2vec等最先進(jìn)的詞態(tài)表征工具表現都要好得多。
3.Facebook開(kāi)源計算機視覺(jué)系統deepmask,從像素水平理解圖像(附論文及代碼)
2016年8月26日,Facebook宣布開(kāi)源計算機視覺(jué)系統deepmask,稱(chēng)該系統能“從像素水平理解物體”,Facebook希望開(kāi)源能加速計算機視覺(jué)的發(fā)展。不過(guò),Facebook并沒(méi)有在自家產(chǎn)品中使用這些工具,像這樣落實(shí)到具體應用前就開(kāi)源,跟通常所說(shuō)的“開(kāi)源”有些不同。對此,Facebook人工智能團隊FAIR的負責人Yann LeCun 曾表示,正是因為FAIR 做基礎的、不受制于公司短期效益的研究,才能真正推進(jìn)人工智能技術(shù)發(fā)展。
4.Facebook 開(kāi)源AI 訓練和測試環(huán)境CommAI-env
2016年9月27日,Facebook 宣布開(kāi)放AI 訓練和測試環(huán)境CommAI-env,可以用任何編程語(yǔ)言設置智能體。據介紹,CommAI-env 這個(gè)平臺用于訓練和評估AI 系統,尤其是注重溝通和學(xué)習的AI 系統。與用強化學(xué)習從玩游戲到下圍棋都能做的OpenAI Gym 不同,Facebook 的CommAI-env 側重基于溝通的訓練和測試,這也是為了鼓勵開(kāi)發(fā)人員更好地打造能夠溝通和學(xué)習的人工智能,呼應該公司的十年規劃。Facebook 還表示,CommAI-env 會(huì )持續更新,并在成熟后舉辦競賽推進(jìn)AI 的開(kāi)發(fā)。
在A(yíng)I 測試環(huán)境方面,Facebook 還開(kāi)源了CommNet,這是一個(gè)讓基于神經(jīng)網(wǎng)絡(luò )的代理更好交互、實(shí)現合作而研發(fā)的模型,與CommAI-env 配套。12月,Facebook 還開(kāi)源了 TorchCraft,在深度學(xué)習環(huán)境 Torch 與星際爭霸之間搭起了橋梁,方便研究人員使用控制器,編寫(xiě)能夠玩星際爭霸游戲的智能代理。
5.Facebook 賈揚清發(fā)文介紹 Caffe2go,手機就能運行神經(jīng)網(wǎng)絡(luò )
2016年11月8日,Caffe作者、Facebook 研究員賈揚清在官方網(wǎng)站上發(fā)文介紹了新的機器學(xué)習框架 Caffe2go,并表示在接下來(lái)的幾個(gè)月將其部分開(kāi)源。Caffe2go 規模更小,訓練速度更快,對計算性能要求較低,在手機上就行運行,已經(jīng)成為 Facebook 機器學(xué)習的核心技術(shù)。
OpenAI
1.OpenAI 推出代理訓練環(huán)境 OpenAI Gym
創(chuàng )立于2015年底的非盈利機構 OpenAI 的成立打破了谷歌、Facebook 等巨頭霸占 AI 領(lǐng)域的格局,但其創(chuàng )始人、特斯拉CEO馬斯克多次發(fā)表人工智能威脅論。馬斯克創(chuàng )立 OpenAI 目的何在?2016年5月4日,OpenAI 發(fā)布了人工智能研究工具集 OpenAI Gym,用于研發(fā)和比較強化學(xué)習算法,分析 OpenAI Gym 或可找出馬斯克的真正動(dòng)機。
2.另一種開(kāi)源:OpenAI 介紹深度學(xué)習基礎框架
2016年8月30日,OpenAI 研究員在博客發(fā)文,結合實(shí)例介紹了 OpenAI 進(jìn)行深度學(xué)習研究時(shí)采用的基礎設施配置,并且提供了相關(guān)開(kāi)源代碼。文章激起了很多反響,相對于軟硬件開(kāi)源,OpenAI 從另一個(gè)側面,對深度學(xué)習模型的實(shí)際部署提供了幫助。
3.OpenAI 重磅發(fā)布 AGI 測試訓練平臺 Universe
2016年12月4日,在今年 NIPS 大會(huì )召開(kāi)的前一晚,OpenAI 發(fā)布了 Universe,用于訓練解決通用問(wèn)題 AI 的基礎架構。據悉,這是一個(gè)能在幾乎所有環(huán)境中衡量和訓練 AI 通用智能水平的開(kāi)源平臺,目標是讓智能體能像人一樣使用計算機。目前,Universe 已經(jīng)有1000種訓練環(huán)境,由微軟、英偉達等公司參與建設。有了 Universe,任何程序都能被接入到 OpenAI Gym 的環(huán)境中。很快,OpenAI 還推出了 Mini World of Bits(MiniWoB),這個(gè)與 OpenAI Universe 配套的環(huán)境基準可以測試代理與常見(jiàn)網(wǎng)頁(yè)瀏覽器元素的交互能力,比如按鈕、文本框、滑塊。
微軟開(kāi)源:CNTK 升級版
根據 Github 2016年度的《Octoverse 觀(guān)察報告》,微軟不僅是擁有開(kāi)源項目最多的公司,也是貢獻人數最多的公司。
在人工智能方面,微軟的開(kāi)源項目有很多,包括 CNTK計算網(wǎng)絡(luò )工具包、DMTK分布式機器學(xué)習工具包,Send2vec語(yǔ)義相似映射器, 以及 CodaLab 研究平臺(基于Web的開(kāi)源平臺,旨在通過(guò)其在線(xiàn)社區幫助解決數據導向的許多常見(jiàn)問(wèn)題,從而促進(jìn)機器學(xué)習和高性能計算的研究領(lǐng)域的發(fā)展)。
2016年10月27日,微軟開(kāi)源深度學(xué)習認知工具包 CNTK 升級版,其中最矚目的功能是增加了 Python 綁定,支持增強學(xué)習。新版的 CNTK 性能大幅提升,尤其是在多臺機器上處理較大數據集的情況下能高速運行,這種類(lèi)型的大規模部署對于多GPU上的深度學(xué)習是不可或缺的,也是開(kāi)發(fā)消費產(chǎn)品和專(zhuān)業(yè)產(chǎn)品的必需。
微軟研究人員表示,在多服務(wù)器間運行的能力是一大進(jìn)步。CNTK 升級版還包含了一些算法,用于將大規模數據處理的計算消耗降到最低。
百度
1.百度開(kāi)源深度學(xué)習代碼 Warp-CTC 詳解
2016年1月15日,百度公布了代碼 Warp-CTC,能夠讓 AI 軟件運行得更高效。說(shuō) Warp-CTC 知道的人可能還少,百度語(yǔ)音識別系統 Deep Speech 2就是用它搭建的。百度位于硅谷的 AI 實(shí)驗室主管 Adam Coates 在接受 Re-Work 采訪(fǎng)時(shí)表示,他們在構建深度語(yǔ)音端對端系統的過(guò)程中發(fā)明了Warp-CTC 方法,進(jìn)而使用 CTC 提高模型的可伸縮性?!坝捎跊](méi)有相似的工具,我們決定將其分享給人們。它是一款很實(shí)用的工具,可以用到現有的AI框架中?,F在有很多深度學(xué)習的開(kāi)源軟件,但是之前用于訓練序列數據的端對端網(wǎng)絡(luò )一直很慢。我們在Warp-CTC上的投入是對“我們堅信深度學(xué)習與高性能計算技術(shù)(HPC)的結合會(huì )有巨大潛力”的一種證明?!?/p>
2.百度開(kāi)源分布式深度學(xué)習平臺,挑戰 TensorFlow(附教程)
2016年8月31日,百度宣布開(kāi)源深度學(xué)習平臺 PaddlePaddle。實(shí)際上,百度深度學(xué)習實(shí)驗室在幾年前就投入 PaddlePaddle 的開(kāi)發(fā),業(yè)內對這個(gè)云端托管的分布式深度學(xué)習平臺贊譽(yù)有加:代碼簡(jiǎn)潔、設計干凈,沒(méi)有太多抽象……PaddlePaddle 對于序列輸入、稀疏輸入和大規模數據的模型訓練有著(zhù)良好的支持,支持GPU運算,支持數據并行和模型并行,僅需少量代碼就能訓練深度學(xué)習模型,大大降低了用戶(hù)使用深度學(xué)習技術(shù)的成本。
3.百度公開(kāi)硬件基準 DeepBench,推動(dòng)深度學(xué)習專(zhuān)用芯片研發(fā)競爭
2016年9月,百度發(fā)表論文,開(kāi)源 DeepBench 基準測試,AI研究者和芯片制造商可以用它測試不同的芯片運行軟件時(shí)的性能,尤其是哪款硬件加速深度學(xué)習性能最好。目前 DeepBench 只能測試深度學(xué)習的訓練模型,能提供在三種 Nvidia GPU和一種 Intel Xeon Phi 處理器的基準化測試結果,未來(lái)還可能測試用于圖像和語(yǔ)音識別之類(lèi)任務(wù)的“推理”模型。百度希望 DeepBench 能促進(jìn)特定任務(wù)深度學(xué)習加速器的研發(fā),“GPU顯然不是終點(diǎn),我們希望這能鼓勵競爭”。
GitHub 最受歡迎的深度學(xué)習項目
名稱(chēng)星數簡(jiǎn)介
TensorFlow
29622
使用數據流圖計算可擴展機器學(xué)習問(wèn)題
Caffe
11799
一個(gè)高效的開(kāi)源深度學(xué)習框架
Neural Style
10148
由Torch實(shí)現的神經(jīng)網(wǎng)絡(luò )算法
Deep Dream
9042
一款圖像識別工具
Keras
7502
一款由Python實(shí)現的深度學(xué)習庫,包括卷積神經(jīng)網(wǎng)絡(luò )、遞歸神經(jīng)網(wǎng)絡(luò )等。運行在Theano和TensorFlow之上
Roc AlphaGo
7170
由學(xué)生主導的一個(gè)獨立項目,重新實(shí)現了 DeepMind在2016發(fā)表于Nature論文"Mastering the game of Go with deep neural networks and tree search(用深度神經(jīng)網(wǎng)絡(luò )和樹(shù)搜索學(xué)習圍棋)" (Nature 529, 484-489, 28 Jan 2016)
TensorFlow Models
6671
基于TensorFlow開(kāi)發(fā)的模型
Neural Doodle
6275
運用深度神經(jīng)網(wǎng)絡(luò )將涂鴉變?yōu)閮?yōu)雅的藝術(shù)品,從照片生成無(wú)縫紋理,轉變圖片風(fēng)格,進(jìn)行基于實(shí)例的提升,等等。(語(yǔ)義風(fēng)格傳遞的實(shí)現)
CNTK
5957
微軟的計算網(wǎng)絡(luò )工具(Computational Network Toolkit,CNTK)
TensorFlow Examples
5872
面向初學(xué)者的TensorFlow教程和代碼示例
ConvNet JS
5231
基于Java的深度學(xué)習庫。在瀏覽器中訓練卷積神經(jīng)網(wǎng)絡(luò )模型(或者普通模型)
Torch
5133
Torch7,深度學(xué)習庫
OpenFace
4855
基于深度學(xué)習網(wǎng)絡(luò )的面部識別
MXNet
4685
輕巧、便攜、靈活的分布式/移動(dòng)深度學(xué)習框架,支持Python, R, Julia, Scala, Go, Java等等語(yǔ)言
Nupic
4364
智能計算的Numenta平臺(Numenta Platform for Intelligent Computing,Nupic):一個(gè)腦啟發(fā)式的計算智能和機器智能平臺,基于皮層學(xué)習算法的生物精確神經(jīng)網(wǎng)絡(luò )模型
Theano
4286
一個(gè) Python 庫,用來(lái)定義、優(yōu)化和模擬數學(xué)表達式計算,用于高效解決多維數組的計算問(wèn)題
Leaf
4281
面向黑客的開(kāi)源機器智能框架
Char RNN
3820
基于Torch開(kāi)發(fā)的多層遞歸神經(jīng)網(wǎng)絡(luò )的字符級別語(yǔ)言模型
Neural Talk
3694
一個(gè)Python+numpy項目,用多模式遞歸神經(jīng)網(wǎng)絡(luò )描述圖像
deeplearning4j
3673
基于Hadoop和Spark的Java, Scala & Clojure深度學(xué)習工具
TFLearn
3368
深度學(xué)習庫,包括高層次的TensorFlow接口
TensorFlow Playground
3352
神經(jīng)網(wǎng)絡(luò )模型示例
OpenAI Gym
3020
一種用于開(kāi)發(fā)和比較強化學(xué)習算法的工具包
Magenta
2914
用機器智能生成音樂(lè )和藝術(shù)
Colornet
2798
用神經(jīng)網(wǎng)絡(luò )模型給灰度圖上色
Synaptic
2666
基于node.js和瀏覽器的免架構神經(jīng)網(wǎng)絡(luò )庫
Neural Talk 2
2550
Torch開(kāi)發(fā)的圖像簡(jiǎn)介生成GPU運行代碼
Image Analogies
2540
使用神經(jīng)匹配和融合生成相似圖形
TensorFlow Tutorials
2413
Tensorflow的基礎原理到應用
Lasagne
2355
基于Theano訓練和構建神經(jīng)網(wǎng)絡(luò )的輕型函數庫
PyLearn2
2153
基于Theano的機器學(xué)習庫
LISA-lab Deep Learning Tutorials
2134
深度學(xué)習教程筆記和代碼
Neon
2121
Nervana 開(kāi)發(fā)的一款快速、可擴展、易使用的Python深度學(xué)習框架
Matlab Deep Learning Toolbox
2032
Matlab/Octave的深度學(xué)習工具箱。包括深度信念網(wǎng)絡(luò )、自動(dòng)編碼機、卷積神經(jīng)網(wǎng)絡(luò )、卷積自動(dòng)編碼機和vanilla神經(jīng)網(wǎng)絡(luò )等。每種方法都有入門(mén)示例
Deep Learning Flappy Bird
1721
使用深度強化學(xué)習破解Flappy Bird游戲
Chainer
1573
一款靈活的深度學(xué)習神經(jīng)網(wǎng)絡(luò )框架
Neural Story Teller
1514
一種根據圖片生成故事的遞歸神經(jīng)網(wǎng)絡(luò )模型
DIGITS
1353
深度學(xué)習GPU訓練系統
Deep Jazz
1229
基于Keras和Theano生成jazz的深度學(xué)習模型
Brainstorm
1143
快速、靈活、有趣的神經(jīng)網(wǎng)絡(luò )
Darknet
937
C語(yǔ)言版本的開(kāi)源神經(jīng)網(wǎng)絡(luò )
Theano Tutorials
904
基于Theano的機器學(xué)習入門(mén)教程,從線(xiàn)性回歸到卷積神經(jīng)網(wǎng)絡(luò )
RNN Music Composition
904
一款生成古典音樂(lè )的遞歸神經(jīng)網(wǎng)絡(luò )工具
Blocks
866
一種用于構建和訓練神經(jīng)網(wǎng)絡(luò )模型的Theano框架
TDB
860
TensorFlow的交互式、節點(diǎn)調試和可視化的工具
Scikit Neural Net
849
深度神經(jīng)網(wǎng)絡(luò )入門(mén)工具,類(lèi)似scikit-learn的分類(lèi)器和回歸模型。
Veles
760
分布式機器學(xué)習平臺(Python, CUDA, OpenCL)
Deep Detect
759
基于C++11的深度學(xué)習接口和服務(wù)器,與Python綁定并支持Caffe
TensorFlow DeepQ
759
基于Google Tensorflow的deep Q learning演示
Caffe on Spark
724
基于Spark的Caffe
Nolearn
702
神經(jīng)網(wǎng)絡(luò )庫的抽象,著(zhù)名的Lasagne
DCGAN TensorFlow
568
基于tensorflow實(shí)現的深度卷積生成對抗網(wǎng)絡(luò )
MatConvNet
479
MATLAB卷積神經(jīng)網(wǎng)絡(luò )工具箱,用于計算機視覺(jué)應用
DeepCL
413
用于訓練深度卷積神經(jīng)網(wǎng)絡(luò )模型的OpenCL庫
Visual Search Server
304
用Tensorflow Inception 模型和近似最近鄰的視覺(jué)搜索
評論