建站服務(wù)器
TensorFlow引言:AlphaGo在2017年年初化身Master,在弈城和野狐等平臺上橫掃中日韓圍棋高手,取得60連勝,未嘗敗績。AlphaGo背后神秘的推動力就是TensorFlow——Google于2015年11月開源的機器學(xué)習(xí)及深度學(xué)習(xí)框架。
TensorFlow在2015年年底一出現(xiàn)就受到了極大的關(guān)注,在一個月內(nèi)獲得了GitHub上超過一萬顆星的關(guān)注,目前在所有的機器學(xué)習(xí)、深度學(xué)習(xí)項目中排名第一,甚至在所有的Python項目中也排名第一。本文將帶我們簡單了解下TensorFlow,并與其他主流深度學(xué)習(xí)框架進行了對比。
本文選自《TensorFlow實戰(zhàn)》。創(chuàng)新互聯(lián)服務(wù)項目包括滿洲網(wǎng)站建設(shè)、滿洲網(wǎng)站制作、滿洲網(wǎng)頁制作以及滿洲網(wǎng)絡(luò)營銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢、行業(yè)經(jīng)驗、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,滿洲網(wǎng)站推廣取得了明顯的社會效益與經(jīng)濟效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到滿洲省份的部分城市,未來相信會繼續(xù)擴大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!
TensorFlow是相對高階的機器學(xué)習(xí)庫,用戶可以方便地用它設(shè)計神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),而不必為了追求高效率的實現(xiàn)親自寫C++或CUDA代碼。它和Theano一樣都支持自動求導(dǎo),用戶不需要再通過反向傳播求解梯度。其核心代碼和Caffe一樣是用C++編寫的,使用C++簡化了線上部署的復(fù)雜度,并讓手機這種內(nèi)存和CPU資源都緊張的設(shè)備可以運行復(fù)雜模型(Python則會比較消耗資源,并且執(zhí)行效率不高)。除了核心代碼的C++接口,TensorFlow還有官方的Python、Go和Java接口,是通過SWIG(Simplified Wrapper and Interface Generator)實現(xiàn)的,這樣用戶就可以在一個硬件配置較好的機器中用Python進行實驗,并在資源比較緊張的嵌入式環(huán)境或需要低延遲的環(huán)境中用C++部署模型。SWIG支持給C/C++代碼提供各種語言的接口,因此其他腳本語言的接口未來也可以通過SWIG方便地添加。不過使用Python時有一個影響效率的問題是,每一個mini-batch要從Python中feed到網(wǎng)絡(luò)中,這個過程在mini-batch的數(shù)據(jù)量很小或者運算時間很短時,可能會帶來影響比較大的延遲。現(xiàn)在TensorFlow還有非官方的Julia、Node.js、R的接口支持。
TensorFlow也有內(nèi)置的TF.Learn和TF.Slim等上層組件可以幫助快速地設(shè)計新的網(wǎng)絡(luò),并且兼容Scikit-learn estimator接口,可以方便地實現(xiàn)evaluate、grid search、cross validation等功能。同時TensorFlow不只局限于神經(jīng)網(wǎng)絡(luò),其數(shù)據(jù)流式圖支持非常自由的算法表達,當然也可以輕松實現(xiàn)深度學(xué)習(xí)以外的機器學(xué)習(xí)算法。事實上,只要可以將計算表示成計算圖的形式,就可以使用TensorFlow。用戶可以寫內(nèi)層循環(huán)代碼控制計算圖分支的計算,TensorFlow會自動將相關(guān)的分支轉(zhuǎn)為子圖并執(zhí)行迭代運算。TensorFlow也可以將計算圖中的各個節(jié)點分配到不同的設(shè)備執(zhí)行,充分利用硬件資源。定義新的節(jié)點只需要寫一個Python函數(shù),如果沒有對應(yīng)的底層運算核,那么可能需要寫C++或者CUDA代碼實現(xiàn)運算操作。
在數(shù)據(jù)并行模式上,TensorFlow和Parameter Server很像,但TensorFlow有獨立的Variable node,不像其他框架有一個全局統(tǒng)一的參數(shù)服務(wù)器,因此參數(shù)同步更自由。TensorFlow和Spark的核心都是一個數(shù)據(jù)計算的流式圖,Spark面向的是大規(guī)模的數(shù)據(jù),支持SQL等操作,而TensorFlow主要面向內(nèi)存足以裝載模型參數(shù)的環(huán)境,這樣可以化計算效率。
TensorFlow的另外一個重要特點是它靈活的移植性,可以將同一份代碼幾乎不經(jīng)過修改就輕松地部署到有任意數(shù)量CPU或GPU的PC、服務(wù)器或者移動設(shè)備上。相比于Theano,TensorFlow還有一個優(yōu)勢就是它極快的編譯速度,在定義新的網(wǎng)絡(luò)結(jié)構(gòu)時,Theano通常需要長時間的編譯,因此嘗試新模型需要比較大的代價,而TensorFlow完全沒有這個問題。TensorFlow還有功能強大的可視化組件TensorBoard,能可視化網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,對于觀察復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和監(jiān)控長時間、大規(guī)模的訓(xùn)練很有幫助。TensorFlow針對生產(chǎn)環(huán)境高度優(yōu)化,它產(chǎn)品級的高質(zhì)量代碼和設(shè)計都可以保證在生產(chǎn)環(huán)境中穩(wěn)定運行,同時一旦TensorFlow廣泛地被工業(yè)界使用,將產(chǎn)生良性循環(huán),成為深度學(xué)習(xí)領(lǐng)域的事實標準。
除了支持常見的網(wǎng)絡(luò)結(jié)構(gòu)[卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurent Neural Network,RNN)]外,TensorFlow還支持深度強化學(xué)習(xí)乃至其他計算密集的科學(xué)計算(如偏微分方程求解等)。TensorFlow此前不支持symbolic loop,需要使用Python循環(huán)而無法進行圖編譯優(yōu)化,但最近新加入的XLA已經(jīng)開始支持JIT和AOT,另外它使用bucketing trick也可以比較高效地實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)。TensorFlow的一個薄弱地方可能在于計算圖必須構(gòu)建為靜態(tài)圖,這讓很多計算變得難以實現(xiàn),尤其是序列預(yù)測中經(jīng)常使用的beam search。
TensorFlow的用戶能夠?qū)⒂?xùn)練好的模型方便地部署到多種硬件、操作系統(tǒng)平臺上,支持Intel和AMD的CPU,通過CUDA支持NVIDIA的GPU(最近也開始通過OpenCL支持AMD的GPU,但沒有CUDA成熟),支持Linux和Mac,最近在0.12版本中也開始嘗試支持Windows。在工業(yè)生產(chǎn)環(huán)境中,硬件設(shè)備有些是最新款的,有些是用了幾年的老機型,來源可能比較復(fù)雜,TensorFlow的異構(gòu)性讓它能夠全面地支持各種硬件和操作系統(tǒng)。同時,其在CPU上的矩陣運算庫使用了Eigen而不是BLAS庫,能夠基于ARM架構(gòu)編譯和優(yōu)化,因此在移動設(shè)備(Android和iOS)上表現(xiàn)得很好。
TensorFlow在最開始發(fā)布時只支持單機,而且只支持CUDA 6.5和cuDNN v2,并且沒有官方和其他深度學(xué)習(xí)框架的對比結(jié)果。在2015年年底,許多其他框架做了各種性能對比評測,每次TensorFlow都會作為較差的對照組出現(xiàn)。那個時期的TensorFlow真的不快,性能上僅和普遍認為很慢的Theano比肩,在各個框架中可以算是墊底。但是憑借Google強大的開發(fā)實力,很快支持了新版的cuDNN(目前支持cuDNN v5.1),在單GPU上的性能追上了其他框架。下圖為https://github.com/soumith/convnet-benchmarks給出的各個框架在AlexNet上單GPU的性能評測。
目前在單GPU的條件下,絕大多數(shù)深度學(xué)習(xí)框架都依賴于cuDNN,因此只要硬件計算能力或者內(nèi)存分配差異不大,最終訓(xùn)練速度不會相差太大。但是對于大規(guī)模深度學(xué)習(xí)來說,巨大的數(shù)據(jù)量使得單機很難在有限的時間完成訓(xùn)練。這時需要分布式計算使GPU集群乃至TPU集群并行計算,共同訓(xùn)練出一個模型,所以框架的分布式性能是至關(guān)重要的。TensorFlow在2016年4月開源了分布式版本,使用16塊GPU可達單GPU的15倍提速,在50塊GPU時可達到40倍提速,分布式的效率很高。目前原生支持的分布式深度學(xué)習(xí)框架不多,只有TensorFlow、CNTK、DeepLearning4J、MXNet等。不過目前TensorFlow的設(shè)計對不同設(shè)備間的通信優(yōu)化得不是很好,其單機的reduction只能用CPU處理,分布式的通信使用基于socket的RPC,而不是速度更快的RDMA,所以其分布式性能可能還沒有達到最優(yōu)。
Google 在2016年2月開源了TensorFlow Serving19,這個組件可以將TensorFlow訓(xùn)練好的模型導(dǎo)出,并部署成可以對外提供預(yù)測服務(wù)的RESTful接口,如圖2-2所示。有了這個組件,TensorFlow就可以實現(xiàn)應(yīng)用機器學(xué)習(xí)的全流程:從訓(xùn)練模型、調(diào)試參數(shù),到打包模型,最后部署服務(wù),名副其實是一個從研究到生產(chǎn)整條流水線都齊備的框架。這里引用TensorFlow內(nèi)部開發(fā)人員的描述:“TensorFlow Serving是一個為生產(chǎn)環(huán)境而設(shè)計的高性能的機器學(xué)習(xí)服務(wù)系統(tǒng)。它可以同時運行多個大規(guī)模深度學(xué)習(xí)模型,支持模型生命周期管理、算法實驗,并可以高效地利用GPU資源,讓TensorFlow訓(xùn)練好的模型更快捷方便地投入到實際生產(chǎn)環(huán)境”。除了TensorFlow以外的其他框架都缺少為生產(chǎn)環(huán)境部署的考慮,而Google作為廣泛在實際產(chǎn)品中應(yīng)用深度學(xué)習(xí)的巨頭可能也意識到了這個機會,因此開發(fā)了這個部署服務(wù)的平臺。TensorFlow Serving可以說是一副王牌,將會幫TensorFlow成為行業(yè)標準做出巨大貢獻。
TensorFlow Serving架構(gòu)
TensorBoard是TensorFlow的一組Web應(yīng)用,用來監(jiān)控TensorFlow運行過程,或可視化Computation Graph。TensorBoard目前支持5種可視化:標量(scalars)、圖片(images)、音頻(audio)、直方圖(histograms)和計算圖(Computation Graph)。TensorBoard的Events Dashboard可以用來持續(xù)地監(jiān)控運行時的關(guān)鍵指標,比如loss、學(xué)習(xí)速率(learning rate)或是驗證集上的準確率(accuracy);Image Dashboard則可以展示訓(xùn)練過程中用戶設(shè)定保存的圖片,比如某個訓(xùn)練中間結(jié)果用Matplotlib等繪制(plot)出來的圖片;Graph Explorer則可以完全展示一個TensorFlow的計算圖,并且支持縮放拖曳和查看節(jié)點屬性。TensorBoard的可視化效果如圖2-3和圖2-4所示。
TensorBoard的loss標量的可視化
TensorBoard的模型結(jié)構(gòu)可視化
TensorFlow擁有產(chǎn)品級的高質(zhì)量代碼,有Google強大的開發(fā)、維護能力的加持,整體架構(gòu)設(shè)計也非常優(yōu)秀。相比于同樣基于Python的老牌對手Theano,TensorFlow更成熟、更完善,同時Theano的很多主要開發(fā)者都去了Google開發(fā)TensorFlow(例如書籍Deep Learning的作者Ian Goodfellow,他后來去了OpenAI)。Google作為巨頭公司有比高校或者個人開發(fā)者多得多的資源投入到TensorFlow的研發(fā),可以預(yù)見,TensorFlow未來的發(fā)展將會是飛速的,可能會把大學(xué)或者個人維護的深度學(xué)習(xí)框架遠遠甩在身后。
深度學(xué)習(xí)研究的熱潮持續(xù)高漲,各種開源深度學(xué)習(xí)框架也層出不窮,其中包括TensorFlow、Caffe、Keras、CNTK、Torch7、MXNet、Leaf、Theano、DeepLearning4、Lasagne、Neon,等等。然而TensorFlow卻殺出重圍,在關(guān)注度和用戶數(shù)上都占據(jù)絕對優(yōu)勢,大有一統(tǒng)江湖之勢。
上圖為各個開源框架在GitHub上的數(shù)據(jù)統(tǒng)計(數(shù)據(jù)統(tǒng)計于2017年1月3日),可以看到TensorFlow在star數(shù)量、fork數(shù)量、contributor數(shù)量這三個數(shù)據(jù)上都完勝其他對手。究其原因,主要是Google在業(yè)界的號召力確實強大,之前也有許多成功的開源項目,以及Google強大的人工智能研發(fā)水平,都讓大家對Google的深度學(xué)習(xí)框架充滿信心,以至于TensorFlow在2015年11月剛開源的第一個月就積累了10000+的star。其次,TensorFlow確實在很多方面擁有優(yōu)異的表現(xiàn),比如設(shè)計神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的代碼的簡潔度,分布式深度學(xué)習(xí)算法的執(zhí)行效率,還有部署的便利性,都是其得以勝出的亮點。如果一直關(guān)注著TensorFlow的開發(fā)進度,就會發(fā)現(xiàn)基本上每星期TensorFlow都會有1萬行以上的代碼更新,多則數(shù)萬行。產(chǎn)品本身優(yōu)異的質(zhì)量、快速的迭代更新、活躍的社區(qū)和積極的反饋,形成了良性循環(huán),可以想見TensorFlow未來將繼續(xù)在各種深度學(xué)習(xí)框架中獨占鰲頭。
觀察可以發(fā)現(xiàn),Google、Microsoft、Facebook等巨頭都參與了這場深度學(xué)習(xí)框架大戰(zhàn),此外,還有畢業(yè)于伯克利大學(xué)的賈揚清主導(dǎo)開發(fā)的Caffe,蒙特利爾大學(xué)Lisa Lab團隊開發(fā)的Theano,以及其他個人或商業(yè)組織貢獻的框架。另外,可以看到各大主流框架基本都支持Python,目前Python在科學(xué)計算和數(shù)據(jù)挖掘領(lǐng)域可以說是獨領(lǐng)風(fēng)騷。雖然有來自R、Julia等語言的競爭壓力,但是Python的各種庫實在是太完善了,Web開發(fā)、數(shù)據(jù)可視化、數(shù)據(jù)預(yù)處理、數(shù)據(jù)庫連接、爬蟲等無所不能,有一個完美的生態(tài)環(huán)境。僅在數(shù)據(jù)挖據(jù)工具鏈上,Python就有NumPy、SciPy、Pandas、Scikit-learn、XGBoost等組件,做數(shù)據(jù)采集和預(yù)處理都非常方便,并且之后的模型訓(xùn)練階段可以和TensorFlow等基于Python的深度學(xué)習(xí)框架完美銜接。
下面對主流的深度學(xué)習(xí)框架TensorFlow、Caffe、CNTK、Theano、Torch在各個維度進行了評分。
本文選自《TensorFlow實戰(zhàn)》,點此鏈接可在博文視點官網(wǎng)查看此書。
想及時獲得更多精彩文章,可在微信中搜索“博文視點”或者掃描下方二維碼并關(guān)注。
本文題目:TensorFlow與主流深度學(xué)習(xí)框架對比
轉(zhuǎn)載注明:http://chinadenli.net/article40/cjspho.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供定制開發(fā)、關(guān)鍵詞優(yōu)化、網(wǎng)站設(shè)計公司、建站公司、網(wǎng)站建設(shè)、搜索引擎優(yōu)化
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)