所以
1。處理器i5i7正常。代數(shù)越高越好。
PyTorch和Gluon有什么區(qū)別?3。顯卡有不同的看法。最好是玩游戲和深入學(xué)習(xí)。日常辦公要求不多。
blockquote>感興趣的可以關(guān)注一下哦,也可以關(guān)注公眾號(hào)“平凡而詩(shī)意”。pytorch和gluon有相同點(diǎn),也有不同點(diǎn)。
相同點(diǎn)兩個(gè)多都是深度學(xué)習(xí)平臺(tái),都可以用于卷積神經(jīng)網(wǎng)絡(luò)、RNN等深度學(xué)習(xí)模型的搭建、訓(xùn)練、學(xué)習(xí)等工作。
不同點(diǎn)首先,提供支持的公司不同,pytorch是Facebook的,gluon是亞馬遜的。
然后,類(lèi)型定位不同,如果詳細(xì)劃分,pytorch是一個(gè)比較靈活的后端深度學(xué)習(xí)平臺(tái),和tensorflow、mxnet這些算是一個(gè)類(lèi)型,而gluon是一個(gè)高度集成的前端平臺(tái),和keras一個(gè)類(lèi)型的,也就是說(shuō),gluon的一個(gè)函數(shù)或?qū)ο蠹闪薽xnet的多個(gè)函數(shù),gluon的一條命令能夠完成mxnet的一堆任務(wù),就想keras以tensorflow為后端一樣,keras高度集成了tensorflow這些后端平臺(tái)的函數(shù)。
其次,是編程方式,pytorch是基于命令式編程,簡(jiǎn)單但速度有限,gluon結(jié)合了符號(hào)式編程和命令式編程,兼?zhèn)渌俣群秃?jiǎn)潔。
最后,是靈活度,pytorch集成度沒(méi)有g(shù)luon那么高,所以高度可定制,gluon集成度太高,所以靈活度有限。
兩者都是深度學(xué)習(xí)平臺(tái),可用于卷積神經(jīng)網(wǎng)絡(luò)、RNN等深度學(xué)習(xí)模型的構(gòu)建、訓(xùn)練和學(xué)習(xí)。
首先,不同的公司提供支持。Python來(lái)自Facebook,glion來(lái)自Amazon。
那么,類(lèi)型定位就不同了。如果詳細(xì)劃分,Python是一個(gè)靈活的后端深度學(xué)習(xí)平臺(tái),tensorflow和mxnet被視為一種類(lèi)型,glion是一個(gè)高度集成的前端平臺(tái),keras是一種類(lèi)型。也就是說(shuō),glion的一個(gè)函數(shù)或?qū)ο蠹闪薽xnet的多個(gè)功能,glion的一個(gè)命令就可以完成mxnet的開(kāi)發(fā),就像keras使用tensorflow作為后端一樣,keras高度集成了這些后端平臺(tái)的功能。
其次,編程方法,Python是基于命令編程的,簡(jiǎn)單但速度有限,glion結(jié)合了符號(hào)編程和命令編程,既快又簡(jiǎn)單。
最后,靈活性。Python的集成度沒(méi)有g(shù)lion那么高,所以它是高度可定制的。膠子的集成度太高,靈活性有限。
分享名稱(chēng):pytorch實(shí)現(xiàn)圖像分類(lèi)運(yùn)行pytorch需要什么配置的電腦?-創(chuàng)新互聯(lián)
轉(zhuǎn)載來(lái)于:http://chinadenli.net/article22/cdhejc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供自適應(yīng)網(wǎng)站、品牌網(wǎng)站設(shè)計(jì)、面包屑導(dǎo)航、網(wǎng)站排名、建站公司、營(yíng)銷(xiāo)型網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容
網(wǎng)頁(yè)設(shè)計(jì)公司知識(shí)