keras如何實現(xiàn)圖像風格轉換 -,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設,南澳企業(yè)網(wǎng)站建設,南澳品牌網(wǎng)站建設,網(wǎng)站定制,南澳網(wǎng)站建設報價,網(wǎng)絡營銷,網(wǎng)絡優(yōu)化,南澳網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。
說到深度學習的應用,第一個想到的就是Prisma App的圖像風格轉換。既然感興趣就直接開始干,讀了論文,一知半解;看了別人的源碼,才算大概了解的具體的實現(xiàn),也驚嘆別人的奇思妙想。
論文可以參考【A Neural Algorithm of Artistic Style】,網(wǎng)上也有中文的版本。
http://arxiv.org/abs/1508.06576
使用的工具:py34、keras1.1.2、theano0.8.2、GeForce GT 740M (CNMeM is disabled, cuDNN not available)。
實現(xiàn)流程如下,可以看到這里總共分為5層,本次實驗使用vgg16模型實現(xiàn)的。
如上,a有個別名是conv1_1
,b是conv2_1
,依次類推,c,d,e對應conv3_1
,conv4_1
,conv5_1
;輸入圖片有風格圖片style image
和內容圖片content image
,輸出的是就是合成圖片,然后用合成圖片為指導訓練,但是訓練的對象不像是普通的神經網(wǎng)絡那樣訓練權值w
和偏置項b
,而是訓練合成圖片上的像素點,以達到損失函數(shù)不斷減少的效果。論文使用的是隨機的噪聲像素圖為初始合成圖,但是使用原始圖片會快一點。
下面是content loss函數(shù)的定義。
l
代表第l層的特征表示,p
是原始圖片,x
是生成圖片。公式的含義就是對于每一層,原始圖片生成特征圖和生成圖片的特征圖的一一對應做平方差。
在定義風格損失函數(shù)之前首先定義一個Gram矩陣。
F
是生成圖片的特征圖。上面式子的含義:Gram第i行,第j列的數(shù)值等于把生成圖在第l
層的第i
個特征圖與第j
個特征圖分別拉成一維后相乘求和。
上面是風格損失函數(shù),Nl
是指生成圖的特征圖數(shù)量,Ml
是圖片寬乘高。a
是指風格圖片,x
是指生成圖片。G
是生成圖的Gram矩陣,A
是風格圖的Gram矩陣,wl
是權重。
總損失函數(shù)如下,alpha
與beta
比例為1*10^-3
或更小。
可以看出效果每一代都有進步,因為自己的顯卡渣,跑一代估計要1.5個小時,自己測試的時候總共跑了14個小時,不過這里有個技巧,就是可以把上一代的圖片繼續(xù)做輸入,這樣中途有什么事就可以停止。下次只要把上次輸出的圖片當輸入就可以。
vgg16模型加載原項目的權值。
具體項目代碼可見githua上的代碼、權值文件和測試圖片,因為中途修改過,可能有些地方需要改過來,不過代碼比較簡單,估計很快就可以找到問題了。
看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)的支持。
文章名稱:keras如何實現(xiàn)圖像風格轉換-
當前地址:http://chinadenli.net/article24/joscce.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站設計、微信公眾號、Google、微信小程序、網(wǎng)站設計公司、網(wǎng)頁設計公司
聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)