?

基于深度學習的服裝圖案刺繡風格化設計探析

2023-12-08 15:34李圓陳志豪張慧于淼
武漢紡織大學學報 2023年5期
關鍵詞:風格化刺繡深度學習

李圓 陳志豪 張慧 于淼

摘 要:為了將基于深度學習的圖像風格遷移技術引入紡織服裝中刺繡元素設計領域,拓展刺繡在服裝中的創新思路和表現形式,本文利用DIN算法進行服裝圖案風格遷移處理,將圖像風格化處理技術應用到服裝圖案設計中,對服裝圖案進行圖案刺繡風格化處理,在實現服裝圖案的刺繡化效果的同時減少人力物力的投入。與基于AdaIN算法的圖像風格化處理相比,較好的保留了原圖的結構且更顯自然,驗證了該方法的有效性。研究認為DIN算法在服裝圖案刺繡風格化處理上具有一定可行性,可利用圖像風格遷移技術更好的實現刺繡在服裝設計中的應用與研究。

關鍵詞:刺繡;風格化;DIN算法;AdaIN算法;深度學習

中圖分類號:TP391 文獻標識碼:A 文章編號:2095-414X(2023)05-0009-08

0? 引言

基于深度學習的圖像風格遷移技術利用卷積神經網絡淺層卷積層提取圖片風格信息與深層卷積層提取圖片內容信息的特性,將圖片的風格與內容分離開,重新整合得到新圖片,將一張普通的圖片變成帶有藝術家風格的圖片,賦予普通圖片藝術感和文化內涵。將圖像風格遷移技術與服裝領域的圖案設計相結合,是將大眾的需求、設計師的創意、時代的流行文化融合在一起的一種行為方式[1],可以節省設計師創作時間,減少大量人力、資金的投入。Gatys等[2]于2015年首次提出了一種與深度學習相結合的風格遷移算法,他們只通過Visual Geometry Group(VGG)這一損失網絡來提取特征,雖然遷移效果很好,但其迭代速度慢,且不能實時處理。Johnson等[3]最先提出對模型進行迭代優化的風格遷移算法,將網絡分為圖像生成網絡和損失網絡兩種,對損失函數優化并產生圖像,速度比之前提升了幾百倍。Zhu等[4]提出了一種基于GAN的CycleGAN無監督對抗網絡,使用循環一致性來約束和保證圖像的內容,可以通過僅訓練兩種類型的輸入圖像來獲得訓練模型,具有廣泛的應用。Huo等[5]提出了一種雙分支可學習轉移機制,同時考慮了一階和二階圖像統計的互補優勢捕獲一致的風格保留更多結構細節,使風格遷移圖片具有逼真的效果和更高效率。Xu等[6]提出了IFFMStyle圖像風格遷移框架,能過濾掉圖像中與結構無關的次要特征,更好地保留原始內容特征和局部結構,顯著提高了生成圖像的質量,顯著改善了紋理失真和不均勻的色彩分布。Ding等[7]提出小波分解的方法有效抑制圖像風格遷移造成的失真并產生了自然的效果。

有很多學者將基于深度學習的風格遷移應用在服裝領域。邱德府[8]通過改進的CycleGAN算法提出對童裝服裝款式進行風格轉移,為童裝服裝設計提供更多的設計風格參考。徐暢[9]將服裝的紋理、圖案、顏色、材質等服裝創意設計元素同時遷移到服裝圖像中,來輔助服裝設計者進行創意設計。董學良[10]基于Gycle GAN和卷積神經網絡改進服裝局部風格遷移方法,改善局部服裝圖像風格遷移的效果,提高局部服裝圖像風格遷移的速度。服裝圖像遷移容易存在紋理不清晰,內容扭曲,遷移后顏色與風格圖片不一致。而刺繡作為藝術品在服裝設計中存在難以批量生產、制作成本較高等問題。利用合適的算法將圖像風格遷移技術引入服裝圖案中,使服裝圖案呈現出刺繡風格,能夠彌補傳統刺繡難以滿足服裝大規模需求的局限。

本文利用DIN算法,從可行性、可讀性、有窮性以及健壯性這幾個角度進行算法設計,確定科學合理的算法實現,進行一系列風格化設計模擬實驗來測試其功能的耐久性以及有效性,搭建基于DIN算法的風格遷移模型,最后篩選合適的服裝圖案進行刺繡風格化處理。DIN算法能夠將一般圖案進行不同的風格化處理,將其應用到服裝中,能夠使服裝圖案呈現出新的風格。將中國傳統刺繡文化與服裝圖案相結合,實現多樣化的刺繡圖案設計。

1基于深度學習的圖像風格遷移

1.1基于深度學習的圖像風格遷移技術

風格遷移指的是兩個不同域中圖像的轉換,簡單來說就是通過一定的算法使一張圖片在保證其本身內容不變的情況下,最大程度地轉換成另外一張圖片的風格,也可以被認為是一種圖像編輯過濾。圖像風格遷移旨在將內容圖像的筆觸、紋理和顏色轉換為另一張風格圖片的同時保留內容圖像的場景。從遵守藝術規則的角度出發,借助計算機算法來模擬藝術家的創作風格,達到非真實感繪制的目的,從而擺脫照片一樣的復制粘貼感,生成在視覺特性上與真實藝術作品更加相似的圖像,賦予普通圖片藝術感和文化內涵。

圖像風格遷移就是將一張圖片A給人的感覺替換成另一張圖片B的感覺,最終生成圖片C,其同時具有A圖片的內容和B圖片的風格,如圖1所示。

從2015年與深度學習算法相結合的圖像風格遷移技術開始興起,至今已取得了飛速的進步,無論是在理論層面還是算法實踐上都有相關學者不斷研究改進,遷移效率得到了很大提升?;谏疃葘W習風格遷移技術主要包括兩種類型,分別是基于在線圖像優化的慢速風格遷移和基于離線模型迭代的快速風格遷移,這兩種遷移方式的主要區別如表1所示。

慢速風格遷移大致可分為三種方法:基于深度圖像類比[11]、基于馬爾可夫隨機場[12]、基于最大均值差異[13]。這些遷移方式的原理都是針對圖像的像素完成迭代優化,遷移速度非常慢,每次遷移都需要重新對風格圖與內容圖進行訓練,雖然生成圖片的遷移效果很好,但是實用性不高,性價比相對來說比較低,無法大規模推廣應用。

為了解決遷移速度慢的問題,在相關學者不斷探索改進中產生了基于模型迭代的快速風格遷移,且應用范圍較廣??焖賵D像風格化遷移算法主要解決速度問題,核心思想就是利用基于離線模型優化的快速圖像重建方法對風格化結果進行重建,基于預先訓練前向網絡來解決計算量大、速度慢的問題,按照一個訓練好的前向網絡能夠學習到的風格的數量進行劃分,可以把快速風格遷移分成單模型單風格遷移、單模型多風格遷移、單模型任意風格遷移三種[14]。

單模型單風格遷移是最早的能實現快速風格遷移的算法。該方法基于模型迭代訓練出了一個生成模型,之后只需要用戶輸入內容圖片即可完成模型對應的風格的遷移。這種遷移方法的缺點是只能生成這一種特定風格的圖片,如果想要其他風格的,就需要再重新訓練一個模型,雖然遷移效率大大提升,但擴展應用性不強。

單模型多風格遷移通過引入一個仿射變換,將圖像中的風格標準化成另一個風格,從而實現了一個模型可以學習多個風格。雖然它與單模型單風格遷移相比,已經有了很大的進步,但能遷移的風格數量還是有限,對于一組新的風格,仍然需要額外的訓練時間。

單模型任意風格遷移是一種發展比較成熟的快速遷移算法,它能做到只需要訓練一個前向網絡就可以學習到任意風格,解決了風格預定義的問題,目前已經能夠實現實時的任意風格遷移,而且也取得了較好的遷移效果。

1.2圖像風格遷移技術的網絡架構

圖像風格遷移是基于卷積神經網絡(CNN算法)進行的,經典的CNN模型有AlexNet、GoogleNet、VGGNet和ResNet。下面以應用較多的VGGNet-19為例,介紹卷積神經網絡的主要結構。如圖2所示,是VGG-19網絡結構圖,5個VGG塊的卷積層數量分別為(2, 2, 4, 4, 4),再加上3個全連接層,總的參數層數量為19,因此叫VGG-19。黑色的部分(1至

16)是Conv卷積層+ReLU激活函數層,分別負責提取特征和加強特征;紅色的部分是MaxPool池化層,通過最大池化實現特征壓縮;最后三個(17至19)是Linear全連接層+ReLU激活函數層,負責將學習到的圖像特征表示進行整合映射。輸入一張圖片hwc=2242243(h代表圖像像素有幾行,w代表圖像像素有幾列,c代表通道數,為RGB三通道),經過每一次最大池化后高和寬都會變小,所以會在下一次卷積的時候通過特征圖數量翻倍,即增加通道數來彌補高和寬變小帶來的信息損失,每一層神經網絡都會利用上一層的輸出來進一步提取更加復雜的特征,從而達到提取到原圖像多種特征的目的。

2基于深度學習的服裝圖案刺繡風格化處理—DIN算法

2.1DIN算法及其功能

DIN算法的全稱為:Dynamic Instance Normal- ization,即動態實例規范化。DIN算法包括實例歸一化和動態卷積,可以將樣式圖像編碼為可學習的卷積參數,在此基礎上將內容圖像風格化。DIN能夠進行靈活且?有效的任意風格轉換。DIN與使用共享復雜編碼器編碼內容和風格的傳統方法不同,DIN引入了一個復雜的風格編碼器來表達復雜而豐富的風格模式,并且附帶了一個緊湊和輕量級的內容編碼器以進?快速推?,可以用于快速風格化[15]。網絡結構主要由三個模塊組成:圖像編碼器、動態實例規范化層和圖像解碼器。

動態實例規范化層包括一個實例歸一化和一個動態卷積操作(圖3)。在這里,卷積類型包括但不限于標準卷積、可變性卷積和分組卷積。其中weight net和bias net由簡單的卷積層和自適應池化層構成。其中weight net和bias net由簡單的卷積層和自適應池化層構成。公式如下:

DIN(FcL)=IN(FcL)?WL+bL。(1)

其中,Fc是內容輸入的特征圖,L是特定層,W是學習到的權重矩陣,b是學習到的偏置向量。IN(*)是實例歸一化操作,公式如下:

(2)

根據該公式,可以看出利用DIN操作學習到的W其實就是風格的標準差,b是風格均值。

DIN使利用一個復雜的樣式編碼器來表達復雜和豐富的風格化模式成為一種可能。有了提出的DIN層,能夠進行任意風格的轉移,且花費更少的計算成本。此外,DIN支持各種卷積操作,因此實現了新的傳輸功能,包括自動空間沖程控制和對非自然圖像的均勻沖程放置。

2.2實驗過程

我們把日常生活中常用作服裝圖案的圖像當作原片,然后對其施加特定的刺繡風格,而刺繡風格本身也是以圖片的形式,依托DIN算法構建一個VGG模型把服裝圖案生成為具有刺繡藝術風格的作品[16]。

2.2.1 預處理

訓練時的內容圖使用的是COCO數據集,部分圖片展示如圖4。風格圖片使用了50余種刺繡風格圖像,部分圖片展示如圖5。

圖片數據均為RGB三通道彩色圖片,格式均為.jpg。但圖片的大小格式不一,需要對圖片進行預處理。首先將圖片裁剪成256256,并進行圖像增強處理,定義反歸一化函數以及最核心的數據集準備類等對圖像進行縮放等調節,使其適于模型處理。

DIN層的濾波器大小設置為1 × 1。我們使用感知損失[17]作為內容損失,使用BN統計損失[18]作為風格損失,使用預先訓練的VGG-19作為損失網絡,圖像編碼器和解碼器的學習率都設置為0.0001。DIN層中的權重和偏差網絡設置為具有10×學習率,以便更快地收斂。

2.2.2構建模型

根據DIN算法的概念構建一個VGG模型,依托VGG-19 network模型,包含了16個卷積層,一共分為五個卷積階段。卷積層數越多,風格遷移的效果就越好,如果繼續增加卷積層,實現的刺繡風格越逼真,但同時其編碼的工作量也會大大增加。

2.3實驗結果

通過一系列卷積實驗,除去效果差以及算法未計算出的圖片外,我們收集到了約40張成品圖像。具體來說,對于內容圖像,其中包含了大致相同數量的四種類別:靜物照片、肖像照片、動漫照片和風景照片。肖像照片模擬之后,會造成面部特征損失或扭曲,造成圖像內容缺失,影響觀感。風景照片的模擬結果雖能夠顯現刺繡風格,但是失去了風景原有的色彩,這便失去了它的藝術性,所以是無法應用到服裝中去的。動漫照片則較好的保留原圖像內容又賦予刺繡風格,并具有一定藝術性和觀賞性。對于刺繡風格圖像,我們主要使用了中國四大名繡即蘇繡、湘繡、粵繡和蜀繡,以及民間的一些色彩比較和諧、紋理比較突出的圖像。對照片風景模擬時,選擇的刺繡圖像內容盡量是紋樣圖案,對靜物照片模擬時盡量選擇具有相同實物內容的刺繡圖。對內容圖進行風格化處理時,盡量選擇有相同顏色特征的刺繡風格圖,使生成效果圖具有較為和諧的色彩。

比較得到的成品圖像圖6和圖7,發現成品的風格化效果首先與內容圖像的分辨率息息相關,分辨率越高的圖像風格化的效果就越好,反之則越差。這是由于刺繡的紋理比較細膩,如果內容圖像的分辨率太低就會導致風格化的效果變差,便無法看出刺繡的紋理。其次,算法的復雜性與精確性也是一個關鍵因素,這里來講是在算法可行的情況下進行風格化實驗的。算法太過冗長,計算時間過長,反復卷積會導致內容圖像扭曲,自然風格化效果就會變差。算法不夠精確時就不能夠生成刺繡風格清晰的細節紋理,在使用更加豐富的風格模式時不夠有效。

2.4服裝圖案刺繡風格化處理對比試驗—AdaIN算法

AdaIN的訓練類似于DIN,不同的是AdaIN操作不需要訓練,而DIN內部包含了需要訓練的 weight net 和 bias net 部分,因此本文將基于DIN算法的圖案刺繡風格化與基于AdaIN算法的圖案風格化相對比分析。

2.4.1實驗模型結構

基于AdaIN[19]算法的圖案風格化處理實驗中所用的網絡結構如圖8所示,內容圖片通過圖像轉換網絡輸出生成圖片,然后生成圖片與內容圖片、風格圖片一起通過損失函數網絡計算總損失,通過使總損失函數最小化,對圖像生成網絡進行梯度下降,以此來優化參數模型,從而達到最好的遷移效果。

圖8? AdaIN算法工作原理簡單示意圖

先用VGG-19提取風格圖片和內容圖片的特征,在AdaIN模塊進行如公式所示的操作,將內容圖片的方差和均值對齊到風格圖的方差和均值:

(3)

其中,x表示內容圖特征,y表示風格圖特征,都是用矩陣的形式來表示。μ(x)和σ(x)分別代表內容圖特征的均值和標準差,μ(y)和σ(y)分別代表風格圖特征的均值和標準差。

然后在解碼器(Decoder)中將特征再還原成圖片,之后將還原的圖片輸送到損失函數網絡,計算損失值的大小,具體計算方法如公式所示[20]:

(4)

(5)

(6)

其中, 是總損失, 是內容損失, 是風格損失, 是編碼器Encoder, 是解碼器Decoder, 是經過AdaIN層后產生的目標圖片, 是指經過VGG-19的某一層提取的特征。

2.4.2? 實驗過程

訓練時的內容圖和風格圖數據集同DIN算法訓練模型一致。然后定義計算空間維度的均值和標準差的函數,對AdaIN算法進行實現,每迭代10000次保存一次結果圖和權重。最后,在訓練完成后進行測試并通過反歸一化函數生成我們肉眼可見的可視化圖片。

3? 結果對比分析

3.1? 定性結果分析

3.1.1? 生成圖片對比

通過對比試驗結果如圖9、圖10所示,發現相較于AdaIN風格遷移模型,基于DIN算法獲得的風格化圖片具有刺繡特征、較清晰的內容,較好的保留了風格圖像的顏色和紋理。

3.1.2? 服裝效果對比

最后,利用Photoshop軟件將得到的幾張效果比較好的風格圖片模擬到日常穿著比較多的黑白短袖上,如圖11和圖12。我們的設計思路是將得到的風格圖片當作印花使用的圖片印在衣服的后背,這與當前市場國潮元素盛行的思路相仿,衣服前則是使用了“國潮計劃”這四個字當作logo,更能體現出刺繡文化作為傳統文化的瑰寶在當今市場國潮復蘇的行情下的回暖情況。

從圖片可以看出,上身效果具有一定的藝術性和觀賞性,如果能夠引入現代的服裝市場可能會有不錯的經濟效益。將基于DIN算法獲得風格化圖片與基于AdaIN獲得的風格圖片服裝效果相對比,如圖13和圖14,發現基于DIN算法獲得的風格化圖片在服裝上更顯自然和諧。

此外,將刺繡元素與現代服裝融合的手段是多元化的,在這里采用的是印花的方式,因為已經將服裝圖案刺繡風格化了,就不用再采用繡花方式,在市場上更具經濟效益。

3.2定量結果分析

本文使用以下5個指標來評估風格化圖像的質量。結構相似性SSIM[20]是一種衡量兩幅圖像相似度的指標。SSIM實際上是測量兩個相似圖像之間的感知差異,主要用于檢測兩張相同尺寸的圖像的相似度、或者檢測圖像的失真程度。SSIM算法主要通過分別比較兩個圖像的亮度、對比度、結構,然后對這三個要素加權并用乘積表示,數值較高意味著兩個圖像之間更好的結構相似性。峰值信噪比PSNR[21]用于衡量兩張圖像之間差異,PSNR數值越高,則兩圖像相似度更高。均方誤差MSE[22]反映的是變量間的差異程度,是真實值與預測值的差值的平方然后求和平均,一種基于像素誤差的圖像質量客觀評價指標,用于衡量融合圖像和理想參考圖像之間的差異。MSE越小,表示融合圖像質量越好。均方根誤差RMSE在MSE的基礎上做平方根,衡量觀測值與真實值之間的偏差。信息熵entropy[23]主要是度量圖像包含信息量多少的一個客觀評價指標。信息熵越高表示融合圖像的信息量越豐富,質量越好。

如表2所示,基于DIN算法獲得風格化圖片在結構相似性、峰值信噪比和信息熵方面得分都比基于AdaIN獲得風格化圖片得分要高。說明基于DIN風格模型生成的圖像與內容圖像具有較高的相似性,風格化圖像質量較高,信息量較為豐富。在均方誤差和均方根誤差上基于DIN 算法的風格化方法得分為3214.0799和62.1414,得分比另一個方法低,說明該方法風格圖和內容圖融合質量較好,觀測值與真實值偏差較小。使用基于DIN算法獲得的風格化圖片在這幾個指標中具有優異的性能,即可以更好地保留內容圖像的結構,又使圖像具有刺繡的風格。

4結論

隨著時代的發展,人們審美情趣的提高以及對中國傳統文化的熱忱,將刺繡文化與服裝圖案相結合的風格化藝術表現效果已然成為大眾的要求。將風格化的思想使用到服裝設計中,傳統服裝與現代服裝的橋梁將被打通,現代服裝的設計就更能體現出中國的優秀傳統文化。使用DIN算法可以更靈活、更高效的實現內容圖像的刺繡風格化。我們所利用的DIN算法使用了一個復雜的樣式編碼器來編碼豐富的樣式模式和一個輕量級的內容編碼器來提高卷積效率,從結果表明,使用該方法得到了較為滿意的效果,特別是在模擬色彩紋理不夠突出的一些刺繡風格模式時,也能夠獲得不錯的結果,相較于傳統算法有著非常輕的計算成本。此外,能夠實現圖像風格化的實現方式有很多,每種方式都有著其特殊的優勢和劣勢,至于后續服裝領域會采用哪種方式來進行風格化操作,這還需要綜合維護成本及用戶需求等因素來考慮,這里我們采用DIN算法來實現刺繡風格化,僅僅作為進行刺繡風格化的一個嘗試,為未來服裝領域應用刺繡風格的服裝圖案打下一定的基礎。

參考文獻:

王君. 基于風格化圖像處理和個性化定制需求的絲巾設計[D]. 杭州:浙江理工大學,2018.

Gatys L A, Ecker A S, Bethge M. A Neural Algorithm of Artistic Style[J]. Journal of Vision,2016,16(12):326.

Johnson J , Alahi A , Fei-Fei L . Perceptual Losses for Real-Time Style Transfer and Super-Resolution[A]. European Conference on Computer Vision[C]. Springer, Cham, 2016.

Zhu J Y, Park T, Isola P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[A].Proceedings of the IEEE international conference on computer vision[C]. 2017. 2223-2232.

Huo Z, Li X, Qiao Y, et al. Efficient photorealistic style transfer with multi-order image statistics[J]. Applied Intelligence, 2022, 1-13.

Xu Z, Hou L, Zhang J. IFFMStyle: High-Quality Image Style Transfer Using Invalid Feature Filter Modules[J]. Sensors, 2022, 22(16): 6134.

Ding H, Fu G, Yan Q, et al. Deep attentive style transfer for images with wavelet decomposition[J]. Information Sciences, 2022, 587: 63-81.

邱德府. 基于機器學習的童裝服裝智能設計方法研究[D].泉州:華僑大學,2020.

徐暢. 面向服裝創意設計的圖像風格遷移方法研究[D].昆明:昆明理工大學, 2021.

董學良. 基于深度學習的局部服裝圖像風格遷移研究[D].武漢:武漢紡織大學,2022.

Ulyanov D, Lebedev V, Vedaldi A, et al. Texture Networks: Feed-forward Synthesis of Textures and Stylized Images[J]. International Conference on Machine Learning, 2016,48:1349-1357.

Li C, Wand M. Precomputed Real-Time Texture Synthesis with Markovian Generative Adversarial Networks[A]. European conference on computer vision[C]. Springer, Cham, 2016. 702-716.

陳淑環, 韋玉科, 徐樂,等. 基于深度學習的圖像風格遷移研究綜述[J]. 計算機應用研究, 2019, 36(8):6.

Jing Y, Yang Y, Feng Z, et al. Neural Style Transfer: A Review[J]. IEEE Transactions on Visualization and Computer Graphics, 2020,26(11):3365-3385.

Jing Y, Liu X, Ding Y, et al. Dynamic Instance Normalization for Arbitrary Style Transfer[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(4):4369-4376.

Chen T Q, Schmidt M. Fast patch-based style transfer of arbitrary style[J]. International Conference on Machine Learning, 2016,10: 48550.

Johnson J, Alahi A, Fei-Fei L. Perceptual losses for real-time style transfer and super-resolution[A].European conference on computer vision[C]. Springer, Cham, 2016. 694-711.

Li Y, Wang N, Liu J, et al. Demystifying neural style transfer[J]. arXiv, 2017,arXiv:1701.01036.

Huang X , Belongie S . Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization[A]. 2017 IEEE International Conference on Computer Vision (ICCV)[C]. IEEE, 2017.

Wang Z, Bovik AC, Sheikh HR, et al. Image quality assessment: from error visibility to structural similarity [J]. IEEE transactions on image processing, 2004,13(4): 600-610.

Setiadi, DIM. PSNR vs SSIM: imperceptibility quality assessment for image steganography[J]. Multimed Tools Appl 80, 2021:8423-8444.

Glentis G O , Slump C H , Herrmann O E . A true order recursive algorithm for two-dimensional mean squared error linear prediction and filtering[A]. Signal Processing[C]. Elsevier B.V. 2000. 1399-1418.

Sparavigna AC. Entropy in Image Analysis[J]. Entropy, 2019, 21(5):502.

Analysis on Style Design of Garment Pattern Embroidery Based on Deep Learning

LI Yuan, CHEN Zhi-hao, ZHANG Hui, YU Miao

(College of Textile and Clothing, Qingdao University, Qingdao Shandong 266071, China)

Abstract:In order to introduce the image style transfer technology based on deep learning into the field of embroidery element design in textile and clothing, and expand the innovative ideas and expression forms of embroidery in clothing. In this paper, the use of DIN algorithm for clothing pattern style migration processing, image stylized processing technology applied to clothing pattern design, clothing pattern embroidery stylized processing, in therealization of clothing pattern embroidery effect at the same time to reduce the input of manpower and material resources. Compared with the image stylization processing based on AdaIN algorithm, the structure of the original image is better preserved andmore natural, which verifies the effectiveness of this method. The study shows that DIN algorithm has a certain feasibility in fashion pattern embroidery stylization processing, and image style transfer technology can be used to better realize the application and research of embroidery in fashion design.

Keywords:Embroidery;Stylized; DIN algorithm;AdaIN algorithm; Deep learning

(責任編輯:李強)

*通訊作者:于淼(1984-),女,副教授,博士,研究方向:服裝舒適性與功能防護服裝.

基金項目:國家自然科學基金(52073151);山東省自然科學基金(ZR2019PEE022);中國紡織工業聯合會科技指導性項目(2018078);教育部產學合作協同育人項目(202101102013);紡織行業智能紡織服裝柔性器件重點實驗室開放課題(SDHY2106).

猜你喜歡
風格化刺繡深度學習
基于深度神經網絡的圖像風格化方法綜述
貴州劍河 多彩刺繡添技增收
清新唯美的刺繡
李雅華:精美的石頭能“刺繡”
修拉的點的可能性與不可能性
淺析插畫造型的風格化表現
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
基于深度卷積網絡的人臉年齡分析算法與實現
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合