?

基于深度學習建表的寬域發動機火焰面燃燒模型構建與驗證1)

2024-04-15 02:53于江飛連城閱汪洪波孫明波
力學學報 2024年3期
關鍵詞:算例火焰神經元

于江飛 連城閱 湯 濤 唐 卓 汪洪波 孫明波

(國防科技大學空天科學學院高超聲速技術實驗室,長沙 410073)

引言

高超聲速飛行器的飛行馬赫數通常在4~6 之間,飛行高度在20 km 以上,具備超短時間內全球到達、快速遠程打擊的能力,具有相當高的民用和軍用價值,而面向未來的新一代的寬速域高超聲速飛行器設計飛行速度更快.超燃沖壓發動機被認為是目前實現該類飛行器的最佳動力裝置.隨著計算機技術的長足發展,計算工具已經成為研發高效、高性能超燃沖壓發動機的關鍵因素,可與試驗手段結合加快研制進度.在現有的計算條件下,亟需適宜的模型和計算方式來精確有效地模擬超聲速湍流燃燒,應用火焰面模型來模擬超聲速湍流的燃燒過程是一種經濟可行的辦法.

火焰面模型是在Peters[1]對層流擴散火焰面的實驗中給出的,其假設化學反應無限大,反應區域也無限薄的火焰面模型,而當無熱輻射損失和擴散速率改變之后,火焰的熱力學狀態可以完全根據當地的混合狀況確定,因此一般用混合分數來說明當地的綜合狀況.將層流火焰的火焰面模型拓展至湍流的燃燒中,則湍流的火焰可以被看作層流擴散火焰的集合.同時,標量耗散率可反映化學非平衡效應的影響.當氣體均勻擴展時刻尺寸接近于化學反應時間尺寸時,將引起局部熄火;一旦隨著傳播時間尺度逐步縮小,就會發生整個湍流火焰的剝落甚至吹脫[2-5].進一步地,將火焰面模型推廣至超聲速流的合理性和可行性已經得到許多研究者的認可,并提出了多種可壓縮性修正[6-14].其中,以Oevermann[6]提出的溫度隱式求解方法最為經典,一度成為火焰面系列模型模擬超聲速反應流的標準方法.

通常,層流火焰面庫通過統計學方法實現與湍流流場的耦合,這樣預先生成的湍流火焰面數據庫在CFD 計算時被加載和查詢.因此,火焰面模型的關鍵優勢是即便涵蓋了成百上千種組分的輸運過程和詳盡的動力學反應信息,也不需要苛刻的時間和空間分辨率以及大量的求解時長,只需要求解兩個標量輸運方程,就可以避免有限速率模型中存在的高度非線性動力學問題.因此,火焰面模型在從低速到超聲速反應流中都有著廣泛的應用,并且在考慮詳細化學反應機理時有獨到的優勢,前景可謂廣闊[15-18].

深度學習和神經網絡是目前發展最快的研究和應用領域之一,吸引了眾多學科的興趣[19-21].陳爾達等[22]提出了一種基于殘差神經網絡的氫燃料超燃沖壓發動機零維燃燒反應動力學計算方法,能夠進行不同時刻溫度、壓力和組分濃度的快速預測.Guo 等[23]基于深度學習方法,搭建了一種融合壁面壓力和紋影圖像智能重構火焰發展過程的模型.這些方法有助于加速數值模擬的計算速度,為燃燒模型的智能化建立提供了新的研究思路.華為開發了盤古系列AI 大模型,其中包括NLP 大模型、CV 大模型和科學計算大模型,其中盤古氣象大模型提出(3D earthspecific transformer,3DEST)來處理復雜的不均勻3D 氣象數據,使用一個視覺Transformer 的3D 變種來處理復雜的不均勻的氣象要素,并且使用層次化時域聚合策略,訓練了4 個不同預報間隔的模型,實現了氣象預報精度首次超過傳統數值方法,速度提升1000 倍[24].

在回歸分析中,人工神經網絡模型(artificial neural networks,ANN)是學習過程中獲取的用于存儲和檢索數據的計算模型.ANN 是一種很有前途的建模技術,具有很好的逼近能力.與制表方法相比,ANN 的主要優勢在于其經濟高效、平滑的函數替代和適度的內存要求,因為只需存儲網絡的結構、神經元突觸的權重和偏差.將深度學習應用于超聲速燃燒火焰面模型,為傳統火焰面模型提供更加快速精準數值模擬的改進效果,在超燃沖壓發動機燃燒室快速設計的工程領域存在非常具有潛力的應用價值.

2005 年,Flemming 等[25]對Sandia D 火焰進行了模擬,這是ANN 取代火焰面表格的第一次應用.神經網絡的輸入是混合分數及其方差和標量耗散率.輸出是每種組分的質量分數(一個網絡對應一種組分),并確認了表格的內存需求大約是神經網絡需求的1300 倍.

Kempf 等[26]使用大渦模擬(LES)研究了擴散火焰的結構,采用一個由人工神經網絡替代了的穩態火焰面模型來計算作為混合分數函數的流場參數,通過改變網格分辨率并與實驗數據進行比較來評估結果的準確性,結果表明單點和兩點統計結果與實驗數據吻合良好.Ihme 等[27]使用兩種化學表示方法即傳統的結構化制表技術和ANN,對鈍體穩定的甲烷/氫火焰進行了LES 模擬,用于生成最佳人工神經網絡的方法(OANNs)[28]被用于這里的湍流反應流模擬.將該網絡性能與提高了分辨率的結構化制表方法性能進行比較,并討論了數值模擬過程中長期誤差累積對統計結果的影響.

Owoyele 等[29]提出了一種分組多目標ANN 方法,將其應用于(engine combustion network,ECN)噴霧A 火焰條件下的正十二烷噴霧火焰特征,并通過LES 分析在不同環境條件下的全局火焰特征,以進一步檢驗其方式.然后,他們將相同的框架擴展到壓燃式發動機中癸酸甲酯燃燒的模擬,給出了不同環境溫度下的點火延遲時間和火焰抬舉長度,并進行了基于ANN 的LES 計算和相同的框架進行四維線性插值,與實驗結果進行了20 次比較.

Zhang 等[30]提出了ANN 技術與火焰生成流形(flamelet generated manifolds,FGM)相結合,以緩解FGM 模型的內存耗費大的問題,并通過數值模擬檢驗了ANN 預測精度.ANN 模型預測的物種質量分數與 FGM 表之間的誤差稱為預測損失.應用均方誤差(MSE)損失函數來估計每個學習時期的預測損失.使用優化算法來減少模型的預測損失.他們所使用的優化算法是Adam,它通過隨機梯度的下降程序來改變權重和偏差.為了對所有物種模型使用統一的學習率,在訓練前將每個物種質量分數的范圍縮放到0~1.然后在預測過程中重新縮小.學習 epoch的數量為 30000,這對于每個物種網絡模型都是相同的.初始學習率設置為 0.001,并使用名為“ReduceLROnPlateau”的學習率調度器.ReduceLROn-Plateau 調度器允許當損失函數停止下降時動態降低學習速率.具體來說,一旦損失函數在100 個學習周期內停滯不前,學習率就會下降5 倍.首先,在混合分數-進程變量區間內,使用了68 個物質質量分數訓練的ANN 模型;從噴霧燃燒的LES 和雷諾平均納維-斯托克斯仿真(RANS)中能夠檢驗出ANN 的預測準確性.結果表明,目前的 ANN 模型可以正確地復制FGM 表的大多數物種質量分數.在RANS和LES 中,采用相對誤差小于5%的網絡模型模擬發動機燃燒網絡(ECN)噴霧H 火焰.首先在RANS框架下對該方法進行了驗證.結果表明,該方法能較好地預測不同環境溫度下噴霧和燃燒過程的變化趨勢.結果表明,FGM-ANN 可以精確地模擬FGM 點火延遲時間(IDT)和火焰抬舉長度(LOL),且與實驗結果吻合較好.在ANN 的幫助下,FGM 模型可以實現高效率和高精度,并顯著減少對內存的需求.

高正偉等[31]為了解決超臨界小火焰燃燒模型數據庫過于龐大,導致計算機內存不足和取值性能下降的問題,提出了使用ANN 進行建庫的超臨界小火焰/過程變量模型FPV-ANN,結果顯示在準確性與傳統FPV 方法一致的情況下,FPV-ANN 方法的計算速度比傳統方法提升了30%.

基于深度學習改進的超聲速燃燒模型[32-34],對于超聲速湍流燃燒的數值模擬具有更高效的計算能力和較好的預測結果.通過深度學習改進的超聲速湍流燃燒模型應用于超聲速湍流燃燒計算,可以大大減輕氣相計算的負載,必將為提高湍流數值模擬的計算效率和精度奠定基礎.通過神經網絡模型替代火焰面模型數據庫,緩解內存占用壓力,對之后的更高維度以及多組分火焰面模型應用于湍流燃燒模型仿真具有良好的潛在應用價值.

本文基于開源深度學習框架 PyTorch 建立神經網絡模型,版本是Python3.6,Torch1.9 和Cuda11.1建立神經網絡模型,訓練模型使用的數據庫由FlameMaster 軟件生成,然后探究拓撲結構與神經網絡不同函數對ANN 模型精度和效率的影響.最后選取飛行馬赫數為4~12 的3 個發動機燃燒算例對改進后的模型進行測試和驗證.

1 人工神經網絡模型構建

在回歸分析中,人工神經網絡模型是在學習過程中獲得用以存儲檢索數據的計算模型.在ANN 框架中,每個組分的質量分數以及進度變量源項QC和釋熱率HRR 不是從FPV 表中插值,而是從一個預先訓練的ANN 模型中計算得到.

1.1 數據庫劃分

以氫氣/空氣燃燒為例,通過FlameMaster 得到的數據庫作為樣本集,數據信息包括混合分數Z,進度變量C,混合分數方差Z'',9 組分質量分數即: O2,H2O,H2,O H,O,H,H2O2,H O2和 N2,進度變量源項QC和釋熱率HRR.其中9 組分質量分數在每一組數據中總和為1.數據庫中混合分數的范圍是[0,1],均勻離散了201 個點;混合分數方差的范圍是[0,Z(1-Z)],均勻離散了100 個點;進度變量的范圍是[0,1],均勻離散了51 個點.這樣數據庫大小為201×100×51.

數據庫以txt 格式保存,PyTorch 最基本的操作對象是張量,讀取數據庫時需要將數據庫轉為張量形式.每個數據集既是訓練集也是測試集,當訓練需要時,將訓練集和測試集分類好后,可以使用不斷迭代的隨機種子,進行反復地重新訓練建模,并從不同的模型上選取超參數.

1.2 數據歸一化

火焰面/進度變量模型數據庫的幾種組分以及進度變量源項和釋熱率往往存在較大的數量級差別,神經網絡預測結果會有較大的誤差,因此使用神經網絡分析時需要先進行歸一化.歸一化處理的目的是提升數據的內聚性,降低離散性,進而清除數據尺度差異對ANN 模型學習能力和預測精度的影響,提高模型的訓練效率.本文采用最小最大值歸一化

把原始數據變換到0~1 范圍內,可以求得經歸一化后的計算結果,當中Xmax為樣本數據的最大值,Xmin為樣本數據的最小值.歸一化處理方法對不同量級數據都進行了無量綱化,并統一測量指標,能夠防止凈輸入絕對值太高而造成的神經元數據飽和問題.與此同時,歸一化使得開展梯度下降優化時學習率不再需要根據數據范圍做調整,使用統一的初始學習率對于Adam 更新學習率效率更高,使模型更容易收斂.

1.3 人工神經網絡模型訓練

目前,人工神經網絡的研究主要使用由Rumelhart等[35]給出的誤差反向傳播算法(back propagation,BP).BP 神經網絡是一個使用誤差逆向傳遞方法進行研究的多層前饋神經網絡,是目前使用得最為普遍的神經網絡.在BP 網絡的輸入層與輸出層之間有一些神經元,這種神經元叫做隱藏層,它和外界并沒有直接的關系,只是由權重和偏置常數的改變來控制輸入層和產出的相互作用,每一神經元中間可能包含著若干個節點.網絡的一個關于神經元計算原理的基本公式是神經元變量N是n-th 層神經元的個數,矩陣和向量是要訓練的n-th 層的權值和偏值,f是激活函數.前一層神經元通過權重和偏置常數的線性組合結果,經過非線性激活函數f得到神經元 ?n+1的輸出.

ReLu 激活函數的收斂速率很高,而且在正值范圍內(x>0) 就可以對抗梯度消失現象.分別引入MSE 損失函數和Huber 損失函數,公式分別如下

MSE 損失函數

Huber 損失函數

Huber 損失是平方數損失與絕對值損失的結合,它同時解決了平方數損失與絕對值損失的缺陷,不但使損失函數有了連續性的導數,而且同時運用MSE 梯度隨參數遞減的優點,也可以得到比較準確的最低位.不過由于Huber 損失函數中引入了額外的系數,因此訓練量也必然增大,所以對于最終模型的練習效果和準確性都未必比MSE 好,后面會進行進一步分析探討.選擇的優化器為Adam 并使用學習率調制器,Adam 優化器的優點在于有效控制學習率步長和梯度方向,防止梯度的振蕩和在鞍點的相對靜止.但是后期Adam 學習率太低,影響有效收斂,因此使用學習率調制器解決Adam 后期因為學習率不變導致難以收斂的問題.

1.4 訓練結果分析與評價指標

得到訓練完成的模型后,通過原有的數據集對模型進行讀取并比較預測值與真實值的差距.本文以平均相對誤差MRE和皮爾森(Pearson)積矩相關系數(PPMCC)R以及線框圖來評價ANN 模型的性能.平均相對誤差MRE越小,皮爾森系數R的值越趨近于1,線框圖中預測值曲面和真實值曲面重合越多,表明模型的預測效果越好.

平均相對誤差

Pearson 積矩相關系數R

其中YANN代表預測值,YFPV代表真實值,是YANN的平均值,是YFPV的平均值,Ns代表樣本數量.

2 不同函數結構對模型的影響

2.1 模型拓撲結構影響

人工神經網絡模型的輸入層由3 個神經元組成,分別是進度變量C、混合分數Z以及混合分數方差Z",即 ?i=3 .輸出層由11 個神經元組成,分別是9 組分質量分數即 O2,H2O,H2,O H,O,H,H2O2,HO2和N2,進度變量源項QC和釋熱率HRR,即?0=11 .隱藏層層數為5,其中第2 層神經元數量為第一層神經元數量的2 倍,即N2=2N1,第3 層神經元數量為第2 層的2 倍,即N3=2N2,第四層神經元數量等于第2 層,即N4=N2,第5 層神經元數量等于第1 層,即N5=N1.采用試錯法探究神經元個數Ns對ANN 模型的預測效果的影響.接下來將統一使用MSE 損失函數和Adam 優化器以及學習率調制器訓練模型,只選擇不同的神經元數量,得到不同的神經網絡模型,并將數據庫加載到這些模型中得到結果并分析.圖1 和圖2 是選擇不同數量的第1 層神經元數量N1得到的模型導出后輸出的預測值與真實值的皮爾森系數R和平均相對誤差MRE.

圖1 神經元節點數對釋熱率HRR 模型精度的影響Fig.1 The effect of the number of neuron nodes on the precision of the heat release rate HRR model

圖2 神經元節點數對進度變量源QC 模型精度的影響Fig.2 The effect of the number of neuron nodes on the precision of the source term QC model for progress variable equation

由圖1 和圖2 可知,當隱藏層第1 層神經元個數為50 時,皮爾森系數R最接近于1,也就是線性相關性最高.對于HRR來說,第1 層神經元數量從10 到50 再到100,平均相對誤差MRE是依次降低的,表明對于釋熱率來說,神經元數量越多模型預測性能越好.但是對于QC來說,神經元數量為50 時,平均相對誤差反而最大,說明神經元數量對于不同參數的模型影響效果不同.

總的來說,模型的線性回歸性都比較符合預期,此時更應該關注模型所占空間大小與訓練效率.根據各個不同神經元數量模型的文件大小,N1=10時HRR模型大小為33.1 kB,N1=50 時HRR模型大小為222 kB,N1=100 時HRR模型大小為811 kB.N1=10 時QC模型大小為32.8 kB,N1=50 時QC模型大小為229 kB,N1=100 時QC模型大小為831 kB.

更加直觀的線框圖可以表現數據集經過人工神經網絡模型輸出的預測值與數據庫的真實值的擬合效果如圖3.隨著神經元數量的增加,人工神經網絡模型的文件大小也是不斷增大的.因此在后續的優化模型中,選擇第一層神經元數量為10 為最佳神經元數量,不僅有利于降低運行時內存的消耗,也有利于后續程序的耦合.

圖3 神經元節點數對模型擬合效果的影響Fig.3 The effect of the number of neuron nodes on model fitting performance

2.2 損失函數不同選擇的影響

在目前最主要的神經網絡建模練習流程中,通常采用MSE 損失函數,有的文獻也采用Huber 損失函數,下面探討利用這2 個函數對模型的訓練效果與準確度有何影響.

首先是討論MSE 損失函數和Huber 損失函數的差異性以及各自的優缺點.MSE 函數的曲線比較平滑,便于采用梯度下降算法,計算成本也較小,而且收斂速率比較快.但是平方誤差也有其缺點,當真實值和預測值差異過大時,經過MSE 損失函數會導致誤差增大,如果碰到離群點可能導致梯度爆炸問題,從而影響模型的整體性能.Huber 損失函數同時解決了平方損失與絕對損失的缺點,使損失函數弱化了對離群點的過度敏感問題.在實際應用中,由于還有神經元數量、優化器選擇等不同因素的影響,還需要對MSE 損失函數和Huber 損失函數的預測精度進行比較.

在圖4 中可以發現,Huber 損失函數的MRE比MSE 損失函數大一個數量級,雖然在神經元數量為50 時,QC和HRR表現優異,但是總體的R值都不如MSE 損失函數.

圖4 不同損失函數對模型精度的影響Fig.4 The effect of different loss functions on the model accuracy

在圖5 中可以發現在神經元數量為100 時,Huber損失函數對于數據釋熱率和進度變量源項的擬合都出現了明顯的過擬合問題,而MSE 損失函數較好地擬合了數據庫.同時Huber 損失函數進行模型訓練時收斂速度也遠遠慢于MSE 損失函數,對此可以認為,在火焰面/進度變量模型訓練中,MSE 損失函數是比Huber 損失函數更優的選擇,在后續的CFD 計算中神經網絡模型采用MSE 損失函數訓練得到.

圖5 損失函數對模型擬合效果的影響Fig.5 The effect of loss function on model fitting performance

2.3 學習率調制器的影響

Adam 和SGDM 是目前人工神經網絡模型訓練最常用的兩個優化器.它們分別在效率和精度方面有著各自的優勢.而優化器配合學習率調制器,訓練過程中損失函數值達到設定的閾值后通過調制器不斷降低學習率則有助于模型訓練收斂.接下來針對使用Adam 優化器的人工神經網絡模型,設定第1 層神經元數量N1,驗證有無學習率調制器對HRR模型訓練的影響.

圖6 顯示了有無學習率調制器對模型精度的影響.可以發現增加學習率調制器后,不論是平均相對誤差更接近于0 還是皮爾森系數更接近于1 都有明顯的效果.并且在訓練過程中可以發現,沒有學習率調制器的情況下由于學習率一直保持不變,損失值一直上下起伏變化,得到的相關誤差無法穩定下降,訓練時長比有學習率調制器慢好幾倍,因此學習率調制器的加入是必要的.

圖6 學習率調制器對模型精度的影響Fig.6 The effect of learning rate modulators on model accuracy

2.4 主要參數的線性回歸率

圖7 給出了FPV 表和ANN-FPV 模型預測的O2,HRR和QC的回歸圖以及皮爾森系數R值.O2的R系數最大,HRR最小,QC介于兩者之間.直線y=x是回歸線,點落在這條線上表明ANN-FPV預測的組分質量分數與FPV 的基本一致.

圖7 O2,HRR 和QC 的回歸圖Fig.7 Regression plot of O2,HRR,and QC

3 內存占用優化的討論

在通常的基于CPU 的CFD 求解器中,一個雙精度標量占有64 位,即7.63×10-6MB.為了獲得高分辨率的FPV 表,在FlameMaster 中將Z的網格數設置為10251,C的網格數設置為51,Z''網格數設置為100,并且在Z的上半部分和Zst附近對網格進行細化.FPV 數據庫共有10 組數據,包括8 種組分質量分數、釋熱率HRR以及進度變量源項QC.正常采用CPU 計算火焰面模型占用的內存容量為:10×10251×51×100×7.63×10-6=3988.97 MB.在一個典型的64 核計算機集群中,內存成本將會是原本的64 倍,即255294.18 MB,這幾乎是任何超級計算機都負擔不起的.這是因為CPU 求解器在計算時采用了分解域的方法,每個分解出來的域都需要加載一次整個FPV 表.因此,本文將人工神經網絡模型與FPV 結合并運行在GPU 上來減少內存占用,從而使得這種具有發展前景的湍流燃燒模型更加具有經濟性.

CPU 由算術邏輯單元(arithmetic and logic unit,ALU)和控制器(control unit,CU)以及若干個寄存器和高速緩沖存儲器組成,主要進行邏輯串行運算.而GPU 擁有大量ALU 用于數據處理,適合對密集數據進行并行計算,因此GPU 被大量用于AI 訓練等并行計算場景.在英偉達顯卡中有CUDA 核心,CUDA 中線程可以分為3 個層次:線程、線程塊和線程網絡.線程是基本執行單元,每個線程執行相同代碼.線程塊(block)則是若干線程的分組,可以是一維、二維或三維.線程網絡(grid)是若干線程塊的網格.GPU 上存在很多計算核心(streaming multiprocessor,SM),在具體計算時,一個SM 會同時執行一組線程,這一組數量一般為32 或64 個線程.一個block 綁定在一個SM,若這個block 中存在1024 個線程,這個SM 可以同時執行64 個線程,那么就會分成16 次執行.GPU 和CPU 也一樣有著多級緩存還有寄存器的架構,把全局內存的數據加載到共享內存上再去處理可以有效地加速.

在使用GPU 計算火焰面模型時,可以自行設定batch size,也就是一次訓練抓取的數據樣本數量.batch size 的大小決定了計算速度,但是不會出現如CPU 計算時遇到的占用內存過大便無法運行的情況,可以對FPV 進行分批次處理,將數據加載到GPU 專用內存中.GPU 計算的另一個優點就是同時計算所有設定的數據集,而CPU 只能對多個域進行分步計算,GPU 的并行計算速度比CPU 快好幾個數量級.

4 寬域發動機改進模型算例測試

寬域發動機中的燃燒流場包含復雜的激波膨脹波系,不同壓力下化學反應速率明顯不同,傳統的火焰面/進度變量(FPV)模型僅使用一個基于燃燒室平均壓力建立的火焰面數據庫,因而不足以描述壓力劇烈脈動的燃燒流場.發動機內的燃燒近似為等壓燃燒,壓力為當地環境壓力,因此火焰面數據庫的建庫壓力應與當地環境壓力一致,以提高模型精準度.然而,對流場中所有壓力生成火焰面數據庫將會占用非常大的內存空間,直接將壓力作為火焰面數據庫的維度可能帶來巨大的內存負載.本項目使用神經網絡訓練這個包含多個不同建庫壓力的火焰面數據庫集合,相當于在混合分數、混合分數方差和進度變量維度之外,額外增加了壓力的維度,并且訓練后的神經網絡模型(ANN-FPV)可以替代龐大的數據集以減輕內存壓力,同時大大改進燃燒流場預測精度.

添加了壓力維度的ANN-FPV 模型訓練好后,為了測試其對FPV 數據庫替代的效果,需要進一步以定量的方式分析,以下面3 個發動機算例為具體研究對象,通過耦合FPV 模型的RANS 方法,對ANN-FPV 替代FPV 數據庫后的火焰面/進度變量模型開展驗證與分析.

4.1 算例1:日本JAXA 機構Ma12-02 發動機

本算例為日本宇航研究開發機構JAXA 開發的M12 系列發動機[36-37],并在位于日本宇宙航空研究開發機構Kakuda 太空推進中心的高焓激波風洞(HIEST)中進行了試驗.圖8 所示為M12-02 發動機的示意圖.流道的總長度為2889 mm.入口處的高度和寬度分別為250 和200 mm.燃燒室是一個寬度為70.7 mm、長度為1700 mm 的等直管道.超混合噴嘴(hyper-mixer injector)安裝在入口后的上下壁面上,如圖9 所示.噴嘴的前緣帶有一個壓縮斜坡,位于入口出口下游100 mm 處.從噴嘴上側延伸的6 個寬度為20 mm 的壓縮斜坡交替布置在上下壁面上.模擬飛行馬赫數12 的實驗工況如表1,其中給出的溫度和壓力分別為靜溫和靜壓.

表1 M12-02 實驗超聲速來流和燃料射流工況Table 1 Supersonic inflow and fuel jet conditions for M12-02 experiment

圖8 M12-02 燃燒室構型 (單位:mm)Fig.8 M12-02 combustion chamber configuration (unit:mm)

圖9 超混合噴嘴尺寸 (單位:mm)Fig.9 Hyper-mixer injector size (unit:mm)

計算采用結構/非結構混合網格,大小為1500 萬,計算域為整個構型的1/4.計算區域包含發動機部分進氣道,來流馬赫數為6.72,靜溫為677 K.圖10 顯示了本算例傳統模型(圖10(a))與智能化改進模型(圖10(b))計算溫度分布云圖,圖11 對比了壁面壓力沿程分布計算與實驗結果,并給出了相對平均計算誤差值.以壓力參數P為例,這里的平均誤差公式為,其中exp 代表實驗數據,num 代表計算數據,n代表實驗數據點數.本文所有算例的誤差計算均采用該公式.表2 顯示了算例1 的誤差減小情況,平均誤差減小了53.2%.

表2 算例1 誤差減小情況表(飛行Ma12、計算入口Ma6.72、平均誤差減小53.2%)Table 2 Error reduction in case 1 for intelligent improved combustion model (ANN-FPV) compared with tranditional model (FPV)(with flight Ma12,inlet Ma6.72 and average error reduction 53.2%)

圖10 算例1 流向中心截面上(a)傳統模型與(b)智能化改進模型計算溫度云圖Fig.10 Case 1:Temperature contour in the flow direction center section calculated using (a) traditional model and (b) intelligent improved model

圖11 算例1 壁面壓力沿程分布計算與實驗結果對比圖(平均誤差減小53.2%)Fig.11 Comparison between calculated and experimental results of wall pressure distribution along the flow path for case 1 (average error reduction is 53.2%)

4.2 算例2:美國伊利諾伊大學圓管燃燒室

該算例對象是伊利諾伊大學ACT-II 乙烯燃料的軸對稱超燃沖壓發動機[38],如圖12 所示.軸對稱隔離段長256 mm,下游軸對稱凹腔深11 mm,長35 mm,后緣角22.5°.來流總溫2196 K,總壓160 kPa,模擬飛行馬赫數約為8.乙烯燃料從凹腔上游42 mm 的16 個周向均勻分布的噴孔以45°噴注,具體的噴注和來流條件如表3 所示.

表3 算例2 圓管燃燒室工況Table 3 Operating conditions of the circular tube combustor of case 2

圖12 算例2 圓管燃燒室的總體構造和具體尺寸 (單位:mm)Fig.12 Case 2:Overall structure and specific dimensions of the circular tube combustor (unit:mm)

計算采用結構網格,大小為1100 萬,計算域為全尺寸的1/4.圖13 顯示了本算例傳統模型(圖13(a))與智能化改進模型(圖13(b)) 計算溫度分布云圖,圖14 對比了壁面壓力沿程分布計算與實驗結果.表4顯示了算例2 的誤差減小情況,平均誤差減小了55.7%.

表4 算例2 誤差減小情況表(飛行Ma8、計算入口Ma4.5、平均誤差減小55.7%)Table 4 Error reduction in case 2 for intelligent improved combustion model (ANN-FPV) compared with tranditional model (FPV)(with flight Ma8.0,inlet Ma4.5 and average error reduction 55.7%)

圖13 算例2 流向中心截面(a)傳統模型與(b)智能化改進模型計算溫度云圖Fig.13 Temperature contour in the flow direction center section calculated using (a) traditional model and (b) intelligent improved model of case 2

圖14 算例2 壁面壓力沿程分布計算與實驗結果對比圖(平均誤差減小55.7%)Fig.14 Comparison between calculated and experimental results of wall pressure distribution along the flow path for case 2 (average error reduction is 55.7%)

4.3 算例3:中國空氣動力研究與發展中心氫氣凹腔燃燒室

本算例是基于中國空氣動力研究與發展中心的氫氣凹腔燃燒室實驗[39].發動機全長約1073 mm,隔離段總長300 mm;模型隔離段入口為矩形截面,尺寸30 mm×150 mm,火花塞位于臺階下游75 mm 處,氫氣噴注位置位于臺階上游10 mm 處,噴注孔φ1.0×15,孔之間間距為6.814 mm,最外側的兩個孔距側壁27.3 mm;凹腔深度為11 mm,長度為121 mm,后斜坡角為21.1°.擴張段分4 部分擴張,具體見圖15.

圖15 算例3 氫氣凹腔燃燒室構型示意圖 (單位:mm)Fig.15 Schematic diagram of the configuration of the hydrogen-fueled cavity combustion chamber of case 3 (unit:mm)

實驗模擬飛行馬赫數4.0 的來流條件,如表5 所示,對應隔離段入口馬赫數Ma=2.0,總溫Tt=950 K,總壓Pt=0.82 MPa.來流組分O2,H2O 和N2的摩爾分數分別為21%,12%和67%.燃料噴注條件為:先鋒氫噴注壓力4.0 MPa,對應當量比約為0.33.

表5 算例3 氫氣凹腔燃燒室算例工況Table 5 Operating conditions of the hydrogen-fueled cavity combustion chamber of case 3

計算采用結構網格,大小約840 萬.圖16 給出了本算例傳統模型(圖16(a)) 與智能化改進模型(圖16(b))計算溫度分布云圖,圖17 對比了壁面壓力沿程分布計算與實驗結果.

圖16 算例3 流向中心截面(a)傳統模型與(b)智能化改進模型計算溫度云圖Fig.16 Temperature contour in the flow direction center section calculated using (a) traditional model and (b) intelligent improved model of case 3

分別采用模擬飛行馬赫數為4,8 和12 的3 個燃燒算例對改進模型進行了驗證,通過與已知的文獻實驗結果做出比較得到計算誤差,表6 顯示了燃燒模型驗證算例誤差減小情況.結果表明智能化改進的模型比傳統的模型平均誤差減小量均超過了50%,算例誤差最大減小值可達57.2%.

表7 顯示了3 個算例分別采用兩種燃燒模型的CFD 結果,包括了時間消耗值及比值、內存占用及比值和精度提升值,可以看到改進模型的耗時比傳統模型高了70%左右,未來需要進一步對神經網絡模型進行改進或替換,如用Transformer 模型等;內存占用比傳統模型高了20%~30%,比傳統模型稍高,基本保持在同一水平;同時精度有顯著提升.

表7 3 個算例的燃燒模型CFD 結果(時間消耗值、內存占用值及精度提升值)Table 7 CFD results of three cases under two combustion models (time consumption value,memory occupancy value,and accuracy improvement value)

5 結論

本文基于深度學習和人工神經網絡開展了湍流燃燒模型研究,采用全連接神經網絡,通過MSE 損失函數、Adam 優化器、ReLu 非線性激活函數和ReduceLROnPlateau 調制器生成了神經網絡模型,代替了火焰面/進度變量數據庫以實現高維參數建模及模型改進,并成功運行在GPU 上.分析發現人工神經網絡模型訓練前對訓練集進行數據處理是必要的,采用歸一化處理方法對不同量級的數據都實現無量綱化,統一評價準則,防止因凈輸入數據絕對值過大造成的神經元輸出飽和情況;神經網絡模型的精度大部分情況會隨著神經元數量的增加而提高,但是訓練模型精度的提升付出的代價是因為神經元數量增加而不斷增大的模型文件,研究確定選擇各層神經元數量為10,20,40,20,10;采用第1 層神經元數量為10 時,選擇MSE 損失函數比Huber 損失函數更好;優化器配合學習率調制器對于ANN 模型的訓練收斂速度和精度提高有顯著作用,學習率調制器彌補了Adam 后期收斂速度過慢的問題.最后,基于新一代寬速域高超聲速飛行器Ma4~12 范圍內的3 個發動機燃燒算例開展了測試分析,對誤差進行了詳細的分析,包括了對應每個算例每一實驗點的誤差值和總體誤差值.結果表明智能化改進的模型比傳統的模型平均誤差減小量均超過了50%,算例誤差最大減小值可達57.2%.

猜你喜歡
算例火焰神經元
《火焰》
最亮的火焰
《從光子到神經元》書評
漂在水上的火焰
躍動的神經元——波蘭Brain Embassy聯合辦公
吹不滅的火焰
基于振蕩能量的低頻振蕩分析與振蕩源定位(二)振蕩源定位方法與算例
互補問題算例分析
基于二次型單神經元PID的MPPT控制
毫米波導引頭預定回路改進單神經元控制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合