
隨著越來越多的數(shù)據(jù)可用,通過使用高性能計算和高通量實驗,機(jī)器學(xué)習(xí)(ML)已被證明具有加速科學(xué)研究和技術(shù)發(fā)展的潛力。目前,材料科學(xué)采用數(shù)據(jù)驅(qū)動的方法仍處于早期階段,ML模型的預(yù)測和內(nèi)部流程應(yīng)提供一定程度的可解釋性,允許識別潛在的模型問題或限制并揭示可能導(dǎo)致科學(xué)見解的意外相關(guān)性。
在此,美國麻省理工學(xué)院Felipe Oviedo、英國盧瑟福阿普爾頓實驗室Keith T. Butler等人總結(jié)了可解釋性ML技術(shù)在材料科學(xué)和化學(xué)中的應(yīng)用,并討論了這些技術(shù)如何改善科學(xué)研究的成果。首先,作者定義了ML中兩種可解釋性,即“interpretability”和“explainability”的基本概念,并通過提供該領(lǐng)域的示例使其具體化?!癐nterpretability”是指模型的整個工作流程可以被人類理解;“Explainability”是指模型可以生成解釋,包括通過檢查模型或使用其他一些事后方法(外部解釋)等。
作者展示了與一般應(yīng)用相比,科學(xué)ML中的可解釋性如何具有額外的限制。基于ML中的正式定義,作者制定了科學(xué)問題中模型解釋的可解釋性、完整性和科學(xué)有效性之間的基本權(quán)衡。在這些權(quán)衡的背景下,作者討論了如何構(gòu)建可解釋的ML模型,包括模型提供了哪些見解及有哪些缺點等。
圖1. 一些ML中的關(guān)鍵概念及權(quán)衡
進(jìn)一步,作者展示了許多可解釋ML在各種實驗和模擬研究中的應(yīng)用示例,包括第一性原理計算、物理化學(xué)表征、材料開發(fā)及與復(fù)雜系統(tǒng)的集成。作者根據(jù)感興趣的科學(xué)研究的性質(zhì)和限制,討論了這些案例中可解釋性的不同影響和用途。此外,作者還總結(jié)了材料科學(xué)中可解釋ML的各種挑戰(zhàn),包括模型解釋缺乏置信區(qū)間或誤差分布、解釋沒有強(qiáng)有力的因果保證或抵抗共同影響的彈性等。
特別是,作者強(qiáng)調(diào)了通過純粹可解釋ML模型來推斷因果關(guān)系或達(dá)到泛化的風(fēng)險及對模型解釋的不確定性估計的需要。最后,作者展示了其他領(lǐng)域中可解釋ML的發(fā)展,可能有利于材料科學(xué)問題的可解釋性。為ML模型添加可解釋性通常不需要比構(gòu)建模型本身更多的技術(shù)知識,希望該綜述將激發(fā)對ML模型的深入研究。
圖2. 從物理或化學(xué)數(shù)據(jù)中直接提取知識及其應(yīng)用展示
Interpretable and Explainable Machine Learning for Materials Science and Chemistry, Accounts of Materials Research 2022. DOI: 10.1021/accountsmr.1c00244
原創(chuàng)文章,作者:v-suan,如若轉(zhuǎn)載,請注明來源華算科技,注明出處:http://m.zzhhcy.com/index.php/2023/10/07/45afb0dcb1/