聲明:本公眾號(hào)的所有文章,除特別注明非原創(chuàng)外,均為自己原創(chuàng)或翻譯。近期,發(fā)現(xiàn)有公眾號(hào)轉(zhuǎn)載了自己的文章,不勝欣喜。本著交流、學(xué)習(xí)的目的,非常歡迎轉(zhuǎn)載,但務(wù)必請(qǐng)注明出處,謝謝。 近年來(lái),機(jī)器學(xué)習(xí)在腦成像領(lǐng)域中的應(yīng)用越來(lái)越多。其中,最常用的機(jī)器學(xué)習(xí)方法旨在從已有的數(shù)據(jù)中找到潛在的模式,用于對(duì)未來(lái)數(shù)據(jù)的預(yù)測(cè)或者分類(lèi),比如用于腦疾病的分類(lèi)或腦狀態(tài)的解碼。作為一種通用的方法,機(jī)器學(xué)習(xí)方法不僅可以應(yīng)用于MRI或 fMRI 圖像,也同樣可以應(yīng)用于其它模態(tài)的腦成像數(shù)據(jù)中。在之前的研究中,自己也曾將這一方法應(yīng)用到了基于EEG信號(hào)的研究中。實(shí)際上,基于 EEG 信號(hào)的腦機(jī)接口(brain-computer interface,BCI)技術(shù)曾經(jīng)長(zhǎng)期是機(jī)器學(xué)習(xí)在腦成像領(lǐng)域的最主要應(yīng)用。近日,Organization for Human Brain Mapping (OHBM)的博客上發(fā)表了一篇博文,介紹了機(jī)器學(xué)習(xí)的基本概念和方法(可點(diǎn)擊“閱讀原文”查看英文博客原文)。這里翻譯出來(lái),分享給大家。 最近,機(jī)器學(xué)習(xí)(machine learning)、深度學(xué)習(xí)(deep learning)和人工智能(artificial intelligence)這些術(shù)語(yǔ)越來(lái)越多地出現(xiàn)在我們的生活中:比如,在媒體,招聘廣告 ...... 以及在腦成像領(lǐng)域的學(xué)術(shù)會(huì)議上。機(jī)器學(xué)習(xí)經(jīng)常被描繪成一個(gè)神秘的黑盒子,幾乎可以解決將來(lái)的所有問(wèn)題,甚至取代我們的工作。在這篇博文中,我們將討論“機(jī)器學(xué)習(xí)”這個(gè)術(shù)語(yǔ)的實(shí)際含義、它包含的方法以及這些方法如何應(yīng)用于腦成像分析。OHBM OnDemand 在線材料中包含了一些解釋機(jī)器學(xué)習(xí)方法的視頻,并提供了如何在各種應(yīng)用中使用它的示例。如果你對(duì)機(jī)器學(xué)習(xí)感到好奇,但不確定是否想要加入其中,那么,希望這篇文章適合你并幫助你入門(mén)。 圖片來(lái)自 Deep Learning in Neuroradiology,American Journal of Neuroradiology October 2018, 39 (10) 1776-1784; DOI: https:///10.3174/ajnr.A5543 1、什么是機(jī)器學(xué)習(xí)? 機(jī)器學(xué)習(xí)包含的內(nèi)容很廣泛,不僅包括深度學(xué)習(xí),本文下面將要介紹的方法也包含在內(nèi)。其中的很多方法,你可能已經(jīng)在經(jīng)典的統(tǒng)計(jì)學(xué)(statistics)中聽(tīng)說(shuō)過(guò)甚至比較熟悉,比如線性回歸(linear regression)。雖然機(jī)器學(xué)習(xí)“建立在統(tǒng)計(jì)學(xué)的基礎(chǔ)之上,并且在多年的發(fā)展過(guò)程中,吸收了它的許多方法和技術(shù)”(Max Welling,2015),但機(jī)器學(xué)習(xí)的一個(gè)重點(diǎn)在于泛化能力(generalization),即通過(guò)訓(xùn)練一個(gè)計(jì)算模型(computational model)找到數(shù)據(jù)中潛在的模式(pattern),并采用這個(gè)模式來(lái)對(duì)該模型所未見(jiàn)過(guò)的、具有相似或相同特點(diǎn)的數(shù)據(jù)進(jìn)行預(yù)測(cè)。在這里,需要找到“過(guò)擬合”(overfitting,擬合得到的模型過(guò)于復(fù)雜,以至于只能用于訓(xùn)練它的數(shù)據(jù))和“欠擬合”(underfitting,擬合得到的模型過(guò)于過(guò)于簡(jiǎn)單,以至于即使用在訓(xùn)練它的數(shù)據(jù)上的結(jié)果也很差)之間的平衡點(diǎn),目標(biāo)是使用于新數(shù)據(jù)時(shí)兼具高靈敏度(sensitivity)和高特異度(specificity)。為了達(dá)到這個(gè)目標(biāo),通常會(huì)將數(shù)據(jù)分成幾組:首先,在一組數(shù)據(jù)上訓(xùn)練模型參數(shù),然后,在另一組數(shù)據(jù)中評(píng)估該模型以選擇最佳模型參數(shù),最后,在第三組數(shù)據(jù)中測(cè)試它。有時(shí),也會(huì)把具有統(tǒng)計(jì)基礎(chǔ)的機(jī)器學(xué)習(xí)方法稱(chēng)作“統(tǒng)計(jì)學(xué)習(xí)”(statistical learning)。Introduction to statistical learning 和 The Elements of statistical learning 就是兩本優(yōu)秀的介紹統(tǒng)計(jì)學(xué)習(xí)中重要概念的教科書(shū)。 2、什么是人工智能?有什么不同的地方嗎? 人工智能是一個(gè)高級(jí)的概念性術(shù)語(yǔ)(conceptual term),它描述的是在機(jī)器中模仿“自然智能”(natural intelligence)的運(yùn)動(dòng)。 機(jī)器學(xué)習(xí)被認(rèn)為是一組可以使機(jī)器更加“智能”的統(tǒng)計(jì)工具。 3、機(jī)器學(xué)習(xí)中有哪些方法? 應(yīng)用于神經(jīng)成像的最流行的機(jī)器學(xué)習(xí)技術(shù)可以分為兩大類(lèi):有監(jiān)督(supervised)和無(wú)監(jiān)督(unsupervised)學(xué)習(xí)。有監(jiān)督學(xué)習(xí)需要被標(biāo)記的數(shù)據(jù)(labelled data,例如已被標(biāo)記或分類(lèi)的數(shù)據(jù)),而無(wú)監(jiān)督方法則是檢測(cè)未標(biāo)記數(shù)據(jù)中的模式。不同的機(jī)器學(xué)習(xí)方法在其復(fù)雜性方面也有所不同。這兩種類(lèi)型的機(jī)器學(xué)習(xí)方法都可以從相當(dāng)簡(jiǎn)單的線性模型到更復(fù)雜的非線性算法。模型越復(fù)雜,所需的計(jì)算能力(computational power)就越強(qiáng)。 雖然機(jī)器學(xué)習(xí)已經(jīng)存在了很長(zhǎng)時(shí)間,但最近受到越來(lái)越多的重視。在 Vince Calhoun 的 OHBM OnDemand 視頻中(6分30秒處),他解釋了原因:這不僅是因?yàn)橛性絹?lái)越多的數(shù)據(jù)可用,也是因?yàn)橛?jì)算能力有了巨大的提高(不過(guò)訓(xùn)練神經(jīng)網(wǎng)絡(luò)有時(shí)仍然需要數(shù)周時(shí)間)以及在開(kāi)源工具中開(kāi)發(fā)和實(shí)現(xiàn)的更好的算法。 下面我們將討論有監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)的一些重要方法。我們還將討論一些腦成像研究中獨(dú)有的方法,如多體素模式分析(multivoxel pattern analysis,MVPA)。 3.1 有監(jiān)督學(xué)習(xí) 正如 Christophe Phillips 在 OHBM 2017 關(guān)于模式識(shí)別的課程(4分34秒處)中所描述的,有監(jiān)督學(xué)習(xí)的思路是通過(guò)訓(xùn)練,找到已觀測(cè)數(shù)據(jù)(如fMRI圖像)和解釋變量(explanatory variable)之間的映射(mapping),這個(gè)解釋變量可能是被試的疾病標(biāo)簽或認(rèn)知評(píng)分。然后,我們可以使用新的、未標(biāo)記的受試者并預(yù)測(cè)他們的疾病類(lèi)型或認(rèn)知評(píng)分。 Christophe進(jìn)一步解釋?zhuān)?分10秒處),有監(jiān)督的機(jī)器學(xué)習(xí)問(wèn)題可以進(jìn)一步細(xì)分為離散的分類(lèi)預(yù)測(cè)(discrete classification prediction)以及連續(xù)的或回歸預(yù)測(cè)(continuous, or regression, predictions)。無(wú)論采用哪種方式,有監(jiān)督學(xué)習(xí)(10:50分鐘處)最終依賴(lài)于輸入和目標(biāo)變量之間的映射函數(shù)、該函數(shù)的形狀以及其參數(shù)的優(yōu)化。 以下是一些常用的算法。 3.1.1 線性回歸(linear regression) 作為一種經(jīng)典的統(tǒng)計(jì)技術(shù),線性回歸已經(jīng)為大多數(shù)人所熟悉。然而,這種歷史悠久的方法已經(jīng)重新煥發(fā)生機(jī),成為一種有監(jiān)督學(xué)習(xí)方法。我們可以將線性回歸視為一種預(yù)測(cè)技術(shù),它使用一個(gè)或多個(gè)特征來(lái)預(yù)測(cè)一個(gè)具有連續(xù)值的響應(yīng)(response,7:35分鐘處)。將線性回歸作為標(biāo)準(zhǔn)統(tǒng)計(jì)工具或機(jī)器學(xué)習(xí)工具使用,這兩者之間的主要區(qū)別在于,在機(jī)器學(xué)習(xí)中,我們會(huì)測(cè)試線性模型對(duì)未見(jiàn)過(guò)的數(shù)據(jù)的預(yù)測(cè)能力(predictive power),而這些數(shù)據(jù)對(duì)該模型的訓(xùn)練沒(méi)有貢獻(xiàn)。 3.1.2 邏輯回歸(logistic regression) 本質(zhì)上,邏輯回歸背后的理念與線性回歸完全相同。唯一的區(qū)別是由數(shù)據(jù)中擬合出的映射函數(shù)。在線性回歸中,我們擬合出的是一條直線(line),或者在n維空間中對(duì)它進(jìn)行一些推廣,即平面(plane)或超平面(hyperplane),而在邏輯回歸中,擬合出的是邏輯函數(shù)(logistic function)。該函數(shù)是一個(gè)“S形”的曲線。邏輯函數(shù)具有非常好的有界性(通常將這些邊界設(shè)置為0和1),因此,可用于表示概率。 通過(guò)設(shè)置閾值(cut-off),通常是一半,可以使用邏輯回歸對(duì)我們的樣本(sample)進(jìn)行分類(lèi),例如,劃分為患者組和對(duì)照組。 3.1.3 支持向量機(jī)(support vector machine,SVM) 支持向量機(jī)(SVM)是一種分類(lèi)算法,其目的是在數(shù)據(jù)點(diǎn)集之間劃出一條決策(或分類(lèi))邊界,以便最大化不同數(shù)據(jù)集合之間的“分離”(或間隔,margin)。雖然這聽(tīng)起來(lái)相當(dāng)簡(jiǎn)單,但通常情況是,數(shù)據(jù)點(diǎn)不容易通過(guò)直線或平面分離,例如,一個(gè)圓嵌入另一個(gè)圓的情形。kernel SVM 則使用“核”(kernel)將數(shù)據(jù)轉(zhuǎn)換到另一個(gè)空間,在這個(gè)空間中可以更容易地將兩類(lèi)的樣本點(diǎn)分開(kāi)。Christophe 在他的講座中描述了核和SVM(從17:00開(kāi)始)。除此之外,SVM中還有一些其他參數(shù),例如正則化(regularization)參數(shù),gamma 和間隔,這些參數(shù)對(duì)于定義分類(lèi)超平面對(duì)訓(xùn)練數(shù)據(jù)的分離程度非常重要。有關(guān)SVM的更一般性的討論,下面這篇文章在解釋基礎(chǔ)知識(shí)方面做得很好: https:///machine-learning-101/chapter-2-svm-support-vector-machine-theory-f0812effc72 3.1.4 深度學(xué)習(xí)(deep learning) 深度學(xué)習(xí)是目前最受關(guān)注的機(jī)器學(xué)習(xí)算法類(lèi)別之一,也是最能夠使公眾興奮的算法。雖然它被廣泛地宣傳,但深度學(xué)習(xí)模型通常被視為黑盒子,因?yàn)椴还苁菑姆治鼋嵌?,還是從直覺(jué)角度,它的輸入-輸出映射都讓人難以琢磨。在 Vince Calhoun 的關(guān)于深度學(xué)習(xí)方法的 OHBM 教育講座中,他解釋說(shuō),深度學(xué)習(xí)的基礎(chǔ)在于人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,ANN)。實(shí)際上,盡管近年來(lái)越來(lái)越流行,但神經(jīng)網(wǎng)絡(luò)建??梢宰匪莸?0世紀(jì)50年代,當(dāng)時(shí),人們對(duì)創(chuàng)建生物神經(jīng)元的數(shù)學(xué)模型很感興趣(Hassabis 等人在2017年的一篇文章激發(fā)了關(guān)于神經(jīng)科學(xué)與人工智能之間關(guān)系的討論)。這種神經(jīng)元模型被稱(chēng)為感知器(perceptron)。最基本的神經(jīng)網(wǎng)絡(luò)類(lèi)型是多層感知器(multilayer perceptron,MLP),其中,人工神經(jīng)元(感知器)以層級(jí)結(jié)構(gòu)進(jìn)行排布。輸入信息在神經(jīng)網(wǎng)絡(luò)中逐層傳播:首先,通過(guò)每個(gè)節(jié)點(diǎn)中的激活函數(shù)(activation function)傳播,然后通過(guò)連接(權(quán)重,weight)依次向后傳播到后續(xù)的各層。深度學(xué)習(xí)的“深度”是指隱藏層的數(shù)量更多,隱藏層即神經(jīng)網(wǎng)絡(luò)的輸入層和輸出層之間的層。近年來(lái),計(jì)算機(jī)技術(shù)的進(jìn)步使得訓(xùn)練更深度的網(wǎng)絡(luò)成為可能。Vince 描述的深度神經(jīng)網(wǎng)絡(luò)有受限玻爾茲曼機(jī)(Restricted Boltzmann Machines,7:10分鐘處)、深度信念網(wǎng)絡(luò)(deep belief network,8:20分鐘處)、卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,16:35分鐘處)等。 圖片來(lái)自 Deep Learning in Neuroradiology,American Journal of Neuroradiology October 2018, 39 (10) 1776-1784; DOI: https:///10.3174/ajnr.A5543 與其它有監(jiān)督學(xué)習(xí)算法一樣,深度學(xué)習(xí)需要訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。此外,擁有的層越多,通常需要的(已標(biāo)記的)數(shù)據(jù)和計(jì)算資源就越多。實(shí)際上,一旦計(jì)算能力提高到深度網(wǎng)絡(luò)可行的程度,特別是在圖形處理單元(graphical processing unit,GPU)可用之后,深度學(xué)習(xí)就越來(lái)越受歡迎,而 GPU 等硬件芯片最初是為加速處理數(shù)字視頻和圖形渲染而開(kāi)發(fā)的(3:10分鐘處)。 圖片來(lái)自 Deep Learning in Neuroradiology,American Journal of Neuroradiology October 2018, 39 (10) 1776-1784; DOI: https:///10.3174/ajnr.A5543 3.1.5 多體素模式分析(MVPA) 在結(jié)構(gòu)和功能MRI數(shù)據(jù)的經(jīng)典分析方法中,即一般線性模型(general linear model,GLM)的應(yīng)用中,每個(gè)體素是被分開(kāi)考慮的。由于它采用線性方程,所以,該方法在數(shù)學(xué)上是簡(jiǎn)潔和易處理的。然而,這種“大量單變量分析”(massive univariate)方法忽略了體素之間的相互依賴(lài)性(參見(jiàn) Robert Cox 在4:16分鐘處談?wù)?fMRI 分析方法,以及Mike Pratt在0:35分鐘處的討論)。考慮到腦的動(dòng)態(tài)活動(dòng)往往牽涉到整個(gè)腦的網(wǎng)絡(luò),單個(gè)體素的獨(dú)立性假設(shè)是有爭(zhēng)議的。為了解決這個(gè)問(wèn)題,一類(lèi)更新的統(tǒng)計(jì)模型——多體素模式分析(MVPA)被引入進(jìn)來(lái),以解釋大腦中多個(gè)體素的聯(lián)合貢獻(xiàn)對(duì)于感興趣的現(xiàn)象的影響(參見(jiàn) Janaina Mour?o-Miranda在6:08分的講話)。也就是說(shuō),MVPA描述了一類(lèi)模式識(shí)別(pattern recognition)技術(shù),這些技術(shù)在 Mike Pratt 關(guān)于 MVPA 的演講(3分33秒處)以及專(zhuān)注于 MVPA 的 OHMB 2017 會(huì)議中有展示。 MVPA 借鑒了機(jī)器學(xué)習(xí)中常用的算法策略。首先,將數(shù)據(jù)分成訓(xùn)練集和測(cè)試集。然后,采用訓(xùn)練集數(shù)據(jù)和分類(lèi)器(classifier,例如,SVM)對(duì)模型進(jìn)行訓(xùn)練,以區(qū)分對(duì)應(yīng)于不同實(shí)驗(yàn)條件(experiment conditions)的多體素模式,并在測(cè)試集上對(duì)該模型進(jìn)行驗(yàn)證(validation)。上述驗(yàn)證是通過(guò)將多體素測(cè)試集數(shù)據(jù)輸入到訓(xùn)練模型中,來(lái)預(yù)測(cè)其所處的實(shí)驗(yàn)條件,這經(jīng)常被稱(chēng)為解碼(decoding,參見(jiàn) Bertrand Thirion 在5分38秒以及 Mike Pratt 在8:04分鐘處的演講)。在解碼中,我們?cè)噲D從多尺度神經(jīng)過(guò)程(multiscale neural process)中預(yù)測(cè)其所代表的內(nèi)容,例如感知或認(rèn)知狀態(tài)等,這些狀態(tài)在多數(shù)情況下是由實(shí)驗(yàn)條件誘導(dǎo)出的(Pratt在11:55分鐘處的講話)。分類(lèi)器可以是線性的或非線性的,不過(guò),每種都有其自身的局限性。線性分類(lèi)器(例如,線性判別分析,linear discrimination analysis,LDA)被認(rèn)為更容易訓(xùn)練和解釋?zhuān)欢?,它們的靈敏度取決于每個(gè)體素在觀察到的模式中的貢獻(xiàn)(參見(jiàn) Jo Etzel 在18:00分鐘處的講話)。盡管非線性分類(lèi)器(例如,人工神經(jīng)網(wǎng)絡(luò),參見(jiàn)Vince Calhoun 的演講)能夠在體素模式之間找到更復(fù)雜的關(guān)系,但它們需要在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練。 MVPA 這個(gè)術(shù)語(yǔ)是由Norman、Polyn、Detre和Haxby于2006年提出的,他們當(dāng)時(shí)是在 fMRI 數(shù)據(jù)分析的框架內(nèi)引入了它。 不過(guò),考慮到該術(shù)語(yǔ)的更廣泛定義,MVPA 所涵蓋的大多數(shù)方法不僅限于 fMRI ,也同樣可以應(yīng)用于結(jié)構(gòu)成像。 3.2 無(wú)監(jiān)督學(xué)習(xí) 在有監(jiān)督學(xué)習(xí)中,除了輸入數(shù)據(jù)(例如,fMRI圖像)之外,我們還需要輸出,其可以是標(biāo)簽(例如健康與疾?。┗蚍?jǐn)?shù)(某種認(rèn)知或行為學(xué)得分)。然而,很多情況下,我們要么沒(méi)有合適的標(biāo)簽,要么所擁有的標(biāo)簽不可靠,例如在精神病學(xué)成像中。 在這種情況下,無(wú)監(jiān)督的機(jī)器學(xué)習(xí)方法打開(kāi)了一扇新的大門(mén)。 3.2.1 聚類(lèi)(clustering) 在腦成像研究中,無(wú)監(jiān)督聚類(lèi)技術(shù)最為人所知的應(yīng)用是腦區(qū)分割(brain parcellation)。 腦區(qū)分割不是一個(gè)新問(wèn)題,也不一定要涉及機(jī)器學(xué)習(xí)。 所有神經(jīng)影像學(xué)家都聽(tīng)說(shuō)過(guò)19世紀(jì)的神經(jīng)解剖學(xué)家 Korbinian Brodmann 根據(jù)細(xì)胞結(jié)構(gòu)(cytoarchitecture)標(biāo)記了大腦區(qū)域,這是最原始的腦分區(qū)方法。正如 Simon Eickhoff 在去年的主題演講中解釋的那樣,細(xì)胞結(jié)構(gòu)不是分割大腦的唯一特征,還有其它一些,如受體結(jié)構(gòu)(receptor architecture)、皮質(zhì)髓鞘結(jié)構(gòu)(cortical myelin structure)和連接結(jié)構(gòu)(connectivity structure)。 無(wú)監(jiān)督聚類(lèi)方法比較理想的應(yīng)用場(chǎng)景是,當(dāng)我們已經(jīng)知道觀測(cè)到的數(shù)據(jù)中存在與感興趣特征相關(guān)的差異,而我們想要根據(jù)這些特征自動(dòng)對(duì)腦區(qū)域進(jìn)行分組。最簡(jiǎn)單、也可能是最廣泛使用的技術(shù)是k均值聚類(lèi)(k-means clustering)。在腦成像研究中,可以通過(guò)在感興趣的區(qū)域中創(chuàng)建每個(gè)體素的特征向量來(lái)完成,例如,結(jié)構(gòu)或功能連接信息。 我們可以將這些體素視為n維特征空間中的點(diǎn)。k-means 算法嘗試最大化組內(nèi)相似性(similarity)。不幸的是,k均值聚類(lèi)需要有分組數(shù)量(k)這一先驗(yàn)知識(shí)(盡管已經(jīng)有一些迭代技術(shù)試圖確定k的數(shù)量)。 其他聚類(lèi)方法,例如層次聚類(lèi)(hierarchical clustering)或譜聚類(lèi)(spectral clustering),基本思想相同,都是將數(shù)據(jù)(在這種情況下是腦體素)分割成多個(gè)離散的組,但假設(shè)或技巧略微不同。例如,層次聚類(lèi)假設(shè)數(shù)據(jù)具有層次結(jié)構(gòu),也就是說(shuō)可以將整體的腦數(shù)據(jù)分成兩組,而每組又可以繼續(xù)分成兩組,直到我們達(dá)到單個(gè)體素的水平。當(dāng)然,也可以從單個(gè)體素開(kāi)始,自底向上進(jìn)行聚合,直到將所有體素都包括進(jìn)同一組中。另一方面,譜聚類(lèi)還有一個(gè)額外的步驟(譜變換),它允許忽略比較微弱的相似性。Sarah Genon 在她的教育課程講座中描述了如何使用擴(kuò)散MRI數(shù)據(jù)進(jìn)行此類(lèi)分析。 3.2.2 拉普拉斯算子特征映射/擴(kuò)散嵌入(Laplacian EigenMaps / Diffusion Embedding) 有時(shí),你可能對(duì)將體素分組為固定數(shù)量的幾塊(parcel)不感興趣,而是根據(jù)感興趣的特征探索感興趣區(qū)域(region of interest)中體素的關(guān)系。Daniel Margulies 在他的教育演講中描述了可用于研究腦連接圖(connectopies)或連通圖(connectivity maps)的技術(shù)。最初的方法類(lèi)似于上面描述的方法,即為大腦中的每個(gè)體素創(chuàng)建一個(gè)特征向量。然后,使用相似性度量將這些特征相互比較以創(chuàng)建相似性矩陣。然后,分解該矩陣并獲得新的矢量,該矢量可以描述感興趣區(qū)域或整個(gè)腦的相似性的主要梯度(primary gradient)。Daniel 的主題演講描述了如何使用這類(lèi)分析來(lái)闡明宏觀皮層連接的原理。 3.3 關(guān)聯(lián)模型(associative model) 關(guān)聯(lián)模型,例如偏最小二乘法(partial least square,PLS)或典型相關(guān)分析(canonical correlation analysis,CCA),并不完全是有監(jiān)督或無(wú)監(jiān)督的學(xué)習(xí)方法。在有監(jiān)督學(xué)習(xí)中,我們通常具有多變量輸入(例如,腦圖像)和單變量輸出(標(biāo)簽)。在無(wú)監(jiān)督學(xué)習(xí)中,我們只有一組多變量輸入數(shù)據(jù),例如,用于大腦分割的連接信息。在PLS或CCA中,我們想要發(fā)現(xiàn)兩組多變量輸入之間的關(guān)系或關(guān)聯(lián)(例如,腦圖像與行為學(xué)/臨床評(píng)分之間)。 正如 Janaina Mourao-Miranda 在她的視頻中解釋的那樣(2分25秒處),精神疾病的標(biāo)簽往往不可靠。為了解決這個(gè)問(wèn)題,她使用關(guān)聯(lián)模型(例如,PLS),試圖找到與多變量臨床和行為數(shù)據(jù)的線性組合具有最強(qiáng)相關(guān)性的神經(jīng)影像因素的線性組合。這種方法提供了一種數(shù)據(jù)驅(qū)動(dòng)的方式來(lái)生成標(biāo)簽,可能會(huì)為臨床條件提供新的視角。 也可以對(duì)關(guān)聯(lián)模型進(jìn)行顯著性檢驗(yàn)以進(jìn)行推斷(inference)。Valeria Kebets描述了(11:20分鐘處)如何執(zhí)行置換檢驗(yàn)(permutation test)以確定哪些成分是顯著的,如何確定成分是否在組之間表達(dá)不同,最后,哪些變量在驅(qū)動(dòng)所提取的成分。Janaina 還詳細(xì)介紹了(16:50分鐘處)她的團(tuán)隊(duì)如何在PLS分析中應(yīng)用多重交叉驗(yàn)證框架(multiple hold-out validation framework)。 4 將機(jī)器學(xué)習(xí)方法應(yīng)用于腦成像研究時(shí),有哪些因素需要考慮? 正如前面所探討的那樣,機(jī)器學(xué)習(xí)技術(shù)在很多方面為腦成像研究打開(kāi)了大門(mén)。它們可以幫助我們進(jìn)行依賴(lài)于復(fù)雜交互的預(yù)測(cè),幫助查找我們之前未發(fā)現(xiàn)的數(shù)據(jù)模式,并自動(dòng)執(zhí)行耗時(shí)的手動(dòng)任務(wù),例如分割(segmentation)。但是,這種方法的不足或缺陷也必須同時(shí)考慮。首先,更復(fù)雜和更強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù)需要大型數(shù)據(jù)集。在Andrew Doyle的視頻中,他(25:30分鐘處)討論了腦成像領(lǐng)域的應(yīng)用與經(jīng)典圖像處理問(wèn)題的區(qū)別:腦成像數(shù)據(jù)通常是非常大且高維的數(shù)據(jù),但樣本量相對(duì)較小。較小的樣本量,對(duì)于一些應(yīng)用(例如圖像分割或 MVPA)可能不是大問(wèn)題,但對(duì)于其他應(yīng)用(例如患者分類(lèi)),卻是非常大的問(wèn)題。Arbabshirani 等人最近的一篇出版物探討了從腦成像數(shù)據(jù)進(jìn)行個(gè)體標(biāo)簽的預(yù)測(cè)具有挑戰(zhàn)性的原因。Varoquaux(2018)的另一篇論文側(cè)重于小樣本量模型交叉驗(yàn)證所面對(duì)的挑戰(zhàn)。 當(dāng)然,數(shù)據(jù)越嘈雜,需要的數(shù)據(jù)量也就越多。腦成像數(shù)據(jù)被認(rèn)為是很嘈雜的。此外,如果不能提供可靠的標(biāo)簽,即使是最好的有監(jiān)督學(xué)習(xí)算法也將無(wú)法成功。另一個(gè)問(wèn)題,特別是對(duì)于諸如深度學(xué)習(xí)等更復(fù)雜的方法,是如何評(píng)估所得模型的生物學(xué)意義(biological meaning)。最近的研究進(jìn)展已經(jīng)可以使我們更好地理解和評(píng)估深層網(wǎng)絡(luò)中實(shí)際發(fā)生的事情。然而,由此產(chǎn)生的模型可能無(wú)法告訴我們有關(guān)生物學(xué)或病理學(xué)機(jī)制的任何信息,甚至可能這些模型僅僅代表了訓(xùn)練數(shù)據(jù)中存在的偏差(bias),這會(huì)限制它們對(duì)其他數(shù)據(jù)的適用性。例如,今年的 replication award 頒給了一項(xiàng)研究,該研究表明某些已發(fā)表的模型缺乏普適性。 在完全解決這些問(wèn)題之前,作為研究人員,我們所能做的最好的事情就是了解我們正在使用的算法及其局限性。這樣我們就可以選擇最合適的技術(shù),嚴(yán)格應(yīng)用于合適的樣本量并且避免過(guò)擬合。幸運(yùn)的是,有大量關(guān)于機(jī)器學(xué)習(xí)技術(shù)的在線資源,包括教科書(shū)(例如Bishop,2006),Andrew Ng的著名的關(guān)于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的Coursera課程,以及在線博客和論壇等。來(lái)自MRI社區(qū)的大量論文提供了用于腦成像的機(jī)器學(xué)習(xí)工具的概述,或者更具體的示例,例如機(jī)器學(xué)習(xí)如何塑造認(rèn)知神經(jīng)成像以及如何將機(jī)器學(xué)習(xí)分類(lèi)器用于fMRI數(shù)據(jù)等。OHBM OnDemand 上擁有大量的教育課程視頻和關(guān)于腦成像的機(jī)器學(xué)習(xí)應(yīng)用的討論,并且我們也期待今年在羅馬的OHBM 上有更多的令人興奮的教育和研討會(huì)討論在腦成像研究中使用機(jī)器學(xué)習(xí)技術(shù)。 |
|