年初的時候,AI圈有消息說何愷明將離開Facebook AI研究院,去麻省理工擔(dān)任教職。 最近,據(jù)何愷明GitHub主頁最新信息,這一“傳言”得到了證實,何愷明說: 我將在2024年加入麻省理工學(xué)院的電子工程與計算機(jī)科學(xué)系。 I will be joining the Department of Electrical Engineering and Computer Science (EECS) at Massachusetts Institute of Technology (MIT) as a faculty member in 2024. 對此,英偉達(dá)資深科學(xué)家Jim Fan表示:如果別人加入MIT我會祝賀他,如果是愷明加入MIT,我會祝賀MIT將擁有愷明。 何愷明的論文引用數(shù)超過46萬,如果他加入 MIT,那他將會成為全校被引用次數(shù)最高的學(xué)者。目前 MIT 全校被引用量最高的是化學(xué)與生物醫(yī)學(xué)工程系的 Robert Langer,總引用量超過38萬次。 何凱愷是計算機(jī)視覺領(lǐng)域的超級明星,別人的榮譽(yù)都是在某某大廠工作,拿過什么大獎,而何愷明的榮譽(yù)是best,best,best ...... 例如2016 CVPR 最佳論文“Deep Residual Learning for Image Recognition”以及2017ICCV最佳論文“Mask R-CNN”。 在今年的世界人工智能大會上,商湯科技創(chuàng)始人湯曉鷗評價何愷明多次按響深度學(xué)習(xí)門鈴:
他2009年的那篇CVPR最佳論文,是CVPR整個25年歷史上亞洲的第一篇最佳論文。 他的第一項工作是在微軟亞洲研究院發(fā)布的有關(guān)殘差網(wǎng)絡(luò)(ResNet)的論文。在2015年之前,深度學(xué)習(xí)最多只能訓(xùn)練20層,而CNN(卷積神經(jīng)網(wǎng)絡(luò))模型ResNet在網(wǎng)絡(luò)的每一層引入了一個直連通道,從而解決了深度網(wǎng)絡(luò)的梯度傳遞問題,獲得了2016年CVPR的最佳論文獎,是計算機(jī)視覺歷史上被引用最多的論文。 “在ResNet之后就可以有效地訓(xùn)練超過百層的深度神經(jīng)網(wǎng)絡(luò),把網(wǎng)絡(luò)打得非常深。”湯曉鷗說,“在大模型時代,以Transformer為核心的大模型,包括GPT系列,也普遍采用了ResNet結(jié)構(gòu),以支撐上百層的Transformer的堆疊。 尤其是何愷明在Facebook期間發(fā)明的Mask R-CNN算法,首次把基于掩碼的自編碼思想用于視覺領(lǐng)域的非監(jiān)督學(xué)習(xí),開啟了計算機(jī)視覺領(lǐng)域自監(jiān)督學(xué)習(xí)的大門。 今年的3月13日,何愷明在MIT做學(xué)術(shù)演講,演講主題是 'In Pursuit of Visual Intelligence'(追求視覺智能)。 據(jù)說,在現(xiàn)場演講中,何愷明按時間線順序回顧其之前的幾篇工作,主要包括了 ResNet、Faster R-CNN、Mask R-CNN、MoCo 和 MAE。據(jù)何愷明所言,“在 ResNet 出現(xiàn)以前,Deep learning 的大廈上空漂浮著一朵烏云,而 ResNet 去掉了這朵烏云?!?/span> 此外,何愷明也在現(xiàn)場透露了接下來的研究方向會是 AI for science,將聚焦視覺和 NLP 大一統(tǒng)做 self-supervised X AI。 從參會的嘉賓那得知,他分享了兩個前沿的未來方向:1、視覺世界中自監(jiān)督學(xué)習(xí)的機(jī)會;2、計算機(jī)視覺研究如何通過自監(jiān)督學(xué)習(xí)推廣到自然科學(xué)觀察,繼續(xù)影響更廣泛的領(lǐng)域。 在世界人工智能大會上,湯曉鷗也爆料說何愷明將有更重磅的工作發(fā)布。文摘菌猜應(yīng)該是關(guān)于NLP和CV大一統(tǒng)的。 何愷明是廣東人,從小在廣州長大,在廣州執(zhí)信中學(xué)讀書時曾獲得全國物理競賽和省化學(xué)競賽的一等獎。2003年5月,何愷明獲得保送清華的資格,同年他以滿分900分的成績,成為當(dāng)年廣東省9位滿分狀元之一。進(jìn)入清華大學(xué)以后,何愷明放棄保送的機(jī)械工程及其自動化專業(yè)轉(zhuǎn)向基礎(chǔ)科學(xué)班。 2007年,還未畢業(yè)的何愷明進(jìn)入微軟亞洲研究院實習(xí),出于對計算機(jī)圖形圖像課程的興趣,他選擇加入了視覺計算組。頭兩年里,何愷明嘗試做過不少各種各樣的課題,但一直發(fā)不了論文,這對此前頭頂著高考滿分狀元光環(huán)的他來說,無疑是個不小的打擊。 何愷明花了更多時間在問題研究上,甚至在電腦游戲里找靈感。不鳴則已,一鳴驚人。2009 年,湯曉鷗、何愷明以及孫劍憑借論文“Single Image Haze Removal Using Dark Channel Prior ”,獲得該年度 CVPR 的最佳論文獎。 此后,何愷明一路開掛,據(jù)公眾號@Smarter舉例他的代表作: 通過殘差連接,可以訓(xùn)練非常深的卷積神經(jīng)網(wǎng)絡(luò)。不管是之前的CNN,還是最近的ViT、MLP-Mixer架構(gòu),仍然擺脫不了殘差連接的影響。 在Faster R-CNN的基礎(chǔ)上,增加一個實例分割分支,并且將RoI Pooling替換成了RoI Align,使得實例分割精度大幅度提升。雖然最新的實例分割算法層出不窮,但是精度上依然難以超越Mask R-CNN。 2017 ICCV best student paper Focal Loss for Dense Object Detection 構(gòu)建了一個One-Stage檢測器RetinaNet,同時提出Focal Loss來處理One-Stage的類別不均衡問題,在目標(biāo)檢測任務(wù)上首次One-Stage檢測器的速度和精度都優(yōu)于Two-Stage檢測器。近些年的One-Stage檢測器(如FCOS、ATSS),仍然以RetinaNet為基礎(chǔ)進(jìn)行改進(jìn)。 總之,何愷明擁有卓越的科研直覺,總是能準(zhǔn)確地找到最核心的問題并提出簡明扼要的解決方案,這些方案體現(xiàn)出深厚的思維深度。 |
|
來自: sdulovebook > 《MIT》