小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

恭喜麻省理工學(xué)院!AI大神何愷明:2024 加入 EECS 任教職

 sdulovebook 2023-08-01 發(fā)布于美國
Image
大數(shù)據(jù)文摘出品

年初的時候,AI圈有消息說何愷明將離開Facebook AI研究院,去麻省理工擔(dān)任教職。

Image

最近,據(jù)何愷明GitHub主頁最新信息,這一“傳言”得到了證實,何愷明說:

 我將在2024年加入麻省理工學(xué)院的電子工程與計算機(jī)科學(xué)系。

I will be joining the Department of Electrical Engineering and Computer Science (EECS) at Massachusetts Institute of Technology (MIT) as a faculty member in 2024.

對此,英偉達(dá)資深科學(xué)家Jim Fan表示:如果別人加入MIT我會祝賀他,如果是愷明加入MIT,我會祝賀MIT將擁有愷明。

Image

何愷明的論文引用數(shù)超過46萬,如果他加入 MIT,那他將會成為全校被引用次數(shù)最高的學(xué)者。目前 MIT 全校被引用量最高的是化學(xué)與生物醫(yī)學(xué)工程系的 Robert Langer,總引用量超過38萬次。

Image

何凱愷是計算機(jī)視覺領(lǐng)域的超級明星,別人的榮譽(yù)都是在某某大廠工作,拿過什么大獎,而何愷明的榮譽(yù)是best,best,best ...... 例如2016 CVPR 最佳論文“Deep Residual Learning for Image Recognition”以及2017ICCV最佳論文“Mask R-CNN”。

何愷明:多次按響深度學(xué)習(xí)門鈴

在今年的世界人工智能大會,商湯科技創(chuàng)始人湯曉鷗評價何愷明多次按響深度學(xué)習(xí)門鈴:

“何愷明把神經(jīng)網(wǎng)絡(luò)做深了,谷歌把神經(jīng)網(wǎng)絡(luò)的入口拉大了,又深又大,才成為今天的大模型。”

他2009年的那篇CVPR最佳論文,是CVPR整個25年歷史上亞洲的第一篇最佳論文。

他的第一項工作是在微軟亞洲研究院發(fā)布的有關(guān)殘差網(wǎng)絡(luò)(ResNet)的論文。在2015年之前,深度學(xué)習(xí)最多只能訓(xùn)練20層,而CNN(卷積神經(jīng)網(wǎng)絡(luò))模型ResNet在網(wǎng)絡(luò)的每一層引入了一個直連通道,從而解決了深度網(wǎng)絡(luò)的梯度傳遞問題,獲得了2016年CVPR的最佳論文獎,是計算機(jī)視覺歷史上被引用最多的論文。

“在ResNet之后就可以有效地訓(xùn)練超過百層的深度神經(jīng)網(wǎng)絡(luò),把網(wǎng)絡(luò)打得非常深。”湯曉鷗說,“在大模型時代,以Transformer為核心的大模型,包括GPT系列,也普遍采用了ResNet結(jié)構(gòu),以支撐上百層的Transformer的堆疊。

尤其是何愷明在Facebook期間發(fā)明的Mask R-CNN算法,首次把基于掩碼的自編碼思想用于視覺領(lǐng)域的非監(jiān)督學(xué)習(xí),開啟了計算機(jī)視覺領(lǐng)域自監(jiān)督學(xué)習(xí)的大門。

何愷明工作的重點方向
Image

今年的3月13日,何愷明在MIT做學(xué)術(shù)演講,演講主題是 'In Pursuit of Visual Intelligence'(追求視覺智能)。

據(jù)說,在現(xiàn)場演講中,何愷明按時間線順序回顧其之前的幾篇工作,主要包括了 ResNet、Faster R-CNN、Mask R-CNN、MoCo 和 MAE。據(jù)何愷明所言,“在 ResNet 出現(xiàn)以前,Deep learning 的大廈上空漂浮著一朵烏云,而 ResNet 去掉了這朵烏云?!?/span>

此外,何愷明也在現(xiàn)場透露了接下來的研究方向會是 AI for science,將聚焦視覺和 NLP 大一統(tǒng)做 self-supervised X AI。

從參會的嘉賓那得知,他分享了兩個前沿的未來方向:1、視覺世界中自監(jiān)督學(xué)習(xí)的機(jī)會;2、計算機(jī)視覺研究如何通過自監(jiān)督學(xué)習(xí)推廣到自然科學(xué)觀察,繼續(xù)影響更廣泛的領(lǐng)域。

在世界人工智能大會上,湯曉鷗也爆料說何愷明將有更重磅的工作發(fā)布。文摘菌猜應(yīng)該是關(guān)于NLP和CV大一統(tǒng)的。

關(guān)于何愷明:從高考狀元到 CV 大神

何愷明是廣東人,從小在廣州長大,在廣州執(zhí)信中學(xué)讀書時曾獲得全國物理競賽和省化學(xué)競賽的一等獎。2003年5月,何愷明獲得保送清華的資格,同年他以滿分900分的成績,成為當(dāng)年廣東省9位滿分狀元之一。進(jìn)入清華大學(xué)以后,何愷明放棄保送的機(jī)械工程及其自動化專業(yè)轉(zhuǎn)向基礎(chǔ)科學(xué)班。

2007年,還未畢業(yè)的何愷明進(jìn)入微軟亞洲研究院實習(xí),出于對計算機(jī)圖形圖像課程的興趣,他選擇加入了視覺計算組。頭兩年里,何愷明嘗試做過不少各種各樣的課題,但一直發(fā)不了論文,這對此前頭頂著高考滿分狀元光環(huán)的他來說,無疑是個不小的打擊。

何愷明花了更多時間在問題研究上,甚至在電腦游戲里找靈感。不鳴則已,一鳴驚人。2009 年,湯曉鷗、何愷明以及孫劍憑借論文“Single Image Haze Removal Using Dark Channel Prior ”,獲得該年度 CVPR 的最佳論文獎。

此后,何愷明一路開掛,據(jù)公眾號@Smarter舉例他的代表作:

2016 CVPR best paper Deep Residual Learning for Image Recognition

通過殘差連接,可以訓(xùn)練非常深的卷積神經(jīng)網(wǎng)絡(luò)。不管是之前的CNN,還是最近的ViT、MLP-Mixer架構(gòu),仍然擺脫不了殘差連接的影響。

2017 ICCV best paper Mask R-CNN

在Faster R-CNN的基礎(chǔ)上,增加一個實例分割分支,并且將RoI Pooling替換成了RoI Align,使得實例分割精度大幅度提升。雖然最新的實例分割算法層出不窮,但是精度上依然難以超越Mask R-CNN。

2017 ICCV best student paper Focal Loss for Dense Object Detection

構(gòu)建了一個One-Stage檢測器RetinaNet,同時提出Focal Loss來處理One-Stage的類別不均衡問題,在目標(biāo)檢測任務(wù)上首次One-Stage檢測器的速度和精度都優(yōu)于Two-Stage檢測器。近些年的One-Stage檢測器(如FCOS、ATSS),仍然以RetinaNet為基礎(chǔ)進(jìn)行改進(jìn)。

2020 CVPR Best Paper Nominee Momentum Contrast for Unsupervised Visual Representation Learning
19年末,NLP領(lǐng)域的Transformer進(jìn)一步應(yīng)用于Unsupervised representation learning,產(chǎn)生后來影響深遠(yuǎn)的BERT和GPT系列模型,反觀CV領(lǐng)域,ImageNet刷到飽和,似乎遇到了怎么也跨不過的屏障。就在CV領(lǐng)域停滯不前的時候,Kaiming He帶著MoCo橫空出世,橫掃了包括PASCAL VOC和COCO在內(nèi)的7大數(shù)據(jù)集,至此,CV拉開了Self-Supervised研究新篇章。
不止于此,總結(jié)下來何愷明的研究興趣大致分成這么幾個階段:傳統(tǒng)視覺時代:Haze Removal(3篇)、Image Completion(2篇)、Image Warping(3篇)、Binary Encoding(6篇)
深度學(xué)習(xí)時代:Neural Architecture(11篇)、Object Detection(7篇)、Semantic Segmentation(11篇)、Video Understanding(4篇)、Self-Supervised(8篇)

總之,何愷明擁有卓越的科研直覺,總是能準(zhǔn)確地找到最核心的問題并提出簡明扼要的解決方案,這些方案體現(xiàn)出深厚的思維深度。

Image

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多