小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

CVPR 2019 | 程序主席發(fā)文潑冷水:計算機視覺的黃金時代靠的都是記憶

 taotao_2016 2019-06-28
反思 CV 的黃金時代。

AI 科技評論按,隨著計算機視覺技術(shù)日趨火熱,作為該領(lǐng)域的頂級學(xué)術(shù)會議,CVPR 參與人數(shù)逐年猛增 。上周在美國長灘舉辦的 CVPR 2019 熱度還未散去,6 月 26 日,會議的程序主席 Derek Hoiem 發(fā)表了一篇博文。在博文中,Derek Hoiem 表示,現(xiàn)在是計算機視覺技術(shù)的黃金時代,同時他也表示,目前的計算機視覺技術(shù)只是記憶,而不是智力。雷鋒網(wǎng) AI 科技評論將他的文章編譯如下。

對于計算機視覺研究者來說,這是一個激動人心但難以抗拒的時代。上周二,我有幸在 CVPR 2019 大會上向 9277 名與會者發(fā)表開幕詞。作為四個程序主席之一,我的工作是管理論文決策過程,這其中包括協(xié)調(diào) 132 個區(qū)域主席、2887 名審稿人和提交 5160 篇論文的 14104 名作者,以及規(guī)劃 1296 張海報的展示和 288 次演講。這是有史以來最大的計算機視覺會議,但在短短四個月內(nèi)又將會有一次會議——ICCV 2019。如此多的事情正在發(fā)生——誰能跟上?

CVPR 每年提交(藍色)和接收(綠色)論文數(shù)量

計算機視覺不再只是一種學(xué)術(shù)追求。數(shù)十億美元被用于從智能攝像頭到自動駕駛的計算機視覺應(yīng)用程序中。大多數(shù)教授把至少一半的時間花在工業(yè)界的研究上,即使是初出茅廬的博士生,也能拿到六位數(shù)的豐厚薪水。但這是否是一場泡沫?我們?nèi)绾螌⒊墒斓纳虡I(yè)化突破與大肆宣傳的概念證明區(qū)分開來?

首先,讓我們簡單回顧一下我們是如何做到這一點的:

  • 1963 年:Robert 的經(jīng)典「Blocks World」論文使用精心設(shè)計的特征和規(guī)則,從圖像構(gòu)建三維對象。

  • 1981 年:Lucas 和 Kanade 在僅僅長達六頁紙的論文中提出了有效的運動跟蹤和立體視覺算法。隨之而來的是幾何視覺和圖像處理的進步。

  • 1996 年:Rowley、Baluja 和 Kanade 描述了第一個現(xiàn)代物體檢測,即一個訓(xùn)練用來檢測人臉的神經(jīng)網(wǎng)絡(luò)。數(shù)字圖像激增,數(shù)據(jù)取代了規(guī)則。

  • 2012 年:數(shù)以百萬計的標(biāo)記圖像和 GPU 處理為 Krizevsky、Sutskever 和 Hinton 提供了證明深度學(xué)習(xí)強大力量的基礎(chǔ),相比原來的方法,深度學(xué)習(xí)方法的錯誤率降低了一半。數(shù)據(jù)取代了手工標(biāo)記特征。

  • 2019 年:面部識別、身體追蹤和常見物體的檢測就像魔術(shù)一樣神奇。單張圖像的深度預(yù)測看起來很棒。但只有門外漢試圖解決標(biāo)簽圖像少于 100000 張的問題。數(shù)據(jù)標(biāo)注產(chǎn)業(yè)應(yīng)運而生。

所以,這就是計算機視覺成功的秘密:它是記憶,而不是智力。讓我們以單視圖深度預(yù)測為例。2005 年,我苦苦鉆研這個問題,首次提出了從室外圖像自動創(chuàng)建 3D 模型的方法。它的關(guān)鍵是學(xué)習(xí)「識別」幾何圖形,將像素標(biāo)記為地面、垂直物體和支撐物,并使用透視幾何規(guī)則構(gòu)建場景幾何的簡單模型。這花費了大約 30% 的時間。

視頻:早期的單視圖 3D 重建方法:一點數(shù)據(jù)、手工設(shè)計的特征和一些數(shù)學(xué),請移步Y(jié)outube觀看:https:///qbWDXP0WaA0

單視圖構(gòu)建 3D 模型是現(xiàn)在的一個熱門話題,僅在 CVPR 2019 上就有 35 篇論文。有一些方法可以從全景圖生成場景布局,從圖像生成對象網(wǎng)格,從一個視圖生成深度圖。然而,正如我們小組和 UCI 在 2018 年指出的,以及 Freiburg 和 Intel 的研究人員在 CVPR 2019 所指出的那樣,許多似乎解釋了幾何學(xué)的方法實際上只是在學(xué)習(xí)和檢索與輸入類似例子的記憶以做出預(yù)測。預(yù)測出來的的 3D 模型可能看起來不錯,但這些方法并不能推廣到新的形狀或場景中。

因此,讓我們考慮兩個非常有意思的問題:

  1. 圖像深度。如果你能在現(xiàn)場拍攝一張照片,并將其發(fā)送到辦公室進行 3D 測量和質(zhì)量控制,這難道不是一件很棒的事情嗎?再見,昂貴的激光掃描儀和笨重的攝影測量儀!好了,夢做完了,現(xiàn)在睜開眼睛。Matterport 最近公布了 360 全景的深度預(yù)測,這是一個令人印象深刻的數(shù)據(jù)收集和機器學(xué)習(xí)壯舉。它的相對深度很好,邊緣也在正確的位置。Ricoh Theta 需要以已知的高度固定在三腳架上,這消除了由于未知的相機參數(shù)和姿勢而產(chǎn)生的一些變化。但是它在精度上仍然達不到可用的標(biāo)準(zhǔn),它使用的編解碼器模式也只是一種記憶形式,因此,各種各樣不同的重建場景中的深度預(yù)測可能在接下來很長一段時間內(nèi)都會容易出錯。我所在的 Reconstruct 公司最近推出了基于 360 度全景視頻的三維重建,由于它使用的是老式的相關(guān)性和優(yōu)化方法,它工作起來非??煽?。目前,我覺得這種 3D 重建最好只用在無人機、視頻捕捉和掃描儀等。不過,即便我這么說了,我還是對單視圖識別的深度方法與多視圖方法相結(jié)合來產(chǎn)生精確幾何的潛力感到非常興奮?!?br/>

  2. 自動化進度監(jiān)控。在重建時,我們將點云和圖像與 BIM 對齊,因此可以很容易地自動比較構(gòu)建計劃和評估進度。我們有一些基本方法的專利和論文,但它們并不像看上去那么簡單,而且,它們還沒有準(zhǔn)備好迎接這個黃金時代。最大的挑戰(zhàn)是各種各樣的建筑元素和任務(wù)、不完整的觀察結(jié)果、評估幾何和材料特性(例如,板巖與噴漆墻)、獲取標(biāo)記數(shù)據(jù)的挑戰(zhàn)。有些人聲稱有自動進度監(jiān)控,但由于缺乏數(shù)據(jù)和專業(yè)知識,我認(rèn)為這些說法不可信,無法廣泛應(yīng)用。但是,有了正確的數(shù)據(jù)以及最近在語義分割方面取得的進展,這可能在未來一兩年內(nèi)實現(xiàn),至少對于已經(jīng)完成的粗略測量工作來說是如此。

總而言之,如果有人聲稱剛解決了一個很難的識別或預(yù)測的問題,那么問問你自己:他們是否有足夠的數(shù)據(jù),就像我關(guān)心的類型一樣,他們的方法能夠記住所有的答案?這就要求:

  1. 他們是否用了大量的數(shù)據(jù)以至于他們的方法只需要記住所有的答案就夠了;

  2. 他們在標(biāo)注上花費了數(shù)百萬美元,或者有一種自動化的方式來獲得監(jiān)督(例如,Matterport 深度掃描儀);

  3. 預(yù)測問題足夠簡單,并且你的領(lǐng)域也足夠有限,以至于可能會被他們的數(shù)據(jù)和實驗室所覆蓋。數(shù)十億美元的圖像標(biāo)注產(chǎn)業(yè)的存在是有原因的,到目前為止,還沒有什么東西能代替數(shù)據(jù)。

via:https:///reconstruct-inc/the-golden-age-of-computer-vision-338da3e471d1

2019 全球人工智能與機器人峰會

2019 年 7 月 12 日至 14 日,由中國計算機學(xué)會(CCF)主辦、雷鋒網(wǎng)和香港中文大學(xué)(深圳)聯(lián)合承辦,深圳市人工智能與機器人研究院協(xié)辦的 2019 全球人工智能與機器人峰會(簡稱 CCF-GAIR 2019)將于深圳正式啟幕。

屆時,諾貝爾獎得主JamesJ. Heckman、中外院士、世界頂會主席、知名Fellow,多位重磅嘉賓將親自坐陣,一起探討人工智能和機器人領(lǐng)域?qū)W、產(chǎn)、投等復(fù)雜的生存態(tài)勢。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多