全文總計2115字,建議閱讀時間5分鐘 2001年6月26日,著名導演史蒂文·斯皮爾伯格執(zhí)導的《人工智能》(英文名:《AI》)在美國上映。影片講述的是機器人小男孩大衛(wèi)為了尋找養(yǎng)母,并縮短機器人與人類的差距而奮斗的故事。 大衛(wèi)是一個被輸入情感程序的機器人男孩,Cybertronics Manufacturing公司員工亨瑞和他妻子制造出的一個試驗品。他們收養(yǎng)了大衛(wèi),并給了他足夠的愛,但是人類與機器都無法接受大衛(wèi)。于是大衛(wèi)踏上旅程去尋找真正屬于自己的地方,渴望成為一個真正意義上的人。 在這部影片上映15年后,機器人還沒有成為真正意義上的人, 但人工智能在圍棋領域戰(zhàn)勝了人類。它的強大和超強的進化能力,讓人類棋手難以望其項背。 “AlphaGo Master比AlphaGo Lee(與李世石對戰(zhàn)的版本)要強大,Master在對戰(zhàn)中耗費的能力(性能和功耗)僅是Lee版本的十分之一,需要4個TPU在單臺電腦上運行即可?!癉eepMind首席科學家David Silver在 AlphaGo 戰(zhàn)勝李世石后這樣解釋說。 AlphaGo強大到令人絕望,引發(fā)了“人工智能威脅人類”的討論。但在本質上,人工智能是算法、數據和硬件三個要素綜合的結果。 一旦涉及到算法、數據,就離不開計算。在這個領域,用來計算的硬件主要是TPU、GPU和CPU,他們背后代表的公司則分別是谷歌、英偉達和英特爾。這幾家公司彼此競爭,又互相需要。 TPU(Tensor Processing Unit)是專為機器學習而定制的芯片,經過了專門深度機器學習方面的訓練。谷歌工程師Norm Jouppi介紹,在人工智能相關的算法上,它的計算速度更快,計算結果更精準,同時也更加節(jié)能。 人工智能依賴于機器學習(Machine Learning),機器學習又依賴于硬件,它需要硬件平臺提供大量的運算資源。就計算效率來說,專用工具的計算效率遠高于通用工具。專門為機器學習定制而出現(xiàn)的谷歌的TPU就是一種專用的工具,業(yè)內普遍認為它的出現(xiàn)對于通用工具GPU來說是一種威脅。 GPU的設計初衷不是主要用來進行神經網絡運算,而是圖像處理。由于其特殊的構造碰巧也比較適用于神經網絡運算,所以在TPU出現(xiàn)之前,大多數做機器學習廠商都在同時利用FPGA和GPU來改進訓練自己的神經網絡算法。 英偉達創(chuàng)始人兼CEO黃仁勛卻不認同“TPU威脅論”,在接受鳳凰科技的采訪時,他表示谷歌的TPU不會對英偉達的Volta GPU構成威脅,雙方在TensorFlow項目上保持著合作,而Volta GPU的運算能力甚至在TPU之上。 作為世界最大的GPU制造商之一,英偉達一直不遺余力地推廣GPU在深度學習領域的應用。老黃將英偉達稱為“一家人工智能公司”。 談到英偉達基于GPU的人工智能戰(zhàn)略,需要先從Volta說起。 在今年5月11日的NVIDIA GTC 2017上,英偉達推出了全新的GPU架構Volta。英偉達應用深度學習研究副總裁Bryan Catanzaro表示這并不是前代架構Pascal的升級,而是一個全新的架構。Volta提供大量的FLOP(浮點運算),基于Volta的架構,人們就可以使用需要更多FLOP的深度學習模型。如今很多流行的模型都需要很大的計算資源,例如卷積學習神經網絡。 基于全新的Volta架構,英偉達推出Tesla V100加速器,它速度比其前身Tesla P100快2.4倍。 Tesla V100凝聚了英偉達內部數千名工程師數年的開發(fā),研發(fā)投入相當于30億美金。黃仁勛在NVIDIA GTC 2017的主題演講中,展示了一塊Tesla V100,他笑稱全世界唯一一塊就在他手上,如果有人想買的話,那么價格就是30億美金。 而在Tesla V100加速器基礎上,英偉達推出了超級計算機DGX-1V和HGX。 DGX-1V內置了8塊Tesla V100,黃仁勛表示“DGX-1V相當于400個服務器”,過去Titan X(GTX TITAN X,泰坦顯卡)需要花費8天訓練的神經網絡,DGX-1V只需要8個小時,性能提升了24倍。 HGX是英偉達和微軟聯(lián)合開發(fā)的云圖形加速器,是英偉達人工智能戰(zhàn)略的硬件支撐。它同樣內置了8塊Tesla V100。目前微軟的Project Olympus計劃、Facebook的Big Basin系統(tǒng)都是使用的HGX作為數據中心設計方案的核心。 黃仁勛在臺北國際電腦展的主題演講中表示,GPU的運算能力提升非??欤茉谖磥砣〈鶦PU成為最主要的人工智能芯片。 但是英特爾并不這么認為。臺北國際電腦展期間,英特爾數據中心全球銷售部產品和技術總經理陳葆立在接受鳳凰科技采訪時提到, TPU和GPU只是加速芯片,目前是無法獨立工作的,沒有CPU它跑不起來。 “不管是AMD或者是ARM出的CPU,都是不能直接連接到英偉達的GPU的,連接的標準是PCIE(這屬于英特爾),傳輸速度取決于PCIE的速度。但是目前我們自己的芯片組合可以跳過PCIE,所以能比CPU+GPU更快?!彼f。 在收購Nervana之后,英特爾擁有了將至強融核處理器和FPGA兩個不同的芯片整合成一個芯片的能力。在最新的Nervana系統(tǒng)中,就包含了FPGA加速芯片Arria 10和至強融核處理器的整合。 FPGA最初是從專用集成電路發(fā)展起來的半定制化的可編程電路,它可以作為一種用以實現(xiàn)特殊任務的可再編程芯片應用與機器學習中。 譬如百度的機器學習硬件系統(tǒng)就是用FPGA打造了AI專有芯片,制成FPGA版百度大腦。FPGA比相同性能水平的硬件系統(tǒng)消耗能率更低,在刀片式服務器上可以由主板上的PCI Express總線供電。使用FPGA可以將一個計算得到的結果直接反饋到下一個,不需要臨時保存在主存儲器,所以存儲帶寬要求也在相應降低。 英特爾的方案是將CPU與FPGA融合起來,組合芯片的運算更加靈活和高效,同時還能實現(xiàn)最低的功耗,獲得性能和功耗的平衡。 人工智能方興未艾,谷歌的TPU、英偉達的GPU和英特爾的CPU組合方案,在硬件層面上都還只是嘗試,這種嘗試能幫助實現(xiàn)早期的技術積累。在采訪的最后陳葆立提到,雖然是不同的硬件平臺,但是大家都在想辦法融合,這有利于幫助開發(fā)者,從而真正幫助人工智能向前發(fā)展。 責編 | 劉考坤
|
|