IT 作為一門(mén)專(zhuān)業(yè)學(xué)科的存在歸功于尋求從信息中獲得競(jìng)爭(zhēng)優(yōu)勢(shì)的公司。今天,組織充斥著數(shù)據(jù),但處理和分析數(shù)據(jù)的技術(shù)往往難以跟上每臺(tái)機(jī)器、應(yīng)用程序和傳感器發(fā)出的源源不斷的遙測(cè)數(shù)據(jù)的洪流。 事實(shí)證明,對(duì)于基于結(jié)構(gòu)化數(shù)據(jù)庫(kù)的傳統(tǒng)信息系統(tǒng)而言,非結(jié)構(gòu)化數(shù)據(jù)的爆炸式增長(zhǎng)尤其具有挑戰(zhàn)性,這引發(fā)了基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的新算法的開(kāi)發(fā)。這反過(guò)來(lái)又導(dǎo)致組織需要為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和人工智能工作負(fù)載購(gòu)買(mǎi)或構(gòu)建系統(tǒng)和基礎(chǔ)設(shè)施。 在今天的文章中,讓我們概述能夠使用 AI/機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的基礎(chǔ)架構(gòu)電腦配置要求 背景概述這是因?yàn)閹缀螖U(kuò)展的非結(jié)構(gòu)化數(shù)據(jù)集、機(jī)器學(xué)習(xí) (ML) 和深度學(xué)習(xí) (DL) 研究的激增以及旨在并行化和加速 ML 和 DL 工作負(fù)載的成倍強(qiáng)大的硬件之間的聯(lián)系激發(fā)了對(duì)企業(yè) AI 的興趣應(yīng)用程序。IDC 預(yù)測(cè),到 2024 年 AI 將變得普遍,四分之三的組織都在使用 AI,其中 20% 的工作負(fù)載和 15% 的企業(yè)基礎(chǔ)設(shè)施將用于基于 AI 的應(yīng)用程序。 企業(yè)將在云上構(gòu)建許多此類(lèi)應(yīng)用程序。但是,訓(xùn)練和饋送此類(lèi)算法所需的大量數(shù)據(jù)、將數(shù)據(jù)移動(dòng)并存儲(chǔ)在云中的高昂成本以及對(duì)實(shí)時(shí)或近實(shí)時(shí)結(jié)果的需求,意味著許多企業(yè) AI 系統(tǒng)將部署在私有的專(zhuān)用系統(tǒng)上。 在為人工智能增強(qiáng)的未來(lái)做準(zhǔn)備時(shí),IT 必須應(yīng)對(duì)許多架構(gòu)和部署選擇。其中最主要的是人工智能加速硬件集群的設(shè)計(jì)和規(guī)范。由于其密度、可擴(kuò)展性和靈活性,一種很有前景的選擇是超融合基礎(chǔ)設(shè)施 (HCI) 系統(tǒng)。雖然人工智能優(yōu)化硬件的許多元素都高度專(zhuān)業(yè)化,但整體設(shè)計(jì)與更普通的超融合硬件非常相似。 機(jī)器學(xué)習(xí)、人工智能用例的流行基礎(chǔ)設(shè)施大多數(shù) AI 系統(tǒng)運(yùn)行在 Linux VM 上或作為 Docker 容器運(yùn)行。事實(shí)上,大多數(shù)流行的 AI 開(kāi)發(fā)框架和許多示例應(yīng)用程序都可以作為來(lái)自 Nvidia 和其他公司的預(yù)打包容器映像提供。 流行的應(yīng)用程序包括:
這些在各種行業(yè)中都有應(yīng)用,例如:
一些應(yīng)用程序,例如網(wǎng)絡(luò)安全和 IT 運(yùn)營(yíng)自動(dòng)化系統(tǒng) (AIOps) 的異常檢測(cè),跨越多個(gè)行業(yè),基于人工智能的功能被納入各種管理和監(jiān)控產(chǎn)品。 AI 應(yīng)用需要大量存儲(chǔ)將有一個(gè)用于 AI 和 ML 模型訓(xùn)練的海量歷史數(shù)據(jù)存儲(chǔ)庫(kù),以及用于模型推理和預(yù)測(cè)分析的高速傳入數(shù)據(jù)流。機(jī)器學(xué)習(xí)和人工智能的數(shù)據(jù)集可以達(dá)到數(shù)百 TB 到 PB,通常是非結(jié)構(gòu)化格式,如文本、圖像、音頻和視頻,但包括半結(jié)構(gòu)化內(nèi)容,如 Web 點(diǎn)擊流和系統(tǒng)日志。這使得這些數(shù)據(jù)集適用于對(duì)象存儲(chǔ)或 NAS 文件系統(tǒng)。 AI 要求和核心硬件元素機(jī)器和深度學(xué)習(xí)算法以數(shù)據(jù)為基礎(chǔ)。數(shù)據(jù)選擇、收集和預(yù)處理,例如過(guò)濾、分類(lèi)和特征提取,是影響模型準(zhǔn)確性和預(yù)測(cè)價(jià)值的主要因素。因此,數(shù)據(jù)聚合(整合來(lái)自多個(gè)來(lái)源的數(shù)據(jù))和存儲(chǔ)是影響硬件設(shè)計(jì)的 AI 應(yīng)用程序的重要元素。 數(shù)據(jù)存儲(chǔ)和 AI 計(jì)算所需的資源通常不會(huì)同步擴(kuò)展。因此,大多數(shù)系統(tǒng)設(shè)計(jì)將兩者解耦,在 AI 計(jì)算節(jié)點(diǎn)中使用本地存儲(chǔ)設(shè)計(jì)為足夠大且足夠快以提供算法。 機(jī)器和深度學(xué)習(xí)算法需要大量的矩陣乘法和累加浮點(diǎn)運(yùn)算。這些算法可以并行執(zhí)行矩陣計(jì)算,這使得 ML 和 DL 類(lèi)似于像素著色和光線跟蹤等圖形計(jì)算,這些計(jì)算由圖形處理器單元 (GPU)大大加速。 但是,與 CGI 圖形和圖像不同,ML 和 DL 計(jì)算通常不需要雙精度(64 位)甚至單精度(32 位)精度。這允許通過(guò)減少計(jì)算中使用的浮點(diǎn)位數(shù)來(lái)進(jìn)一步提高性能。因此,盡管近十年來(lái)早期的深度學(xué)習(xí)研究使用了現(xiàn)成的 GPU 加速卡,但領(lǐng)先的 GPU 制造商英偉達(dá)已經(jīng)建立了一條單獨(dú)的數(shù)據(jù)中心 GPU 產(chǎn)品線,專(zhuān)為科學(xué)和人工智能工作負(fù)載量身定制。 電腦配置要求和硬件AI 工作負(fù)載的典型服務(wù)器設(shè)計(jì) 對(duì)AI性能最關(guān)鍵的電腦組件配置如下:
總結(jié)GPU 一直是大多數(shù) AI 工作負(fù)載的主力,英偉達(dá)通過(guò) Tensor Cores、多實(shí)例 GPU(并行運(yùn)行多個(gè)進(jìn)程和 NVLink GPU 互連)等功能顯著提高了它們的深度學(xué)習(xí)性能。然而,對(duì)速度和 效率的日益增長(zhǎng)的需求 催生了大量新的人工智能處理器,如谷歌的 TPU、英特爾 Habana 人工智能處理器、Tachyum 通用處理器、Wave AI SoC 或基于現(xiàn)場(chǎng)可編程門(mén)陣列 (FPGA) 的解決方案,如 Microsoft Brainwave、云中人工智能的深度學(xué)習(xí)平臺(tái)。 呆貓?jiān)谱烂娑嗫罡叨藱C(jī)型選擇,輕松暢享高配企業(yè)可以通過(guò)選擇正確的配置和系統(tǒng)組件,將任何超融合基礎(chǔ)設(shè)施或高密度系統(tǒng)用于 AI。不過(guò)隨著深度學(xué)習(xí)以及人工智能對(duì)電腦的要求越來(lái)越高,還是推薦大家選擇呆貓?jiān)谱烂?/span>輕松解決電腦配置瓶頸,輕松辦公研究人工智能和深度學(xué)習(xí)。 呆貓?jiān)谱烂?/strong>后臺(tái)可配置的CPU機(jī)器數(shù)量上不封頂,同時(shí)針對(duì)GPU機(jī)型呆貓?jiān)O(shè)有天璇型、天璣型、天樞型三種選項(xiàng),所有GPU機(jī)型皆配備N(xiāo)VIDIA專(zhuān)業(yè)級(jí)頂配顯卡。 呆貓?jiān)谱烂?/strong>在科學(xué)計(jì)算、渲染、游戲、辦公等應(yīng)用場(chǎng)景下的表現(xiàn)自不必說(shuō),玩大型游戲更是小菜一碟,擁有呆貓相當(dāng)于把超級(jí)電腦放進(jìn)口袋,隨時(shí)隨地都可暢享高配,滿足移動(dòng)辦公、人工智能、三維建模、視覺(jué)設(shè)計(jì)、影視制作、教育培訓(xùn)、動(dòng)畫(huà)渲染、娛樂(lè)暢玩等多場(chǎng)景應(yīng)用。 |
|
來(lái)自: 茂林之家 > 《電腦/數(shù)碼》