我們擅長商業(yè)策略與用戶體驗的完美結合。
歡迎瀏覽我們的案例。
作為人工智能最重要的基礎技術之一,近年來深度學習逐步延伸到更多的應用場景。隨著深度學習模型越來越大,所需數(shù)據量越來越多,深度學習的訓練和推理性能將是重中之重。
近日,斯坦福大學發(fā)布了 DAWNBenchmark 的最新成績,在圖像識別(ResNet50-on-ImageNet,93% 以上精度)的總訓練時間上,華為云 ModelArts 排名世界第一,僅需 10 分 28 秒,比第二名提升近 44%。成績證明,華為云 ModelArts 實現(xiàn)了更低成本、更快速度、更極致的體驗。
斯坦福大學 DAWNBench 是用來衡量端到端的深度學習模型訓練和推理性能的國際權威基準測試平臺,相應的排行榜反映了當前全球業(yè)界深度學習平臺技術的領先性。
深度學習訓練加速 需求日益劇增
人工智能領域存在巨大的反差,一方面論文數(shù)量、AI 計劃、創(chuàng)業(yè)公司數(shù)量繁多,一方面?zhèn)鹘y(tǒng)行業(yè)和企業(yè)卻鮮有部署 AI,AI 普及率在多個行業(yè)還是個位數(shù)。華為 GIV 預測,到 2025 年,全球人工智能終端將達到 400 億臺,企業(yè)應用云化率將達到 85%;企業(yè)數(shù)據利用率將達到 80%;86% 的企業(yè)將應用人工智能。
近年來,深度學習已經廣泛應用于計算機視覺、語音識別、自然語言處理等領域,為了達到更高的精度,通常深度學習所需數(shù)據量和模型都很大,訓練非常耗時,這也在一定程度上阻礙了深度學習應用的開發(fā)進度。因此,深度學習訓練加速一直是學術界和工業(yè)界所關注的重要問題。
最近 BigGAN、NASNet、BERT 等模型的出現(xiàn),預示著訓練更好精度的模型需要更強大的計算資源。未來隨著模型的增大、數(shù)據量的增加,深度學習訓練加速將變得更加重要。
華為云 ModelArts 是一站式的 AI 開發(fā)平臺,已經在公測中。在模型訓練部分,ModelArts 通過硬件、軟件和算法協(xié)同優(yōu)化來實現(xiàn)訓練加速??蓪⒂柧殨r長縮短到 10 分鐘,創(chuàng)造了新的紀錄,為用戶節(jié)省 44% 的時間。ModelArts 提供自動學習、數(shù)據管理等多個模塊化的服務,可以幫助不同層級的用戶很快地開發(fā)出自己的 AI 模型。
開發(fā)者只需聚焦業(yè)務模型,無憂其他
在衡量分布式深度學習的加速性能時,主要通過兩個指標來衡量,一個是吞吐量,即單位時間內處理的數(shù)據量;另一個是收斂時間,即達到一定的收斂精度所需的時間。
吞吐量一般取決于服務器硬件、數(shù)據讀取和緩存等方面的優(yōu)化,大部分技術在提升吞吐量的同時,不會造成對模型精度的影響。為了達到最短的收斂時間,需要在優(yōu)化吞吐量的同時,在調參方面也做調優(yōu)。如果調參調得不好,那么吞吐量有時也很難優(yōu)化上去。
對用戶而言,最終關心的指標是收斂時間,ModelArts 實現(xiàn)了全棧優(yōu)化,分別在數(shù)據讀取和預處理、模型計算、超參調優(yōu)、底層優(yōu)化等方面進行優(yōu)化,縮短了訓練收斂時間。
在易用性方面,上層開發(fā)者僅需關注業(yè)務模型,無需關注下層分布式相關的 API,僅需根據實際業(yè)務定義輸入數(shù)據、模型以及相應的優(yōu)化器即可,訓練腳本與運行環(huán)境(單機或者分布式)無關,上層業(yè)務代碼和分布式訓練引擎可以做到完全解耦。
華為云 ModelArts 致力于為用戶提供更快的 AI 開發(fā)體驗,在模型訓練這方面,內置的 MoXing 框架使得深度學習模型訓練速度有了很大的提升。事實上,深度學習加速屬于一個從底層硬件到上層計算引擎、再到更上層的分布式訓練框架及其優(yōu)化算法多方面協(xié)同優(yōu)化的結果,具備全棧優(yōu)化能力才能將用戶訓練成本降到最低。后續(xù),華為云 ModelArts 將進一步整合軟硬一體化的優(yōu)勢,逐步集成更多的數(shù)據標注工具,擴大應用范圍,在公有云上為用戶提供 AI 服務。
?。?a href="http://www.nasamidwest.com">邯鄲網站建設)