AI火了,但數(shù)據(jù)分析模型管理難、部署難的問題,應該怎么解決?
近年來,隨著數(shù)字化基礎設施建設不斷完善,企業(yè)產(chǎn)業(yè)智能升級的需求不斷增長,人工智能產(chǎn)業(yè)發(fā)展進入“快車道”。隨著人工智能和機器學習在各個行業(yè)的應用逐漸深入,AI模型數(shù)量將呈現(xiàn)幾何級數(shù)增長,而這也帶來了一些問題:
?管理難:不同模型之間的框架、部署方式不盡相同,導致異構模型很難統(tǒng)一管理和維護;
?部署難:模型部署缺少統(tǒng)一的流程規(guī)范,模型部署周期過長,運維成本高。
為解決AI模型難以統(tǒng)一管理、無法快速部署及模型落地難等問題,美林數(shù)據(jù)AI團隊傾力研發(fā)了一套基于Fass框架實現(xiàn)的三方模型管理平臺。
三方模型管理平臺
三方模型是基于開源項目OpenFaas,為數(shù)據(jù)科學家構建的一套模型的在線開發(fā)、統(tǒng)一管理、部署和運維的管理平臺,可以讓AI模型的工程化部署應用更加簡單、便捷和高效。平臺采用Serverless的服務模式構建,具備高擴展、高可用和高性能等特點,用戶無需再關注底層服務構建和資源分配等細節(jié)問題,可以更聚焦于業(yè)務模型代碼的開發(fā)。
? 異構AI模型統(tǒng)一管理,運維更省心
對于不同AI模型的框架(Tensorflow、PMML、Keras、PyTorch等)構建一個Docker基礎鏡像,在三方模型平臺上進行統(tǒng)一的上傳和管理;在模型開發(fā)時,平臺提供了統(tǒng)一的模板,進行在線開發(fā)和在線調(diào)試,同時支持模型的版本管理,確保每個模型具有可追溯性。
? 一鍵發(fā)布AI模型,部署更快捷
模型上線部署可通過界面式參數(shù)進行配置,配置好模型的相關參數(shù)后,即可一鍵發(fā)布模型,還能生成標準API,供后續(xù)服務調(diào)用,降低部署難度和復雜度。另外,平臺還支持多種函數(shù)觸發(fā)器創(chuàng)建同步服務、異步服務、Kafka服務和調(diào)度任務等,滿足工程化的部署應用需求。
?AI模型橫向擴張,運行更智能
三方模型所管理的AI模型是運行在K8s集群上,K8s集群可以橫向擴展、根據(jù)并發(fā)請求數(shù)、CPU、內(nèi)存等指標實現(xiàn)自動擴縮容,當服務空閑時,實例副本能自動縮減到零,確保資源的合理利用。
?AI模型在線寫代碼,開發(fā)更高效
平臺內(nèi)嵌編輯器,可提供統(tǒng)一的開發(fā)環(huán)境,無需用戶在本地搭建環(huán)境,實現(xiàn)模型的在線開發(fā)與封裝,降低維護成本,提升模型的開發(fā)效率。
?一站式建模,流程更完整
三方模型管理平臺在實踐操作中,涵蓋了從模型接入、模型管理、模型運維到模型應用的全流程。
通過平臺,能實現(xiàn)AI算法模型的快速部署,讓整體效率提升4.5倍,即使同時在線上百個模型預測服務,單條數(shù)據(jù)也可實現(xiàn)毫秒級響應。
總結
三方模型能讓數(shù)據(jù)科學家無需關注底層運行環(huán)境,只專注于業(yè)務模型代碼的開發(fā),在線編碼、快速進行模型部署,并成功解決了異構模型統(tǒng)一管理和運維的問題,三方模型采用函數(shù)即服務(Fass)架構實現(xiàn),具備資源易擴展、高可用和高性能等特點,幫助企業(yè)快速進行AI模型部署和應用。
聲明:本文只做技術研究討論,請勿用于非法目的,如果惡意使用造成任何法律責任本站概不負責!