onnx合作伙伴研討會首次在中國舉行 微軟全力支持開放互操作人工智能發展
2018-11-27 15:04來源://
原標題:onnx合作伙伴研討會首次在中國舉行 微軟全力支持開放互操作人工智能發展
onnx合作伙伴研討會本周在北京微軟大廈舉行。這是onnx開源項目成立以來,首次在中國舉辦落地活動。微軟與本土合作伙伴一起,共同分享了onnx項目的最新進展。
onnx(openneural network exchange)“開放神經網絡交換”項目是由微軟共同發起、旨在為人工智能互操作及創新研究提供全面支持的開放生態系統,其目標是讓人工智能更加觸手可及,并為更多人創造價值。這一開放標準可以用來表示不同的機器學習模型,讓人工智能開發者根據任務的需要選擇最合適的開發框架,并讓硬件廠商進行最佳優化。
微軟項目總經理
venky veeraraghavan
微軟希望能充分發揮人工智能的巨大潛能,幫助增強人類能力。但開發人工智能,特別是構建深度學習模型并非易事,甚至對于很多數據專家來說,這都是專業性要求極高、令人望而生畏的工作。微軟相信,我們可以通過建設一個開放的人工智能生態系統,讓每一位開發者,在任何平臺上,利用任何語言,發揮出人工智能的最大潛力,讓人工智能觸手可及,并且真正為人們創造價值。為了實現這一目的,微軟提供了多樣化的第一方平臺和工具,例如azure機器學習服務,它能極大簡化和加速構建、訓練部署機器學習模型的過程。與此同時,微軟也在敞開胸懷,與其它組織積極分享我們的愿景,共同助力人工智能社區的健康發展。
onnx,快速成長的開放生態系統
去年9月,微軟宣布與facebook、aws共同創立onnx開放神經網絡交換格式。短短一個月內,這個開放人工智能生態系統便迎來了amd、arm、華為、ibm、英特爾、高通等行業領軍企業的加盟。目前,已經有超過20家全球企業宣布支持onnx。
微軟人工智能平臺團隊首席項目經理
prasanth pulavarthi
“微軟在azure上為開源機器學習框架提供了一等一的支持,同時我們也在與其它廠商展開廣泛合作,共同推進人工智能社區的發展。”微軟人工智能平臺團隊首席項目經理prasanth pulavarthi表示,“微軟攜手facebook和aws共同發起了onnx,通過支持多種機器學習模型,它將為一個開放生態打造堅實基礎,讓開發者和數據科學家自由選擇適合任務需求的框架,讓框架設計者更專注于增加創新能力,讓硬件廠商更好地進行優化設計。”
onnx是一個開源項目,它帶來的互操作性可以讓各種開發創意更快速地投入生產環境。利用onnx,數據科學家可以為其工作選擇最適合的框架,而開發者只需花費更少的時間就能訓練出適合生產環境的機器學習模型,并且將其部署到云端或者是邊緣。目前,在多種人工智能開發框架中都能創建onnx模型,包括pytorch、chainer、微軟認知工具包(cntk)、mxnet、ml.net、tensorflow、keras、scikit-learn,這個列表還在不斷增加。此外,為onnx模型實現可視化和加速的開發工具生態系統也已初具規模,已經出現了針對典型場景預先訓練的onnx模型。
“中國是全球最具創新活力的市場之一,這里匯聚了眾多才華橫溢的人工智能開發者和數據科學家,還有大力支持onnx的企業級合作伙伴。”微軟(亞洲)互聯網工程院常務副院長、微軟全球杰出工程師張祺博士表示,“onnx合作伙伴研討會第一次來到中國讓我們非常興奮,我們希望借此機會充分展示這一開放互操作人工智能生態系統的優勢,并真正幫助中國的開發者和數據科學家發掘人工智能潛力,共同贏得數字化轉型的發展機遇。”
微軟全力支持onnx發展:onnx runtime和onnx.js
微軟不但是onnx的聯合創始人,同時也是全力支持onnx發展的頂級技術貢獻者。例如,windows機器學習(winml)為onnx提供了操作系統層面的支持,可利用任何支持direxctx的gpu為其提供硬件加速,現在從服務器到物聯網的各個版本的windows都能提供這項功能。
onnx runtime現已開放預覽,這是專為onnx格式機器學習模型設計的高性能推理引擎。onnx runtime兼容onnx 1.2版本,自帶支持cpu和gpu的python包,可在azure機器學習服務或任何運行ubuntu 16的linux設備上進行推理運算。
onnx runtime的發布進一步擴展了微軟對onnx的支持,讓onnx模型推理可以在多種平臺和設備上運行。onnx runtime全面覆蓋和支持onnx定義的所有運算符。出于對擴展性與性能表現的特別關注,onnx runtime能為一系列不同平臺和硬件的組合提供多種定制化的加速器,從而保證為推理運算提供最佳的整體性能表現。
插件式的執行者界面意味著onnx runtime可以快速適應軟件和硬件的改進。執行者界面是硬件加速器向onnx runtime報告其性能的標準方式。英特爾、英偉達都在積極將onnx runtime整合到他們的硬件加速器中,目前英特爾的mkl-dnn、ngraph編譯器以及英偉達優化的tensorrt推理引擎都已完成整合。
onnx.js讓web開發者可以直接在瀏覽器中運行訓練好的onnx模型,不但能夠減少服務器到端的通信需求、保護用戶隱私,還提供了免安裝、跨平臺的瀏覽器內置機器學習體驗。onnx.js支持cpu和gpu運行,可以借助一系列優化技術減少cpu和gpu間的數據傳輸,減少gpu處理的循環次數,從而將性能推向最大化。
利用azure簡化人工智能開發
在全力支持onnx建設開放互操作人工智能生態系統的同時,微軟也在全力將azure打造成最佳人工智能云平臺,從預先訓練好的模型到幫助構建模型的云服務,azure提供了完善的機器學習平臺。
為了簡化語音、視覺、語言相關機器學習解決方案的開發,微軟在認知服務中提供了一系列強大的預先訓練模型。微軟在云端提供了多樣化的機器學習服務,從azure databricks、azure機器學習服務到機器學習虛擬機,可以滿足不同規模的使用需求。為了幫助開發者更快速地構建和訓練模型,微軟還提供了大規模gpu集群上的分布式深度學習能力。硬件(fpga)加速模型能以很低的成本提供高速的圖像分類和識別功能。一旦完成了模型的訓練,開發者可以自由選擇將其部署到本地、云端,或者是包括離線環境在內的邊緣環境中。
在不久前召開的微軟ignite 2018大會上,微軟宣布azure機器學習服務的一些新服務已經開啟預覽。
?自動機器學習和超參數調整能夠更快速地分辨合適的算法、功能和機器學習管道,從而加速模型開發的成功率。
?分布式深度學習可以利用大規模托管gpu集群更快速地開發深度學習方案。
?硬件加速推理可將強大的fpga用于高速圖像分類和識別場景。支持的模型包括resnet 50、resnet 152、vgg-16、ssd-vgg,以及可以用自有數據訓練的densenet-121。
?全新的python sdk可以從visual studio code、visual studio、pycharm、azuredatabricks 記事本或者jupyter記事本等python開發環境中,直接連接azure機器學習服務。
?模型管理功能可以利用整合到持續開發/持續部署(ci/cd)管道中的模型和鏡像注冊表,來管理托管的容器化模型。
“借助azure機器學習服務,”澳大利亞保險巨頭tal公司的創新總經理dan talor表示,“我們成功將機器學習模型的訓練時間從原來的的兩個月,減少到了只要幾個小時。”
關于onnx的更多信息,請訪問其官方網站:(onnx.ai/)。
來源:搜狐
以上是網絡信息轉載,信息真實性自行斟酌。