ai計算有了新物種 - 品奇數碼magicai人工智能加速技術
2019-03-15 16:19來源:it資訊快報//
原標題:ai計算有了新物種 - 品奇數碼magicai人工智能加速技術
傳統概念中,人工智能計算需要 gpu 或專門的 ai 芯片(asic)進行加速才能快速運行。pq labs(上海品奇數碼科技有限公司) 在 ces 2019 中發布的 magicai 技術改變了而這一現狀,可以使 人工智能應用在通用 cpu 上跑的比 gpu 更快。
magicai (magic tiny yolo) 在 intel i7 cpu 下運行幀率達到 718 fps,是 titan x / 1080ti 的 3.5倍,是 intel mkl 方案的 199倍。
為什么大家都用gpu跑人工智能?
因為由于歷史原因,通用cpu沒有為大規模的神經網絡運算進行優化,運行效率極其低下。而整個業界和學術界在人工智能方面的研究都是建立基于圖形顯卡的編程模型上(特指 nvidia gpu 顯卡,amd gpu 缺少相關的軟件及算法)。除此之外,市場上還有其他的 ai 芯片,但大都基于類似的 ai 模型和優化策略。
“人工智能的科技樹或許正沿著一條低效率的方向展開,世界上存在著其他的技術路徑值得我們去探索,是否會有比現狀更好的技術實現,這就是 pq labs magicai 技術的發揮空間。”pq labs ceo 陸飛博士表示,他同時也是 magicai 技術的核心研發人員。
有沒有其他的技術路徑?
magicai 技術擁有非??斓倪\行速度:可以在 intel i7 處理器上,以 718 fps 的幀率運行 物體識別 程序而無需降低識別精度,而在同樣 cpu 上直接運行 tiny yolo 則僅僅有 3.6 fps 的幀率。magiai(tiny magic yolo)的計算速度達到了 intel mkl 的199倍,甚至達到了經過 gpu (titan x / 1080ti) 加速的 tiny yolo 3.5倍的運行速度。
magicai 技術的設計和開發是從深度學習最底層的數學基礎開始的,所有數學運算都被重新優化設計,重新封裝在一個叫做 “magiccompute” 的運算庫內,以替代 nvidia cuda,cudnn 及 intel mkl,并實現運行速度的提升。例如, “卷積運算” (所有深度學習模型的基礎運算)由 “magicconvolution” 來執行,就可以獲得性能的飛速提升。
magicai 的運行速度提升同樣來自于其獨特的骨干網絡模型,運行速度要比 mobilenet v2、shufflenet v2 等輕量化模型更快,并且準確度更高。將 yolo、ssd 等模型的 骨干網絡 替換為 magicai,就成了全新的網絡:magic-yolo 和 magic-ssd,比原來的網絡提速 199倍。
magicai 從設計之初就與眾不同,目前人工智能的產業界和學術界依然沿用深度學習技術在其非常早年間定義下來的訓練方式,嚴重依賴基于imagenet classification 的訓練和調優,然后再使用 imagenet 的模型作為預訓練模型,通過 “知識遷移” 來訓練并獲取其他任務的能力(比如物體識別)。
來源:搜狐
以上是網絡信息轉載,信息真實性自行斟酌。