雖然機器學習的速度在過去十年中有所加快,但機器學習的底層硬件并沒有太大變化,如計算機處理單元(cpu)和圖形處理單元(gpu)。
機器學習的最前沿是一個叫做神經形態計算的領域,試圖使計算機芯片更像人腦,因此計算機能夠以閃電般的速度處理多個模式和學習任務。今年早些時候,麻省理工學院的研究人員推出了一種革命性的基于神經形態的芯片設計,可以代表人工智能技術的下一個飛躍。
這個被稱為“芯片大腦”的硬件是模擬神經突觸而設計的,而目前的芯片基于二進制和開/關信令進行計算。相反,基于神經形態的芯片以模擬方式工作,以不同的強度交換電脈沖,就像大腦中的神經元一樣。根據麻省理工學院的研究人員的說法,這是一個突破,超過100萬億個突觸參與了大腦中的神經元信號傳導。
麻省理工學院的研究發表在1月份的《自然期刊》雜志上,展示了一種由硅鍺為物質材料并基于神經形態設計的芯片。想象一下窗口屏幕,你可以近似看到這個芯片在微觀層面的樣子,而且研究人員能夠精確控制電流強度。
麻省理工學院電子與微系統技術實驗室研究實驗室的教授兼首席研究員jeehwan kim指出,基于超級計算機的神經網絡操作非常精確且非常有效,但它消耗大量電力并且大量占用空間。
但是,這樣的芯片設計可以使處理器能夠以極低的能量需求執行機器學習任務,它可以快速推進人形機器人和自動駕駛技術的發展。
另一個優點是節省成本并提高便攜性。小型神經形態芯片功率更小,甚至可能縮小1000倍,同時有效地同時處理數百萬次計算,目前只有大型超級計算機才能做到。intersect360 research的首席執行官addison snell表示,同時也是研究高性能計算的行業分析師,這正是人們所設想的芯片,隨著時間的推移會讓許多電子產品變得非常便攜。”
目前機器學習芯片市場規模非常龐大。去年,根據intersect360的研究報告,市場價值接近45億美元,而基于神經形態的芯片只是其中一部分。據德勤稱,今年可能會售出不到1萬個神經形態芯片,而預計2018年將銷售超過50萬個gpu。
gpu最初是由英偉達nvidia于20世紀90年代開發的。最終,研究人員發現gpu在通過模擬神經網絡支持機器學習方面非常有效,模擬神經網絡在超級計算機上運行,??并幫助近期完成主要部分的培訓和推理任務。例如,如果你想建立一個知道什么是什么以及什么不是老虎的圖像識別系統,你首先要給機器提供數百萬個被人類標記為老虎或非老虎的圖像,用這些圖像訓練計算機。下次系統顯示老虎的照片時,它將能夠推斷出圖像確實是老虎。
近年來,小型初創公司和大公司都在修改其芯片架構,以滿足新的人工智能工作負載的需求,包括自動駕駛和語音識別。兩年前,根據德勤的說法,幾乎所有涉及神經網絡的機器學習任務都使用了大量的gpu和cpu。今年,新的芯片設計,如fpga(現場可編程門陣列)和asic(專用集成電路),在處于數據中心的機器學習芯片中占據了更大的份額。
根據德勤今年發布的市場分析報告,這些新型芯片應該大大提高機器學習的使用率,使應用程序消耗更少的功率,同時變得更具響應性、靈活性和能力。
基于神經形態的芯片代表了下一個飛躍,尤其是基于縮小晶體管的前提下的芯片架構已經開始減速。盡管自20世紀80年代以來神經形態計算已經存在,但它仍然被認為是一個新興領域,而在過去十年中它已經引起了研究人員和科技公司的更多關注。
ibm阿爾馬登研究院腦啟發計算首席科學家 dharmendra s. modha表示,神經形態芯片的強大功能和性能遠遠優于我們在任何平臺上可以預期的任何解決方案。modha在2004年啟動了ibm自己的神經形態芯片設計項目,部分由國防高級研究計劃局資助。ibm研究人員經過長達數年的努力研發出了truenorth芯片,尺寸相當于一張郵票,功率只有70毫瓦。
來源:網絡
以上是網絡信息轉載,信息真實性自行斟酌。