百人會論壇在釣魚臺國賓館隆重召開。本次論壇圍繞“把握形勢 聚焦轉型 引領創新”主題,邀請政府有關部門和汽車、能源、交通、城市、通訊等領域的行業機構和領先企業代表,就行業、企業、政策的轉型與創新展開深度研討。以下是英偉達全球副總裁、中國區總經理,張建中在本次論壇上的發言:
英偉達全球副總裁、中國區總經理 張建中
我題目是《自動駕駛與機器人》。為什么講這個呢?我想今天這個世界,其實跟以前不太一樣。英偉達花了20多年時間,主要做的工作其實是叫accelerating computing(加速計算)。加速計算跟平時計算不一樣的地方是要去達到所有的計算速度,讓它用當今技術上能夠達到的最高水平。我們英偉達的宗旨就是讓一切的地方能夠讓算力達到世界上最好的水平。這是我們美國的一棟大樓,我們另外一棟building還沒竣工,我們希望能夠幫助行業加快發展。
今天的行業其實有一個最大的變化跟以前不一樣了,大概在去年的時候很多人都在談iot(物聯網)比較多,但是我今天想談一個題目叫smart everything,smart everything跟以前不一樣的地方就是每一個終端、每一個設備基本上智能化的,就像今天很多人都在談論一點,包括剛才adi的同事講電池。所以不光是連接,而且有智能。有智能就得有算法,有算法就得有軟件。其實整個智能物聯網或者叫智能世界最大的變化就是軟件的重新定義,讓所有的設備都能夠跟設備之間進行互通。
如果我們去看英偉達的話,我們提供的設備也是讓這些所有實現智能連接的方式、方法在不同的場景下實現。我們有云端的設備,從cloud端做training也好,做測試也好,或者是在終端做計算。所以說從云端到終端的方案我們都可以提供。我相信對于行業的消費者來講,我們得到的東西遠遠比我們看到的東西要多得多。因為對于消費者,他不知道你的計算是在終端、邊緣還是在云端,但是對于我們來講,如果說提供一個開發環境,讓所有的開發者去使用他的產品和更好地去開發他的智能設備的時候,我們就要提供一整套的解決方案。其中在機器人行業,我們給它提供了一個從端到端的全系列的全棧軟件系統。
我分三個階段跟大家解釋一下。首先要有一個端到端的infrastructure,可以用今天的ai開發方式,給它提供怎么樣做training的model,training的model設備得采集data,采集data對于機器人行業第一個就要做mapping,因為它跟汽車不一樣,機器人在室內或者室外移動的時候沒有一條固定的路線,所以基本上任何地方只要有空間都可以跑。但是汽車有一定的規則,而且還有馬路,所以機器人相對比較復雜。你可以給它提供一個正確的管理方式和方法,這些軟件可以讓任何一個機器人在某一個特定的環境下面自動學習。training model很重要,我相信很多的科研機構跟軟件開發在這方面研究已經很有造詣,大部分的training的模型和方式方法已經非常成功。如果我們要想讓它在現實世界當中去驗證我們剛才的研究成果好不好,我相信跟王教授談的平行的世界是一個道理。你要去simulation。simulation基本上是在ai研發當中必不可缺的環節。最終就是你的設備要有一個移動的計算設備,這個計算設備的計算力肯定是越快越好,像馬博士剛才講的算力達到1000tops是指日可待,而且現在就可以實現了。
我們英偉達的宗旨,無論哪一個行業,我們給大家提供的都是一個open software program,這個open software program的架構基本上是從一個sdk開始,sdk cuda是一個通用平臺,只要是在cuda平臺上開發的所有軟件都是兼容的,可應用在所有的云、邊、端的終端設備。在這個平臺基礎上,我們給大家提供的是所有的不同模塊跟環節當中和work flow當中所有的sdk,從sensors、imaging、recorder等等基本上都可以讓機器人在這個環節當中實現各種各樣的動作跟指令。
(播放vcr)
我給大家演示一下開發過程,其實非常簡單,任何一個研究機構都可以利用我這套端到端的解決方案跟開放的平臺去實現機器人的研發。如果機器人研發當中,你不要小看這些小小的設備,其實它的應用場景跟實際工業當中的應用非常相關,大到礦場、礦山的無人駕駛汽車,完全可以用這樣一個方法,在實驗室里面幫他去實現軟件的開發。我們在這個過程當中也把isaac開發平臺提供給各種各樣的行業用戶,讓他們在虛擬世界里面去模擬現實世界當中各種各樣的動作。今天的深度學習已經非常發達,幾乎在每個領域當中都可以用深度學習去模擬人的各種各樣的動作。在機器人當中有一個最復雜的領域,以前傳統用編程的方法給機器設計動作,可是這些動作怎么做都不可能像人一樣完美。如果我們今天用深度學習的方法去應用,基本上可以讓機器人做復雜到跟人的動作一模一樣的動作。所以這些成功的研發也讓我們在機器人研究當中給大家提供了一條新的道路。
我們都知道機器人應用場景非常廣泛,汽車自動駕駛就是一個最大的機器人。今天你看到的汽車,它的所有動作其實就是機器人的動作,它的感知系統、它的決策系統跟它的計算系統,跟機器人是沒有什么差別的。既然是這樣的,我們soft架構跟機器人的isaac架構也差不多,只不過在英偉達的drive里面,我們提供了更加復雜的跟汽車差不多的模塊,其中它的sensor更復雜,包括激光雷達、普通的毫米波雷達、攝像頭等等。drive這一套sdk跟isaac的sdk最大的差別是什么?我們要在perception上要去增加它的廣泛性。機器人通常很少在馬路上跑,但是汽車的應用場景不太一樣,在馬路上很多感知的系統非常復雜,所以說只是在感知系統里面,我們為perception研發了很多神經網絡就有十幾種,這幾十種神經網絡得到的數據、采集數據的方式跟處理數據的方式都跟機器人不太一樣,我們把這些在汽車當中的各種不同的perception神經網絡,把它預處理,設計出很多model可以給很多開發者,讓開發者用自己的數據再去強化和增強自己的模塊。
(播放vcr)
各種不同的model能做什么,基本上從障礙物的識別、物體的識別,到決策的行為預測等等,測車跟車之間的距離等等都會不一樣。另外一個是在做安全預測,drive的安全預測比其他更加重要,因為我們知道汽車理論上講,如果按照國家標準的話,任何一輛車要經過幾百萬公里的駕駛測試才可以上路,但是今天用drive constellation,在super computer上面可以跑幾億公里,可以在自己的云端或者在自己的服務器上隨意地去測試各種各樣的性能。
這些設計好的模型要上到車上去,真正做到自動駕駛或者無人駕駛,無論是l4還是l5,其實算力肯定是遠遠不夠。剛才馬博士已經幫我透露在ces剛剛發布的一顆芯片,叫orin。orin這顆芯片的算力已經達到200tops,但是我們都知道,很多客戶在設計他們的自動駕駛解決方案的時候,只是一個orin可能還不夠,一定要加上我們的dscore gpu(音),dscore gpu就相當于今天的特斯拉v100,把v100的獨立的gpu處理器跟orin可以布置在一起,這樣去實現更加強大算力的計算需要。你自己計算一下就知道,今天的一個獨立的gpu本身就有好幾百個tops,加上200個tops,如果翻兩倍的話,達到1000個tops是很容易實現的。
如果用這樣的方法,今天的組合架構可以從普通的adas,l2、super l2到l4、l5都可以有完整的解決方案,我相信在不同的應用場景下面,算力可能要求不太一樣,當然,對于每一個客戶來講,它的成本也不太一樣。如果說能夠在滿足今天的電動車在一些高速公路場景上實現的話,l3跟super l2可以解決很多自動駕駛場景當中常見的問題。
(播放vcr)
來源:網絡
以上是網絡信息轉載,信息真實性自行斟酌。