東方網記者李歡8月30日報道:如果有一天人工智能武器化了,它會由誰掌控?這個世界還安全嗎?人工智能發展給人類帶來前所未有機遇的同時,也引發人們擔憂,它可能會帶來一些法律上的風險和倫理上的危機。
在今天上午的“2019世界人工智能大會法治論壇”上,11位法學法律界、人工智能產業界的重量級嘉賓作精彩分享,探討人工智能發展與法治建設。
清華大學法學院院長申衛星指出,有關于人工智能的治理問題關系人類的命運,應當引起國際范圍內的重視。
“如果有一天,人工智能武器化了,涉及的安全問題就會凸顯。”申衛星以核能為例,核能已經發展成為了武器化的技術,人類命運或多或少系于其上,因此國際社會也一直對這項技術有所約束。“核能相對來說,入門門檻較高,成本也比較高,不是所有的主體都可以參與,但是信息技術,特別是人工智能領域的門檻、成本都相對較低,甚至有一些非國家的主體有較深的介入,我們應當關注到這方面的安全風險。”
申衛星介紹說,目前國際上有36份ai綜合治理方案,涉及層面包括但不限于問責制、公平與非歧視、透明度與可解釋性、隱私、安全等類型。而面對關系人類命運的大命題ai,我們更需要達成國際共識,并形成人工智能治理的國際公約,基于此設立專門執行機構。
中國社科院法學研究所副所長、研究員周漢華認為,人工智能的法治建設需要“既構筑安全底線,又放開發展上限”,“進入這樣一個’無人區’,法治需要有灰度,避免簡單的非黑即白。有灰度的法治和沒有灰度的法治,基本制度稟賦根本不同。”
周漢華坦言,因為法治觀念、管理體制、工作人員水平等方面的原因,我國網絡法治還存在比較明顯的缺乏灰度現象,不利于推動人工智能發展。要實現強度與灰度的統一,法治要有維度,不能單維度思考,也不能就法論法。地有四至,網有四維。人工智能法治要以底線思維防范重大風險,以創新思維引領持續發展,以法治思維確立法治權威,以共治思維推動系統解決。
斯坦福大學法學院榮譽講師托馬斯?卡特?魯賓先生認為,人工智能深層改變我們的生活領域,而人工智能演進框架的監管與治理則是當今需要共同探討的問題。目前社會部分人士對人工智能技術使用過程中個人隱私與數據安全問題存在爭議。托馬斯先生指出,值得信賴的人工智能設計必須反映植根于永恒重要的價值道德原則,以保持公正性、兼容性、透明度、可計量安全與可信賴。
來源:中國產業經濟信息網
以上是網絡信息轉載,信息真實性自行斟酌。