霍金說人工智能是最偉大的發明,可能終結人類文明
2020-03-26 19:42來源:路演記
原標題:霍金說人工智能是最偉大的發明,可能終結人類文明
老霍(金)歪著腦袋的樣子終于出現了,在北京舉行的gmic大會上,這個著名科學家通過視頻的方式進行了現場演講。在演講中,霍金提出要謹慎使用人工智能,否則,人類有可能被取代。
人工智能或可以有自我意志
霍金說,他所見證的最深刻的社會變化,同時也是對人類影響與日俱增的變化,就是人工智能的崛起。他認為,強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。人工智能的發展是好是壞仍不確定,但人類應該竭盡所能,確保其未來發展對人類和環境有利。
霍金認為,文明所提產生的一切都是人類智能的產物,他相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。但現在無法知道人類將會無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數以百萬計的工作崗位。
在人工智能從原始形態不斷發展,并被證明非常有用的同時,霍金也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智能一旦脫離束縛,會以不斷加速的狀態重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。未來,人工智能可以發展出自我意志,一個與人類沖突的意志。
2015年1月份,霍金和科技企業家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認真的調研。
人工智能失控的風險
現在,關于人工智能的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監控數據引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經濟影響。
長期擔憂主要是人工智能系統失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,那個強大的系統威脅到人類。當前控制人工智能技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,人類需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。
霍金認為,比如說之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。科學家目前所取得的成就,和未來幾十年后可能取得的成就相比,必然相形見絀。人工智能的成功有可能是人類文明史上最大的事件。
人工智能有可能是人類文明的終結
霍金說,人工智能也有可能是人類文明史的終結,除非人類學會如何避免危險。人工智能的全方位發展可能招致人類的滅亡,比如最大化使用智能性自主武器。
今年早些時候,霍金和一些來自世界各國的科學家共同在聯合國會議上支持其對于核武器的禁令。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。
“我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,并發現它們的影響比最初預想的更加可怕。”
機器人也應有電子人的權利?
去年10月,霍金在英國劍橋建立了一個新的機構,試圖解決一些在人工智能研究快速發展中出現的尚無定論的問題。
人工智能的最新進展,包括歐洲議會呼吁起草一系列法規,以管理機器人和人工智能的創新。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智能的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處于新的工業機器人革命的前沿。
報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。
來源:搜狐
以上是網絡信息轉載,信息真實性自行斟酌。