對于很多人而言,人工智能其實并不是新事物,因為早在1956年的達特茅斯會議上,人工智能的概念便被正式提出。而人工智能的爆發卻始于近三年,2015-2016年誕生的人工智能企業數量,超過過去10年之和,企業融資額也不斷創出新高。目前,全世界正推動著智能進化的進程:以人工智能算力6年提升30萬倍的超級摩爾定律發展,數字生命必然實現智能飛越,人機融合將孕育一個萬物智能的新宇宙。
目前,人工智能釋放出了前所未有的力量,這意味著未來的若干年對人類來說,可能是最好的時代,也可能是最壞的時代。那么,人工智能是會像馬克·扎克伯格宣揚的那樣造福人類生活,還是會像埃隆·馬斯克警告的那樣威脅人類生存?麻省理工學院物理系終身教授、未來生命研究所創始人邁克斯·泰格馬克全方位、系統深入地探討了人工智能可能給人類文明帶來的一系列深遠影響。
從14歲起,泰格馬克就開始關注科技對人類未來的影響,人工智能的突飛猛進,更是加劇了他的擔憂。對于生命的定義,泰格馬克認為是一個能保持自身復雜性,并進行復制的過程。生命的發展會經歷三個階段:硬件和軟件都來自進化的生物階段,即生命1.0;能夠通過學習自己設計軟件的文化階段,即生命2.0;自己設計硬件和軟件,并主宰自我命運的科技階段,即生命3.0,也就是人工智能。
人工智能或許能讓我們在21世紀內進入生命3.0階段。我們應該朝著什么樣的未來前進,以及如何才能實現這個未來?這個問題引發了各方面的爭議,書中指出,在這場辯論中有三個主要的陣營:技術懷疑主義者、數字烏托邦主義者和人工智能有益運動支持者。
泰格馬克認為,關于人工智能存在許多爭議,世界頂級專家們也難以達成共識。關于人工智能的許多誤解都是由人們對一些詞語的不同定義造成的。他在書中指出了目前所存在的三大誤區:第一個誤區認為超人類水平的通用人工智能一定會在21世紀內實現。但泰格馬克認為,世界頂級專家各執一詞,因此我們根本不知道答案。許多問題的解決是非常困難的,可能需要幾十年的時間才能解決。因此,最好從現在就開始進行研究,才是明智之舉。
第二個誤區認為唯一對人工智能懷有憂慮并支持人工智能安全性研究的一類人,都是對人工智能一竅不通的“盧德分子”。而泰格馬克認為,若想適度地支持人工智能安全性研究,人們并不需要確認風險是否很高,只需要相信風險不容忽視就行了,就像人們適度地投資房屋保險,只是因為他們認為火災的可能性不容忽視罷了。
第三個是關于風險類別的誤區:不是被趕盡殺絕,而是失去控制權。泰格馬克認為,對邪惡機器的恐懼,也沒那么重要。我們真正應該擔心的不是它們有沒有惡意,而是它們的能力有多強。從定義上來說,一個超級智能會非常善于實現自己的目標,不管這個目標是什么。因此,需要確保它的目標與我們的相一致。
在很多我們所接觸的科幻故事中,機器僅僅因為其本身的復雜性,就自然而然地發展出了意識。而在人工智能的各方面研究中,對于人工智能有沒有可能產生自我意識,應該是最為核心的問題。這個問題歸根結底是一些因人工智能崛起而引發的棘手倫理和哲學問題:人工智能能否感覺到痛苦?它們是否應該擁有權利?上傳思想算不算主觀上的自殺?……
在本書中,泰格馬克認為要理解智能,就必須回答三個關于意識的問題:“相當難的問題”、“更難的問題”和“真難的問題”。第一個問題是預測哪些物理系統擁有意識;第二個問題是預測感質;第三個問題是物質為什么會產生意識?!跋喈旊y的問題”是科學的,因為它可以預測哪些大腦過程擁有意識,而這樣的理論是可以用實驗來證實和證偽的。但目前尚不清楚科學要如何解決那兩個更難一些的問題。神經科學實驗告訴我們,許多行為和腦區都是無意識的,大部分意識體驗都是對大量無意識信息做出的“事后總結”。如果人造意識是可能的,那么與人類的體驗比起來,人工智能的體驗空間可能非常龐大,在感質和時間尺度上跨越極大的范圍,但都能體會到自由意志的感覺。
來源:網絡
以上是網絡信息轉載,信息真實性自行斟酌。