原標題:如果ai機器人殺了人類,那人類還要研發機器人嗎?
來源| 喜馬拉雅fm 復旦郁?傣戀木?品課《郁?傣戀母吹┱苧э巍?
編輯| 周杭
如果你喜歡看科幻電影,一定經常會看到這樣一種恐怖的場景:未來機器人反過來奴役,甚至屠殺人類,施瓦辛格演的電影《終結者》就是這樣的。最近對人工智能的討論,更加加劇了這種擔憂。所以,我們如何才能警惕和預防機器人和人工智能?
這時候,我們就要來談一談“機器人三法則”(threelaws of robotics)。這三個法則是著名的科幻小說家伊薩克?阿西莫夫,在1940年的一篇小說《我是機器人》中提出來的。
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
這三條法則,看上去不是不錯?但是執行起來卻有不少問題。
有必要說一下的是,英語中的law這個詞具有兩種截然不同的含義:第一種是人類社會中的法律和道德律令。其目的是規范一個政治共同體中成員的基本權利與義務,甚至還要定義犯罪行為,并通過相應程序和機構對之進行審判和懲戒。
第二種含義是自然(科學)中的法則和定律。例如牛頓力學中的三大定律,它通常是用數學符號的方式來表達的。上述這兩種涵義是根本的不同。法律在原則上是可以違反的。我可以嘗試做壞事,例如偷東西,傷害別人等等。
有意思的是,阿西莫夫在寫機器人三法則的時候,使用了不得(maynot)和必須(must)這樣的語詞,非常類似神學中的“神命”(divine command)。也就是好像上帝頒布給人的誡命。
但是正如人類經常忤逆神的誡命一樣,人工智能為何一定要遵守這些命令呢?如果沒有技術的落實和保障,這一切都僅僅是人類的一廂情愿而已。人類也面臨“造物主”的煩惱。
按照我們通常的理解,打針這個行動顯然要刺穿人的皮膚,并造成微量的出血。不過人類的一般常識告訴我們,這種輕微的傷害可以治愈病患的疾病,并且得到了病患的認可。
在疾病和打針之間,一般的成年人經過權衡比較,都會選擇接受打針。但是要讓人工智能進行這樣的權衡比較,需要極為豐富的常識(commonsense)。
還有,如果阿西莫夫的第一條原則成立,那么機器人和人工智能都不得被用于執法和軍事作戰領域中。因為在這兩個領域中,直接需要傷害特定的人。例如暴力犯罪分子和敵國的作戰軍人。
我們再來看第二條:第二條法則中語義存在的漏洞是“服從命令”(obeyorders)這個詞。
不過我們可以設想,兩個人的命令可能會出現矛盾。一個人說,你站著,另一個人說,你坐下。機器人到底應該聽誰的?
還有,阿西莫夫使用了“人類”(humanbeings)這個詞。服從一個特定的人(例如“我”),和服從(復數形式的)人類之間存在明顯差異。如何讓人工智能定義和識別“人類”成為了關鍵問題。
第三條法則的核心詞是“自己”(itsown existence)。要明白這一表述的意指,是否需要“自我”(self)的觀念,而產生這一觀念的前提是人工智能具備自指(self-referential)能力。這種自指能力其實對人類自己都是一個謎。
例如從宏觀來看,目前地球上有70億人口,我們可不可以為了70億整體人類消滅當中的30億呢?
來源:網絡
以上是網絡信息轉載,信息真實性自行斟酌。