《道德機器》 如何讓機器人明辨是非 (美)溫德爾·瓦拉赫 柯林·艾倫 著 王小紅 譯 北京大學出版社 2018年11月出版
——讀《道德機器:如何讓機器人明辨是非》
⊙劉英團
美國科幻小說黃金時代的代表之一艾薩克·阿西莫夫在短篇小說《環(huán)舞》中提出的“機器人三大法則”(包括“機器人不可以傷害人類,或看到一個人將受到傷害而不作為”;“機器人必須服從人類的命令,除非這些命令與第一項法則矛盾”以及“在不違反第一、第二項法則的前提下,機器人必須保護自身生存”),被此后的各類故事和小說不斷借用。但是,這些保護性設(shè)計或者內(nèi)置的道德法則能框住擁有獨立思考能力的機器人嗎?人們對于把自己的生命和福祉交給忽視倫理的系統(tǒng)會感到放心嗎?著名倫理學家、耶魯大學生物倫理學跨學科中心主管溫德爾·瓦拉赫(wendell wallach)在與國際知名認知科學哲學家,美國印第安納大學布盧明頓分校教務(wù)長講席教授、斯坦福哲學百科(sep)副主編科林·艾倫(colin allen)討論時認為,機器道德關(guān)乎人類的決策行為。因此,他們在《道德機器:如何讓機器人明辨是非》中提出,不要把責任推給機器,“我們必須更加堅守人類的價值觀和倫理”。
我們置身于一個豐富多采的世界,也生活在一個困惑和焦慮的時代。“人類決策者會因為沒有掌握全部相關(guān)信息或沒有考慮到所有偶發(fā)事件而做出糟糕的選擇,所以也許只有在一場未預(yù)料到的災(zāi)難發(fā)生之后,人類才會發(fā)現(xiàn)他們所依賴的(軟硬件)機器人的不完善。”正如《道德機器》的兩位作者所言,在未來,可能會出現(xiàn)一些無人駕駛汽車需要做出選擇的場合——選哪條路,誰會受到傷害,或誰會處于受傷害的風險里?該對汽車有什么樣的道德規(guī)范?我們當然有理由擔心,也許不能完全理解為什么機器人做出了某個特別的決定。但是,我們需要確保機器人不會吸收和加重我們的偏頗之處。因為不管我們喜歡與否,機器人就在我們的身邊,“到2030年,自動卡車、飛行汽車和個人機器人將隨處可見”(斯坦福大學《2030年的人工智能與生活》報告),在交通、醫(yī)療、教育、金融和就業(yè)等各個領(lǐng)域,人工智能正以人們意想不到的方式融入人類社會。
面對這樣的趨勢,研究人員究竟該怎樣設(shè)計一臺機器人才能使其在面對“兩難之選”之時作出正確反應(yīng)呢?
“機器需要講道德。”這是英國皇家標準協(xié)會(bsi)最新標準《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》(bs8611)的硬性規(guī)定。回望過去近300年,現(xiàn)代科技的每一次跨越,總會引發(fā)人們對社會倫理道德的憂慮。隨著機器人越來越智能和普遍,自動化機器終將在不可預(yù)知的情形下做出生死攸關(guān)的決定,從而具備——或至少表面上具備——道德主體資格。世人都看到了,“阿爾法狗”在對弈中戰(zhàn)勝了圍棋世界冠軍李世石和柯潔。而柯潔的感嘆是,“一個純凈、純粹自我學習的alphago master是最強的,對于alphago master的自我進步來講,人類太多余了。”今天,人類再想要阻止人工智能的想法已經(jīng)不可能了。那么,如果有一天ai的能力超過人類,是否會反過來統(tǒng)治人類呢?對此,包括霍金、馬斯克在內(nèi)的科技巨人都曾發(fā)出過警示:“人類不應(yīng)低估人工智能發(fā)展可能帶來的嚴重后果。”
所以,當下科學界的主流觀點是,機器不能不講道德,不然,這個世界無法想象。按麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授的說法是,“機器越自由,就越需要道德準則。”而在《道德機器:如何讓機器人明辨是非》中,兩位學者通過強調(diào)兩個維度——針對道德相關(guān)事實的自主性維度和敏感性維度,給出了一個關(guān)于日趨復(fù)雜的amas(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。
機器的智能化正在逐步深入到生活領(lǐng)域:客機自動降落,列車無人駕駛,沒有方向盤、剎車和駕駛座位的無人駕駛汽車正在緊張的測試中。但是,再怎么說,機器人之“人”終究不是人類之“人”,“如果人們不確定機器會做什么,他們會害怕機器人的……如果我們能分析并證明它們的行為原因,就更可能克服信任問題。”英國利物浦大學計算機科學家邁克爾·費希爾和英國西部大學艾倫·溫菲爾德教授共同做的一項政府資助的項目證明,“道德機器程序的結(jié)果總是可知”的。“在當前的技術(shù)水平下,我們不能‘譴責’機器人。機器人尚未達到為自己的決策負責的水平。”薩塞克斯大學人工智能專家布萊·惠特比認為,即使最低限度的道德機器人也是有用的。來自國際計算機科學家團隊的一項新研究著手開發(fā)一種新型的博弈算法——其可以依靠協(xié)作和妥協(xié)等特性來博弈,而且研究人員已經(jīng)發(fā)現(xiàn),機器已經(jīng)可以比人類更好地部署這些特性。由此,《道德機器》的兩位作者認為,隨著機器變得更加復(fù)雜,一種“功能性道德”在技術(shù)上變得可能,它可以使機器自身有能力來接近并相應(yīng)地面臨道德挑戰(zhàn)。
來源:蝦證券泄證券
以上是網(wǎng)絡(luò)信息轉(zhuǎn)載,信息真實性自行斟酌。