數(shù)字技術(shù)特別是人工智能技術(shù)的發(fā)展在給人們帶來便利的同時(shí),也產(chǎn)生了與其相關(guān)的社會(huì)學(xué)問題。近年來,如何應(yīng)對(duì)數(shù)字技術(shù)可能給人類造成的負(fù)面影響,如何在人工智能技術(shù)發(fā)展的過程中對(duì)其給予更多社會(huì)學(xué)視角的關(guān)注和分析,成為各國學(xué)者探討的話題。為此,本報(bào)記者采訪了有關(guān)學(xué)者。
情感識(shí)別是重要盲點(diǎn)
在數(shù)字技術(shù)和人工智能技術(shù)引發(fā)的社會(huì)學(xué)辯論中,被提到最多的問題是技術(shù)缺少對(duì)人類情感層面的關(guān)注。美國圣路易斯大學(xué)法學(xué)助理教授安娜·魯奇曼(ana rutschman)表示,像語音智能助手、人工智能醫(yī)療設(shè)備等主要基于“大數(shù)據(jù)+自動(dòng)化”的人工智能技術(shù)形態(tài),通常被人們稱為“狹義人工智能”。這些技術(shù)在展現(xiàn)強(qiáng)大數(shù)據(jù)處理能力的同時(shí),有一個(gè)重要盲點(diǎn)是無法識(shí)別人類細(xì)微的情感活動(dòng)。而隨著人們對(duì)人工智能技術(shù)的依賴程度不斷加深,每個(gè)人的隱私和感受能否得到客觀公正的對(duì)待,成為人們擔(dān)憂的重點(diǎn)。
考慮到更多人性層面的需求,一些國家已經(jīng)開始行動(dòng)。10月19日“對(duì)話”網(wǎng)發(fā)文稱,美國國會(huì)正在考慮針對(duì)人工智能技術(shù)制定相關(guān)法律,用以規(guī)范其在人類社會(huì)中的動(dòng)作。目前,美國國會(huì)下屬的一個(gè)委員會(huì)正在關(guān)注人工智能算法的類型。該委員會(huì)建議,在運(yùn)用人工智能設(shè)備執(zhí)行特殊任務(wù)時(shí),必須在技術(shù)上考慮到各種情況的復(fù)雜性。
魯奇曼認(rèn)為,這至少說明美國國會(huì)釋放出一個(gè)積極信號(hào),政府和政策制定者應(yīng)更積極地關(guān)注人工智能技術(shù)對(duì)個(gè)體和社會(huì)造成的影響。
英國威斯敏斯特大學(xué)新聞傳播學(xué)教授伊恩·格林(ian green)對(duì)本報(bào)記者表示,以自動(dòng)化寫作為例,雖然應(yīng)用相關(guān)程序提高了媒體機(jī)構(gòu)對(duì)一些格式化文本的處理效率,但基于大數(shù)據(jù)的算法,使得這些程序無法辨別人類語言中的“刻板印象”。因此,使用這些程序?qū)懽鞯奈谋倦y以體現(xiàn)出人類社會(huì)在種族平等、性別平等方面的進(jìn)步和詞匯量的更新。與此同時(shí),并不完善的算法還有可能導(dǎo)致原本不應(yīng)被使用的“不恰當(dāng)詞匯”被大量使用。
對(duì)此,魯奇曼進(jìn)一步解釋說,盡管人工智能技術(shù)的發(fā)展尚處于初期階段,但其負(fù)面影響已逐步顯現(xiàn)。例如,算法會(huì)針對(duì)那些已被設(shè)定為目標(biāo)的信息進(jìn)行大量推送,這可能造成人們對(duì)事件形成“虛假”和“不實(shí)”評(píng)估,導(dǎo)致人們對(duì)人和事喪失真實(shí)判斷。這一點(diǎn)在社交媒體用戶身上體現(xiàn)得非常明顯。
設(shè)立有關(guān)倫理道德的軟性標(biāo)準(zhǔn)
為了更好地引導(dǎo)數(shù)字技術(shù)走向“正途”,相關(guān)領(lǐng)域的研究者一直在努力。他們?cè)噲D給數(shù)字技術(shù)設(shè)立更多“軟性標(biāo)準(zhǔn)”。2017年底,美國電氣和電子工程師協(xié)會(huì)宣布了三項(xiàng)新的人工智能倫理標(biāo)準(zhǔn):“機(jī)器化系統(tǒng)、智能系統(tǒng)和自動(dòng)系統(tǒng)的倫理推動(dòng)標(biāo)準(zhǔn)”“自動(dòng)和半自動(dòng)系統(tǒng)的故障安全設(shè)計(jì)標(biāo)準(zhǔn)”和“道德化的人工智能和自動(dòng)系統(tǒng)的人類福祉衡量標(biāo)準(zhǔn)”。該協(xié)會(huì)希望以此呼吁人們重視人工智能技術(shù)的發(fā)展標(biāo)準(zhǔn)問題,同時(shí)在開發(fā)新的人工智能技術(shù)時(shí)優(yōu)先考慮人類利益。在該協(xié)會(huì)的一份文件中提到,應(yīng)鼓勵(lì)人工智能技術(shù)的研究者考慮技術(shù)中的倫理因素。
電氣和電子工程師協(xié)會(huì)下屬的機(jī)器人和自動(dòng)化協(xié)會(huì)負(fù)責(zé)人田所悟志(satoshi tadokoro)解釋說,機(jī)器人和自動(dòng)化系統(tǒng)將為社會(huì)帶來重大變革,但民眾也會(huì)越來越關(guān)心因其而產(chǎn)生的社會(huì)問題。人工智能技術(shù)將帶來一些虛構(gòu)和想象出來的錯(cuò)誤信息,這一點(diǎn)值得人們警惕。因此,該協(xié)會(huì)試圖將基于科學(xué)和技術(shù)的公認(rèn)事實(shí)引入人工智能技術(shù)的算法中,以期實(shí)現(xiàn)人類整體利益的最大化。
近日,英國智庫沃達(dá)豐研究所圍繞“人工智能與人類學(xué):技術(shù)如何塑造我們?”這一專題進(jìn)行了討論。牛津大學(xué)教授尼格爾·沙德博爾特(nigel shadbolt)表示,人們應(yīng)該想辦法驅(qū)散對(duì)人工智能技術(shù)的恐慌,這就需要對(duì)技術(shù)與人類的互動(dòng)機(jī)制和原理進(jìn)行研究,從而看清人工智能技術(shù)對(duì)科學(xué)、經(jīng)濟(jì)和政治等領(lǐng)域的影響。有學(xué)者認(rèn)為,多考慮社會(huì)倫理價(jià)值,將更有益于人工智能技術(shù)的發(fā)展,并促進(jìn)人工智能設(shè)備與人類實(shí)現(xiàn)良性互動(dòng)。
此外,《自然》雜志官網(wǎng)近期發(fā)布的學(xué)者文章提到,人工智能技術(shù)在每個(gè)發(fā)展階段,都會(huì)對(duì)社會(huì)產(chǎn)生重大影響。有學(xué)者建議,從概念、設(shè)計(jì)、部署到管理的各個(gè)環(huán)節(jié),都應(yīng)介入社會(huì)學(xué)角度的評(píng)估和分析。例如,不僅要使用當(dāng)下的數(shù)據(jù),還要引入歷史數(shù)據(jù),這樣才能構(gòu)建起對(duì)事件的整體性理解。對(duì)此,微軟研究院首席研究員凱特·克勞福德(kate crawford)表示,社會(huì)系統(tǒng)分析方法涉及哲學(xué)、法學(xué)、社會(huì)學(xué)、人類學(xué)等諸多學(xué)科。通過對(duì)社會(huì)、經(jīng)濟(jì)、政治、文化諸領(lǐng)域的相互影響進(jìn)行權(quán)衡,社會(huì)系統(tǒng)分析方法能夠?qū)θ斯ぶ悄芗夹g(shù)進(jìn)行更為綜合、全面的分析與介入。
掃描二維碼分享到手機(jī)
標(biāo)簽 - 人工智能技術(shù),社會(huì)學(xué)視角,刻板印象
來源:求是網(wǎng)
以上是網(wǎng)絡(luò)信息轉(zhuǎn)載,信息真實(shí)性自行斟酌。