中華廚具網
    手機版    二維碼   標簽云  廚具企業大全

谷歌ai道德委員會解散,如何讓人工智能明辨是非?

2024-05-12 21:06:52 來源:新浪網 作者/編輯: 瀏覽次數:942 手機訪問 使用手機“掃一掃”以下二維碼,即可分享本文到“朋友圈”中。

原標題:谷歌ai道德委員會解散,如何讓人工智能明辨是非?

據外媒報道,3月26日,google全球事務高級副總裁kent?walker在google博客中發文宣布,為了貫徹落實google?ai七原則,完善相關的內部治理結構和流程,成立ateac委員會,用來處理人工智能中的棘手問題。

委員會設置8名成員,有經濟學家、有心理學家、有美國前副國務卿,但成立不到一周,一位專家自愿退出。在本周,谷歌員工發起了一項請愿,要求該公司撤換另一名委員會成員,因為他反對保障同性戀和變性人同等權利的法律。

為了回應抗議,谷歌決定完全解散這個名為先進技術外部咨詢委員會(ateac)的團隊,并在聲明中稱:“很明顯,在當前的環境中,ateac不能按我們所希望的方式運行,所以我們要解散它,并回到原計劃上來,我們將繼續在ai帶來的重要問題上進行我們的工作,并將找到不同的方式來獲取外部對這些問題的意見。”

雖然谷歌的ai道德委員會成立一周就土崩瓦解,但這并不意味著人工智能道德委員會的失敗和無意義。實際上,人工智能道德委員會的存在尤為必要。ai倫理問題究竟何去何從依然值得深思。

ai與倫理的平衡,如何規避道德風險?

早到艾薩克·阿西莫夫(isaac?asimov)提出“機器人三定律”,再到《西部世界》、《機械姬》、《黑客帝國》、《終結者》等影視劇都對人工智能倫理問題做出了思考,人工智能可以解放人類勞動力,但也有可能損害人類的利益,將大眾引向深淵。

人工智能的算法來自于數據,當數據里帶有潛在的價值觀傾向,隱含著偏見等問題,被系統學習吸收,誰來維持民眾的共識,保證社會的公平?當機器自我進化擁有了自主意識,脫離人的控制,人類作為其生產創作者,是否依舊能夠穩穩地掌握全局?當不成熟的人工智能技術陷入異常,造成失誤,甚至非法入侵而傷害人類,誰該為此承擔責任?

像谷歌自動駕駛汽車造成人員傷亡、機器人傷人事件、保險公司利用臉書數據預測事故發生率涉嫌存在偏見等都現實中的失敗案例,也是人工智能存在倫理和道德風險的例證。

面對人工智能引發的倫理問題,科技巨頭們紛紛成立倫理委員會應對挑戰。2016年,亞馬遜、微軟、谷歌、ibm和facebook聯合成立了一家非營利性的人工智能合作組織(partnership?on?ai),而蘋果于2017年1月加入該組織。

在科技巨頭們的共識里,與其靠外界強加約束ai發展,不如先成立倫理委員會自主監督。ai道德委員會是一種監督保障,更是風險評估標準。它能夠幫助人工智能公司做出道德決策,使社會受益。

就像麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授所言,“機器越自由,就越需要道德準則。”而學者們也給出了讓人工智能規避風險的新思考。

《道德機器:如何讓機器人明辨是非》中美國認知科學哲學家科林·艾倫和技術倫理專家溫德爾·瓦拉赫強調了兩個維度——針對道德相關事實的自主性維度和敏感性維度,給出了一個關于日趨復雜的amas(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。他們認為“自上而下”和“自下而上”相混合的模式是機器道德發展模式的最佳選擇。即將從數據當中學習經驗的自下向上和用確定的規則進行預編程自上向下結合起來。

美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。

2017年12月12日,電氣電子工程師學會(ieee)發布了《人工智能設計的倫理準則》(第2版),提出合乎倫理地設計、開發和應用人工智能技術應該遵循以下一般原則:人權——確保它們不侵犯國際公認的人權;福祉——在它們的設計和使用中優先考慮人類福祉的指標;問責——確保它們的設計者和操作者負責任且可問責;透明——確保它們以透明的方式運行。

各國的學者、專家不斷提出關于人工智能的新倫理原則,但以人為本的理念始不曾改變。歐盟在近日也提交了他們對于人工智能倫理的答卷。

人工智能時代的道德重建:可信賴的ai

4月9日,歐盟發布了ai倫理指導方針,作為公司和政府機構未來開發ai時應遵循7大原則,呼吁“值得信賴的人工智能”。“可信賴?ai”是對人工智能時代的道德重建,為ai的發展指明了一條合乎倫理的方向。

歐盟?ai?道德準則草案指出,可信賴的?ai?有兩個組成要素:一、應尊重基本權利,適用法規、核心原則和價值觀,以確保“道德目的”(ethical?purpose),二、兼具技術魯棒性(robust)和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。

歐盟提出可信賴 ai 的道德準則草案以及框架

七大關鍵原則如下:

人類作用和監督:人工智能不應該踐踏人類的自主性。人們不應該被ai系統操縱或脅迫,而且,人類應該能夠干預或監督軟件做出的每一個決定。

技術的穩健性和安全性:人工智能應該是安全的、準確的。它不應該易于受到外部攻擊(例如對抗性實例)的影響,而且,應該是相當可靠的。

隱私和數據管理:人工智能系統收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。

透明性:用于創建人工智能系統的數據和算法應該是可訪問的,軟件所做的決定應“由人類理解和跟蹤”。換句話說,操作員應該能夠解釋ai系統所做的決定。

多樣性、非歧視和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特征。同樣地,系統不應該在這些方面存在偏見。

環境和社會福祉:人工智能系統應該是可持續的(即它們應該對生態負責)并“促進積極的社會變革”。

問責制:人工智能系統應該是可審計的,并被納入企業可舉報范疇,以便受到現有規則的保護。應事先告知和報告系統可能產生的負面影響。

有數據顯示,美國人工智能企業數量2039家位列全球第一,中國(不含港澳臺地區)有1040家,占全球人工智能企業數的一半以上,《2019年全球ai人才報告》則展示了全球36524位頂尖ai人才,一半以上在中美。中國與美國在ai領域的人才和企業上占盡了優勢,可謂你追我趕,難分高低,歐盟從倫理角度切入,率先對人工智能的發展倫理做出規范,或許不失為一大良策。

□范娜娜(新京報智慧城市研究院研究員)

來源:新浪網

以上是網絡信息轉載,信息真實性自行斟酌。

 
本條標題:谷歌ai道德委員會解散,如何讓人工智能明辨是非?
本條信息網址:
文本助手 資訊搜索 分享好友 打印本文 關閉窗口
閱讀關鍵詞
  • 手機瀏覽本文

    手機應用中掃描本文二維碼,即可瀏覽本文或分享到您的社交網絡中。

  • 微信公眾號

    掃描二維碼,關注中華廚具網微信公眾號,實時了解行業最新動態。

版權/免責聲明:
一、本文圖片及內容來自網絡,不代表本站的觀點和立場,如涉及各類版權問題請聯系及時刪除。
二、凡注明稿件來源的內容均為轉載稿或由企業用戶注冊發布,本網轉載出于傳遞更多信息的目的;如轉載稿涉及版權問題,請作者聯系我們,同時對于用戶評論等信息,本網并不意味著贊同其觀點或證實其內容的真實性。
三、轉載本站原創文章請注明來源:中華廚具網

0相關評論
今日熱點文章更多
品牌聚焦更多
推薦品牌更多
熱門頻道
關閉廣告
合作伙伴:
中華廚具網 魯ICP備2021046805號         魯公網安備 37162502000363號 (c)2018-2025SYSTEM All Rights Reserved 投資有風險 加盟需謹慎
關閉廣告
關閉廣告
精品国产乱码久久久久久1区2区| 久久久久AV综合网成人| 91精品国产91久久| 国产免费福利体检区久久| 久久久精品久久久久特色影视| 久久丝袜精品中文字幕| 亚洲AV伊人久久青青草原| 无码人妻久久一区二区三区免费丨 | 国产精品久久国产精品99盘 | 久久国产高潮流白浆免费观看| 亚洲午夜久久久影院| 国产精品免费久久久久影院| 久久精品极品盛宴观看| 国产精品欧美久久久久无广告| 老男人久久青草av高清| 久久久这里有精品中文字幕| 久久久女人与动物群交毛片| 久久精品成人免费观看97| 久久久精品2019免费观看| 热久久国产欧美一区二区精品| 久久久91精品国产一区二区三区| 一本色道久久综合| 久久无码AV中文出轨人妻| 亚洲欧美国产精品专区久久| 国产午夜电影久久| 久久国产成人亚洲精品影院| 久久精品成人免费看| 久久久久久免费一区二区三区| jizzjizz国产精品久久| 久久亚洲国产欧洲精品一| 国产女人aaa级久久久级| 亚洲精品无码久久久久AV麻豆| 久久久国产精华液| 99久久99久久久精品齐齐| 伊人久久综合成人网| 久久久久亚洲AV无码观看| 久久久久久久久波多野高潮| 久久精品国产亚洲精品2020| 97精品国产97久久久久久免费 | 久久精品夜夜夜夜夜久久| 久久久久99精品成人片牛牛影视 |