并非所有科技界的大咖都是人工智能的倡導者。
作者:科技行者 來源:科技行者 2019年4月29日
關鍵字:
來源|forbes
作者|oliver williams
編譯|科技行者
并非所有科技界的大咖都是人工智能的倡導者。有些人對ai給社會帶來的影響憂心忡忡,他們正拿出數十億美元試圖監控人工智能,這反過來變成了慈善事業的一個新前沿。
對于ebay公司創始人pierre omidyar來說,人工智能是一個令人擔憂的問題,去年他成立了luminate,一家總部位于倫敦的組織。luminate倡導公民賦權、數據和數字權利、財務透明和獨立媒體。
▲ 圖為ebay創始人pierre omidyar支持監控人工智能
luminate 首席執行官stephen king表示:“這是一個新生的領域,我們發現,人工智能是由那些不關心道德后果的程序員開發出來的。”
king強調ai帶來的兩個真實后果,激發了像omidyar這樣的慈善家采取行動。一個是風險評估軟件compas(correctional offender management profiling for alternative sanctions),這種軟件會分析大數據預測被告再犯下其他違法行為的風險。
當新聞機構propublica對在美國佛羅里達州被捕的1萬人進行compas評估對比時,數據顯示有些人可能會重新犯罪,propublica發現,當算法正確的時候,其決策也是公平的。但當算法錯誤的時候,有色人種被標記的風險要高出兩倍多,但其實他們并沒有重新犯罪。
king舉的另一個例子是中國的社會評分系統,這是一個涉及大數據和人工智能的國家項目,是給數百萬公民進行社會信用評分,賬單逾期支付和其他不良行為就意味著會給負面評分。“信用評分為負就無法乘坐高鐵,”king說。
▲ 圖為社會信用評分系統讓萬-1300萬中國公民被禁止乘坐高鐵。
對ai加以限制
當人工智能在諸如此類的場景中使用時,你應該如何抑制人工智能帶來的影響?
king表示,需要從源頭上解決這個問題。ai底層的算法通常在開發時就融入了無意識的偏見。
紐約大學ai now研究所的一份報告發現,主要是白人男性編碼人員制造了算法中的偏見。
不管這是有意的還是無意的,都會影響ai的結果。麻省理工學院的研究人員發現,有一些面部識別軟件無法識別少數民族。king說:“沒有人把所有種族偏見問題都考慮清楚。”
▲ 圖為luminate首席執行官stephen king
而這正是omidyar希望通過luminate的資金來遏制的偏見問題。在成立第一年,luminate的資金額就達到了0萬美元。
king表示:“我們設立了基金,通過一系列其他研究機構再授權,以更好地了解人工智能帶來的危害。”一個名為ethics and governance of ai initiative的項目從luminate以及john s. and james l. knight基金會、linkedin創始人reid hoffman等人那里獲得了2700萬美元的資金。
luminate表示,這筆資金將用于確保自動化和機器學習“是以一種維護公平、人類自治和正義的社會價值觀的方式進行研究、開發和部署的”。
此外還有麻省理工學院媒體實驗室和哈佛伯克曼克萊因互聯網與社會中心。2017年,其他九個組織得到了該基金的760萬美元資金,專注于“媒體、刑事司法和自動駕駛汽車三大領域”, john s. and james l. knight基金會主席albertoibargüen在聲明中這樣表示。
慈善事業的一個新前沿
omidyar并不是希望阻止人工智能失控的唯一一位慈善家。
事實上,自elon musk和sam altman于2015年推出open ai以來,這個慈善事業的新前沿就大受歡迎。open ai是一個促進“安全人工智能”的非盈利組織。(musk后來離開了該組織,因為這可能與特斯拉自動駕駛汽車開發中采用的人工智能存在潛在沖突。)
▲ 圖為y combinator總裁sam altman于2015年創立了open ai,以推廣安全的人工智能理念
在去年,symphony technology group背后的印度億萬富翁romesh wadhwani與他的兄弟sunil成立了瓦德瓦尼人工智能研究所(wadhwani institute for artificial intelligence,wiai)。wadhwani為該組織提供了3000萬美元資金支持,目標是探索“人工智能研究和實施的道德維度”。
具有諷刺意味的是,科技界的億萬富翁們花錢來遏制這些給曾經給他們帶來財富的技術,這應該被視為一個更廣泛的警告:如果那些最了解技術前沿的人都擔心技術的發展方向,我們就更應該注意了。
來源:網絡
以上是網絡信息轉載,信息真實性自行斟酌。