中華廚具網
    手機版    二維碼   標簽云  廚具企業大全

什么是可解釋的人工智能

2024-05-12 18:29:34 來源:網絡 作者/編輯: 瀏覽次數:4959 手機訪問 使用手機“掃一掃”以下二維碼,即可分享本文到“朋友圈”中。

可解釋的人工智能意味著人類可以理解it系統做出決定的路徑。人們可以通過分解這個概念來探究人工智能如此重要的原因。

雖然人工智能應用越來越廣泛,但關于人工智能也有一些誤解。有些人采用“黑盒”這個術語描述人工智能,認為其內涵是神秘和不祥的部分,其“x檔案”的內容比it日常業務還要多。

然而,像機器學習或深度學習這樣的人工智能系統,確實需要人工輸入,然后在沒有可解釋的場景的情況下產生輸出(或做出決定)。人工智能系統做出決定或采取行動,人們不一定知道它為什么或如何達到這個結果。人工智能系統就是這么做的,而這就是人工智能的黑盒模型,它確實很神秘。在某些用例中應用很好,而在其他情況下卻不一定。

pubnub公司首席技術官兼聯合創始人stephenblum表示:“對于像人工智能驅動的聊天機器人或社交信息的情感分析這樣的小事情,而人工智能系統是否在黑盒中運行并不重要。但是對于人類具有巨大影響的用例(例如自動駕駛車輛、飛行導航、無人機、軍事應用)能夠理解決策過程是至關重要的任務。隨著人們在日常生活中越來越依賴人工智能,需要能夠理解其思維過程,并隨著時間的推移做出改變和改進。”

輸入可解釋的人工智能——有時以縮寫詞xai或類似術語(如可解釋的ai)來表示。顧名思義,它可以被人類解釋和理解,雖然這是一種有點簡化的方式,是一種可解釋的人工智能。

以下是最近的hbr公司分析服務研究報告《現實世界人工智能的執行指南》中更明確的定義:“機器學習技術是一種使人類用戶能夠理解、適當信任和有效管理的人工智能。”

而包括美國國防部高級研究計劃署(darpa)在內的多個組織正在努力解決這個問題。

“信任”這個詞很關鍵。為此,人工智能專家blum和其他專家提出了可解釋的人工智能定義,并解釋這一概念對于從金融服務到醫學等領域的人工智能工作的組織至關重要的原因。這種背景可以加強組織成員和團隊的理解,并幫助組織中的其他人員理解可解釋的人工智能及其重要性。以下先從定義開始。

簡單定義的可解釋人工智能

sas公司執行副總裁兼首席信息官keithcollins說,“‘可解釋的人工智能’術語是指人類能夠通過動態生成的圖表或文本描述輕松理解人工智能技術做出決策的路徑。”

pubnub公司首席技術官和聯合創始人stephenblum說,“可解釋的人工智能可以等同于數學問題中的‘展示工作’。所有的人工智能決策過程和機器學習都不是在黑盒中進行的——它是一種透明的服務,具有被人類從業者解剖和理解的能力。”

sutherland公司首席分析官phaninagarjuna說,“可解釋的人工智能是我們可以解釋人工智能的結果,同時在人工智能達到結果的路徑上能夠清楚地解釋從輸入到結果。”

spr公司數據分析師andrewmaturo說,“可解釋的人工智能是一種機器學習或人工智能應用,伴隨著易于理解的推理,它如何得出一個給定的結論。無論是通過先發制人的設計還是回顧性的分析,都在采用新技術來降低人工智能的黑盒不透明性。”

cognitivescale公司創始人和首席技術官mattsanchez說,“簡單來說,可解釋的人工智能意味著人工智能在其操作中是透明的,這樣人類就能夠理解和信任決策。組織必須問這個問題——那么能解釋其人工智能是如何產生這種特定的洞察力或決策的嗎?”

為什么可解釋的人工智能很重要

sanchez的問題引發了另一個問題:為什么可解釋的人工智能很重要?其原因是多方面的,這可能對人們、企業、政府和社會產生巨大影響。在此考慮一下“信任”這個詞。

ibmwatson物聯網高級產品經理heenapurohit指出,人工智能(ibm稱之為“增強型智能”)和機器學習已經在以復雜的方式處理大量數據方面做得非常出色。但purohit說,人工智能和機器學習的目標是幫助人們提高工作效率,做出更明智、更快速的決策——如果人們不知道他們為什么要做出這些決策,這就更加困難了。

purohit說:“由于人工智能的目的是幫助人們做出更高的決策,當用戶改變行為或根據人工智能輸出(或)預測采取行動時,企業就實現了人工智能解決方案的真正價值。但是,為了讓用戶改變自己的行為,就必須相信系統的建議。當用戶感覺到有能力并知道人工智能系統如何得出建議(或)輸出時,就會建立這種信任。”

從組織領導的角度來看,可解釋的人工智能在某種意義上是讓人們信任并購買這些新系統,以及它們如何改變人們的工作方式。

“看到‘人工智能黑盒’問題仍然存在,我現在確保我們的人工智能解決方案是可以解釋的。”purohit補充說,“在設計人工智能產品以確保可以解釋人工智能時,我想問的一個問題是:人工智能是否使人類容易理解、檢測和理解其決策過程?”

可解釋的人工智能有助于識別人工智能偏見和審計

可解釋的人工智能對于信任和透明度至關重要的其他領域將越來越重要,例如任何人工智能偏見可能對人們產生有害影響的場景。

spr公司的maturo說,“盡管這種解釋的任務很麻煩,但這是一項值得努力的嘗試,通常可以揭示模型中的偏見。在許多行業中,這種透明度可能來自法律、財政、醫療或道德義務。在可能的情況下,模型看起來越不神奇,它的用戶就會越多。”

可解釋的人工智能對于問責制和可審計性也很重要,它將(或者至少應該)仍然存在于組織的人員中,而不是其技術中。

“企業和個人總是需要進行決定。只是按照算法推薦的做法并不具有說服力。”ness公司數字工程首席技術官moshekranc說。kranc指出,可解釋的人工智能對于識別錯誤的結果是至關重要的,這些錯誤的結果來自于諸如有偏見或調整不當的培訓數據和其他問題。能夠跟蹤人工智能系統得出不良結果的路徑可以幫助人們解決潛在問題,并防止它們再次發生。

來源:網絡

以上是網絡信息轉載,信息真實性自行斟酌。

 
本條標題:什么是可解釋的人工智能
本條信息網址:
文本助手 資訊搜索 分享好友 打印本文 關閉窗口
閱讀關鍵詞
  • 手機瀏覽本文

    手機應用中掃描本文二維碼,即可瀏覽本文或分享到您的社交網絡中。

  • 微信公眾號

    掃描二維碼,關注中華廚具網微信公眾號,實時了解行業最新動態。

版權/免責聲明:
一、本文圖片及內容來自網絡,不代表本站的觀點和立場,如涉及各類版權問題請聯系及時刪除。
二、凡注明稿件來源的內容均為轉載稿或由企業用戶注冊發布,本網轉載出于傳遞更多信息的目的;如轉載稿涉及版權問題,請作者聯系我們,同時對于用戶評論等信息,本網并不意味著贊同其觀點或證實其內容的真實性。
三、轉載本站原創文章請注明來源:中華廚具網

0相關評論
今日熱點文章更多
品牌聚焦更多
推薦品牌更多
熱門頻道
關閉廣告
合作伙伴:
中華廚具網 魯ICP備2021046805號         魯公網安備 37162502000363號 (c)2018-2025SYSTEM All Rights Reserved 投資有風險 加盟需謹慎
關閉廣告
關閉廣告
久久九色综合九色99伊人| 久久AⅤ人妻少妇嫩草影院| 久久九色综合九色99伊人| 亚洲第一永久AV网站久久精品男人的天堂AV| 亚洲性久久久影院| 国产日产久久高清欧美一区| 久久99国产精品一区二区| 国产精品成人99久久久久| 久久天天躁狠狠躁夜夜avapp| 久久精品无码一区二区WWW| 久久久久无码精品国产不卡| 久久影视国产亚洲| 欧美精品一区二区精品久久| 国产成人久久精品激情| 久久久久久久91精品免费观看| 2020久久精品国产免费| 亚洲va国产va天堂va久久| 久久精品国产99久久久香蕉| 亚洲午夜久久久影院| 久久久久se色偷偷亚洲精品av| 一本一道久久精品综合| 国产成人久久AV免费| 久久精品人人做人人爽电影| 久久99精品久久久久久9蜜桃| 久久精品国产亚洲AV无码麻豆| 中文国产成人精品久久不卡 | 狠狠色丁香婷婷久久综合不卡| 久久精品国产亚洲一区二区三区 | 亚洲va久久久噜噜噜久久天堂| 久久国产高清一区二区三区| 精品蜜臀久久久久99网站| 亚洲国产精品无码久久久不卡| 日本精品久久久久影院日本 | 国产精品成人精品久久久| 久久最新精品国产| 国内精品久久人妻互换 | 国产福利电影一区二区三区,免费久久久久久久精 | 模特私拍国产精品久久| 久久精品夜色噜噜亚洲A∨| 精品多毛少妇人妻AV免费久久| 国产精品久久久天天影视香蕉 |