首頁 > 新聞 > > 正文

              從技術角度直指產業痛點 《可解釋AI發展報告2022》發布

              2022-02-16 08:30:13    來源:科普時報

              “AI的應用落地在不斷提速,但在算法‘黑箱’下,AI的不可解釋性讓‘黑箱’很難釋明,進而讓人們對AI的安全難言放心。”日前,在2022年科技向善創新周上,與會專家圍繞AI的透明和可解釋難題從技術角度直指產業痛點。

              與此同時,由騰訊研究院、優圖實驗室等多家機構組成的跨學科研究團隊歷時一年完成的《可解釋AI發展報告2022》也引發熱議。報告從可解釋AI的概念、監管趨勢、行業實踐、發展建議等熱點問題出發,抽絲剝繭地呈現可解釋AI產業的現狀和發展趨勢,以期能為產業解決AI“黑箱”釋明難題提供一份參考和借鑒。

              可解釋AI已成熱點

              目前,部分人工智能應用已成為通用型的技術,而人類對AI則一直有更高的期待。不少人堅信,科幻電影《Her》中的AI機器人可對行為作出解釋,從而幫助人類作出決策,甚至與人類產生深度交流的一幕,遲早也會出現在人們的日常生活中。

              雖然產業的發展已經起步并快速成為行業熱點,但這些過于理想化的場景目前還只能存在于科幻作品中,實踐中可解釋AI不論在技術上還是體驗上都還沒達標。

              如今,金融機構的貸款審批都是基于AI作出決策,如果這一復雜的算法風控系統拒絕申請,那么貸款人就沒辦法獲得貸款。這只是AI在眾多日常場景應用中的一幕,只要是AI做出了決策,公眾就必須接受結果,至于什么原因,算法沒有也不可能給出解釋。

              “有時候連開發人員都不能很好地理解AI算法‘黑箱’運作的具體細節,這就導致了AI模型的透明度和可解釋性的問題。”騰訊研究院秘書長張欽坤表示,如果不解決這兩個問題,不僅影響用戶對AI應用的信任,而且也可能會帶來算法歧視、算法安全和算法責任等方面的相關問題。

              其實,人工智能的可解釋以及科技倫理等問題已經成為AI領域的必選項,2021年起始的“十四五”規劃里面也明確強調要健全科技倫理的體系。

              廈門大學人文學院院長朱菁認為,AI可解釋性問題之所以受到重視,主要因為AI的發展雖然變得越來越強大,但也變得越來越“黑”,再者AI雖然變得越來越實用,其可靠性和應用范圍也得到提高。“在一些重要的應用領域,對于AI可信任性、安全性等方面的要求也越來越高,可解釋性就是滿足上述要求的認知基礎。”

              目前來看,國內企業在可解釋AI實踐方面還比較零碎,沒有達到系統化的程度,但就整體而言,產業一直都是朝著可解釋的方向發展。

              魚和熊掌不可兼得

              AI快速深入日常生活,既帶來了興奮和期待,也帶來一些憂慮,甚至恐慌。AI到底是人類的好幫手,還是會成為人類強勁的對手?其實這很大程度上取決于人類對AI的理解。只有打開了人工智能的黑箱,了解到AI背后的機制,并認為它是可解釋、可理解的,人類在這種共識下才能真正達成對AI的信任。

              然而,當前的AI可解釋性及透明度與算法的高效率還是一個矛盾體。

              微眾銀行首席人工智能官楊強認為,AI算法高效率的同時,可解釋性就很差。同樣,AI線性模型的準確率沒有那么高,它的可解釋性相對就會強一些。“這就意味著我們要在可解釋和高效率兩個維度上做一個取舍,但目前并沒有兩個維度都高的AI算法。目前可解釋AI在各個行業都是一個起步,也都不可或缺,但如何做好AI可解釋的量化,才是當前業界該考慮的重點。”

              “不同人群、不同應用場景對AI算法的可解釋性期待是不一樣的,不應該搞一刀切。現階段深度學習普遍缺乏可解釋性的情況下,AI透明度就尤其重要。”騰訊天衍實驗室負責人鄭冶楓表示,AI算法應盡可能詳盡披露模型、訓練數據分布等情況。

              朱菁也認為,目前來說,AI的可解釋性和預測的準確性二者不可兼得,既提高預測準確性,同時還要把可解釋性提高,要實現這件兩全其美的事情難度比較大。其次,解釋的多元化除了怎么都行的這種形態以外,還有孤島式的、互動式的以及整合性的形態。“這些只是同一個整體的不同側面,AI能不能做到這些,現在其實并不是很清楚。”

              推動可解釋模型構建

              可解釋是可信AI的重要組成部分,也是可信的前提條件之一,它有很強的獨特性。當前可解釋AI研究思路很多,但并沒有一個明確的框架,畢竟解釋對象的不同,框架也難統一。

              香港中文大學(深圳)吳保元副教授認為,與其說AI的可解釋性,還不如稱之為AI的可解釋力。“可解釋性可能會讓人們誤認為這是一種性質,而可解釋力就是一種可解釋的能力,就如同人們常說的理解力、領導力,是一種手段,一種行為,一種操作的存在。”

              《可解釋AI發展報告2022》從科技向善的角度出發,認為需要找到一個平衡的可解釋AI路徑來實現可信AI,確保科技向善。張欽坤解釋說,就是在設計可解釋性要求時,需要充分考慮可解釋性要求和其他重要的倫理價值和目的,可解釋本身不是目的而是手段。“在設計可解釋AI的時候,首先需要考慮實現什么樣的目標,其次才是思考在特定的情境下如何更好地匹配這些目標。”

              對于AI研究里的解釋性問題的基本立場,朱菁的建議是解釋的多元化:“針對不同的問題,哪怕是在同一個領域里,也不能指望只有唯一的解釋方式或模式,要允許多種多樣的解釋模型存在。”(陳杰)

              關鍵詞: 技術角度 產業痛點 可解釋AI 發展報告

              上一篇:全球首例基因修飾豬心臟被成功移植到人體 中國企業蓄勢待發
              下一篇:合成解毒代謝 人工肝可治療多種原因導致的肝衰竭

              熱點話題

              熱點推薦

              頭條

              ? 亚洲日韩一区二区一无码| 亚洲最新视频在线观看| 国产偷国产偷亚洲清高动态图| 亚洲av无码一区二区三区天堂| 国产成人亚洲综合网站不卡| 久久精品亚洲AV久久久无码| 亚洲欧洲日产v特级毛片| 图图资源网亚洲综合网站| 国产成人毛片亚洲精品| 国产成人99久久亚洲综合精品 | 亚洲自偷精品视频自拍| 久久久久亚洲av无码尤物| 久久精品国产亚洲av四虎| 亚洲精品国产精品乱码在线观看| 伊人久久大香线蕉亚洲| 国产亚洲精品自在久久| 亚洲爆乳精品无码一区二区三区 | 亚洲午夜福利在线观看| 亚洲综合久久夜AV | 亚洲无线一二三四区手机| 久久久亚洲精品蜜桃臀| 亚洲伊人久久大香线蕉综合图片| 三上悠亚亚洲一区高清| 亚洲精品无码午夜福利中文字幕 | 亚洲精品国产精品乱码不99| 亚洲人成人77777网站| 亚洲av永久无码制服河南实里| 亚洲AV无码一区东京热久久| 亚洲人成网www| 亚洲欧洲日本精品| 亚洲三级高清免费| 亚洲AV永久无码精品放毛片| 亚洲AV蜜桃永久无码精品| 亚洲精品国产综合久久一线| 中文字幕亚洲综合久久菠萝蜜| 亚洲人成网77777色在线播放| 亚洲人成网www| 国产亚洲国产bv网站在线| 亚洲精品国产高清在线观看| 亚洲国产成人a精品不卡在线| 国产亚洲一区二区三区在线不卡|