揭密AI黑箱,開發者投入研究“可解釋的人工智能”

慧聰教育網 2021-02-24 17:14 來源:十輪網

【慧聰教育網】對于后者則可考慮提供限時免運優惠,以觸發最終的購買行為。

林博士補充道:“營銷人員必須明白哪些關鍵因素會影響模型的決策。盡管對營銷人員而言,了解模型背后的算法非常具有挑戰性,但如果能明白哪些因素在人工智能的決策過程中發揮作用,將有助于提高模型的可解釋性?!?/p>

在討論可解釋的人工智能時,未必要了解整個模型背后的復雜運行機制,只需明白哪些因素會影響其產出。換言之,理解模型的運行原理是一回事,明白其為何產出特定結果則是另一回事,兩者不可混為一談。

XAI能讓系統所有者或用戶解釋模型背后的決策過程,借此了解其優缺點,進而推測該系統未來的運行方式。

例如,在進行圖片識別時讓人工智能模型聚焦于照片的特定區域,可能會引導至不同的結果。一旦了解圖片的哪些部分最可能促使模型產出特定結果或決策,用戶便可更有效地掌握并解釋人工智能模型的行為模式。

除了協助制定策略外,XAI也讓營銷人員和其他用戶能夠向管理階層及其他利害關系人解釋產出結果,而這對于闡述模型的輸出以及為何采用特定策略方面可說是十分管用。

然而,并非所有人工智能模型都具備容易解讀的特性。部分研究人員指出,與圖片識別、自然語言處理等深度學習模型相比,決策樹和貝氏分類器等算法更具可解釋性。不過,以上論點是基于精確性和可解釋性之間的權衡。隨著模型結構漸趨復雜,非專業人士往往難以解釋清楚其背后的運行原理,但復雜的模型通??蛇_到更出色的性能表現。

可解釋的人工智能,能協助開發者分辨偏見的好壞

林博士表示:“由于用以訓練模型的資料可能自帶偏見,且算法在設計上也可能在有意無意間摻入偏見,因此,偏見無可避免地存在于所有人工智能模型中。然而,并非所有的人工智能偏見都是壞事?!?/p>

事實上,偏見也可用于做出準確的預測;但在將其應用于諸如種族和性別等敏感領域時,務必要采取謹慎的態度。

林博士進一步說明:“可解釋的人工智能可協助我們區分模型在進行決策時,使用的是有益的或是有害的偏見,還可告訴我們在模型制定決策的過程中,哪些因素扮演的角色更為重要。雖然XAI無法檢測出偏見,但仍有助于人類理解模型決策的過程是否存在偏見?!?/p>

林博士也補充,可解釋的人工智能還能夠協助人們理解偏見的來源,究竟是源自用以訓練人工智能模型的資料,抑或模型對于不同標簽的權重等。

運行透明化,模型開發人員的責任增加

對許多人而言,人工智能的運行模式宛如“黑箱作業”:即輸入資料后,經由一連串不透明的算法推導出結果,或提出應采取行動的建議。當模型產出的結果乍看之下似乎違背主動甚至有誤時,便可能導致不信任的情況發生。

林博士解釋:“XAI使這些模型對人類而言更容易理解、也更加合理,且每個人都可針對模型產出的結果進行研究,以決定是否采納其建議。換句話說,XAI不僅將人類納入決策過程,更讓人們成為做出最終決定前的最后一道防線,使整個流程具備更高的可信度?!?/p>

他也補充說明,未來的人工智能模型將有能力向人們解釋其制定決策的方式,并將決策攤在眾人臉前以供查看,而這意味著模型開發人員的責任也將有所增加。相較于以往的黑箱作業,如今人們可以追溯人工智能模型做出的決策,相信在不久的將來,會出現能自行解釋運行原理的人工智能系統。

了解AI模型的運行機制,是企業的致勝關鍵

學術界至今已提出許多研究報告,希望促進人工智能或其他算法的自我解釋能力。

林博士指出:“有些模型要比其他模型更容易解釋。例如,深度學習模型就是難以解讀的模型之一,為了解讀深度學習模型的運行機制,某些研究會建議使用代理模型模仿深度學習模型的行為,因為代理模型往往更容易解釋?!?/p>

他還補充,另一種方法則是從模型的設計著手,構建更容易解釋的模型。例如,在神經網絡中使用較少參數,將有望降低復雜度并實現相似的準確性,從而使模型本身更具可解釋性。

隨著越來越多企業部署人工智能,能否了解模型背后的運行機制,儼然已成為企業致勝與否的關鍵。唯有掌握人工智能模型的運行方式,才能夠深入了解其決策背后的成因、識別任何須排除的偏見,從而增進人們對該系統的信任。XAI不僅將人工智能和機器學習的黑箱打開,更為人們提供了解模型運行模式的機會,把黑箱變透明!

免責聲明:凡注明來源本網的所有作品,均為本網合法擁有版權或有權使用的作品,歡迎轉載,注明出處。非本網作品均來自互聯網,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。
百度 好搜 搜狗

警告:本站禁止未滿18周歲訪客瀏覽,如果當地法律禁止請自覺離開本站!收藏本站:請使用Ctrl+D進行收藏