2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
為了使AI發(fā)揮其潛能并在許多領(lǐng)域(尤其是影響人們的領(lǐng)域)中廣泛部署,它需要克服黑匣子問題。如今,一個熱門研究領(lǐng)域被稱為可擴展AI(XAI),以通過可解釋性,公平性和透明性增強AI學(xué)習(xí)模型。
前提是,一旦AI完全具備了功能,它將導(dǎo)致業(yè)界所設(shè)想的“負責(zé)任的AI”。
大多數(shù)機器學(xué)習(xí)模型不是很聰明。他們經(jīng)過“訓(xùn)練”以識別模式和關(guān)系,但有時結(jié)果卻很奇怪。在進行迭代時,他們嘗試將各種參數(shù)與目標函數(shù)相關(guān)聯(lián)(“是貓還是狗?”)。
XAI(可替代AI)的新興研究
是的,數(shù)據(jù)的復(fù)雜性和對抗性擾動也會導(dǎo)致基于規(guī)則的系統(tǒng)中的錯誤預(yù)測或決策。但是在這種情況下,可以跟蹤規(guī)則的執(zhí)行方式。太多的計算無法在機器引導(dǎo)中實現(xiàn)。XAI的目標是提供對決策的后驗分析,并提供消除數(shù)據(jù)和其他任務(wù)偏差的方法。
在AI的可解釋性和可解釋性的確切含義中,Meet Ghandi很好地總結(jié)了一下:
XAI有助于確保在進行決策時,訓(xùn)練數(shù)據(jù)集以及訓(xùn)練后的模型沒有任何偏差。此外,XAI有助于調(diào)試學(xué)習(xí)模型,并引起人們對各種對抗性干擾的注意,這些干擾會導(dǎo)致錯誤的預(yù)測或決策。更重要的是,XAI將深入了解由學(xué)習(xí)模型建立的因果關(guān)系以及該模型的推理。應(yīng)該注意的一件事是,通過使學(xué)習(xí)模型更加復(fù)雜,其可解釋性降低,性能提高;因此,學(xué)習(xí)模型的性能和可解釋性之間存在反比關(guān)系。
在提出XAI技術(shù)時,應(yīng)將重點放在學(xué)習(xí)系統(tǒng)的目標用戶上,以使學(xué)習(xí)系統(tǒng)對其用戶值得信賴。另外,應(yīng)考慮用戶的隱私。因此,要在現(xiàn)實生活中使用AI,首先,我們需要通過解釋AI的決策來使其負責(zé),并使其透明化,從而構(gòu)成負責(zé)任或道德AI的基礎(chǔ)。
甘地提出了一些基本問題:
在AI開發(fā)中有一個激烈的爭論,即XAI將降低系統(tǒng)的性能。
因果關(guān)系不是我在其他XAI解釋中看到的標準,因此我認為這是個人觀點。
值得信賴,具有私密性并且對負責(zé)/道德的AI負責(zé),但目前,XAI專注于系統(tǒng)的開發(fā)人員和所有者。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。