日韩精品 中文字幕 动漫,91亚洲午夜一区,在线不卡日本v一区v二区丶,久久九九国产精品自在现拍

注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)其他編程語言/工具AI可解釋性(Python語言版)

AI可解釋性(Python語言版)

AI可解釋性(Python語言版)

定 價(jià):¥59.80

作 者: [意] 列奧尼達(dá)·詹法納(Leonida Gianfagna)、安東尼奧·迪·塞科(Antonio Di Cecco)著,郭濤 譯
出版社: 清華大學(xué)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

ISBN: 9787302605690 出版時(shí)間: 2022-08-01 包裝: 平裝-膠訂
開本: 32開 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  《AI可解釋性(Python語言版)》全面介紹了AI可解釋性的概念和可用技術(shù),使機(jī)器學(xué)習(xí)系統(tǒng)更易于解釋。書中提出的方法可以應(yīng)用于幾乎所有現(xiàn)有的機(jī)器學(xué)習(xí)模型:線性和邏輯回歸、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)、自然語言處理和圖像識(shí)別等等。 隨著機(jī)器學(xué)習(xí)的發(fā)展,如今人們越來越多地使用人工智能體來執(zhí)行以前由人類處理的關(guān)鍵任務(wù)(醫(yī)療、法律和金融等等)。雖然智能體的設(shè)計(jì)原則已被理解,但目前的大多數(shù)深度學(xué)習(xí)模型對(duì)人類理解而言是“不透明的”?!禔I可解釋性(Python語言版)》從理論和實(shí)踐的角度填補(bǔ)了這個(gè)新興主題文獻(xiàn)方面的空白,使讀者能夠快速地使用可解釋性AI的工具和代碼。

作者簡介

  Leonida Gianfagna博士是一位理論物理學(xué)家,目前在網(wǎng)絡(luò)安全領(lǐng)域工作,擔(dān)任Cyber Guru的研發(fā)總監(jiān)。在加入Cyber Guru之前,他在IBM工作了15年,擔(dān)任ITSM(IT服務(wù)管理)軟件開發(fā)的領(lǐng)導(dǎo)。Leonida發(fā)表了多篇理論物理和計(jì)算機(jī)科學(xué)的論文,被授予IBM發(fā)明大師(IBM Master Inventor)。Antonio Di Cecco是一位理論物理學(xué)家,擁有強(qiáng)大的數(shù)學(xué)背景。他完全致力于提供從入門到專家等不同層次的線上或線下AIML教育,使用深入挖掘AIML模型的數(shù)學(xué)基礎(chǔ)的教育方法,并打開了新的角度來展示AIML知識(shí)和現(xiàn)有技術(shù)的改進(jìn)空間。Antonio還擁有專注于創(chuàng)新和教學(xué)經(jīng)驗(yàn)的經(jīng)濟(jì)學(xué)碩士學(xué)位。他還是一家意大利人工智能學(xué)院的領(lǐng)導(dǎo),該學(xué)院在羅馬和佩斯卡拉都有分支機(jī)構(gòu)。譯者:郭濤,主要從事模式識(shí)別與人工智能、智能機(jī)器人、軟件工程、地理人工智能(GeoAI)和時(shí)空大數(shù)據(jù)挖掘與分析等前沿交叉技術(shù)的研究。翻譯出版了《復(fù)雜性思考:復(fù)雜性科學(xué)與計(jì)算模型(第2版)》《神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)與實(shí)現(xiàn)》和《概率圖模型及計(jì)算機(jī)視覺應(yīng)用》等暢銷書。

圖書目錄

第1章 前景   1
1.1  AI可解釋性示例   2
1.1.1  學(xué)習(xí)階段   3
1.1.2  知識(shí)發(fā)現(xiàn)   4
1.1.3  可靠性和魯棒性   5
1.1.4  三個(gè)示例的啟示   5
1.2  ML和XAI   6
1.2.1  ML分類法   8
1.2.2  常見誤解   11
1.3  對(duì)AI可解釋性的需求   12
1.4  可解釋性與可理解性:是否為表達(dá)相同事物的不同詞語   14
1.4.1  從物質(zhì)世界到人類   15
1.4.2  相關(guān)性不是因果性   16
1.4.3  那么可理解性和可解釋性的區(qū)別是什么   19
1.5  使ML系統(tǒng)具備可解釋性   21
1.5.1  XAI工作流程   21
1.5.2  全局視覺   24
1.6  我們真的需要ML模型的可解釋性嗎   26
1.7  小結(jié)   28
參考文獻(xiàn)   29
第2章 AI可解釋性:需求、機(jī)遇和挑戰(zhàn)   31
2.1  人工介入   32
2.1.1  半人馬座XAI系統(tǒng)   32
2.1.2  從“人工介入”的角度評(píng)估XAI   35
2.2  如何使ML模型具備可解釋性   37
2.2.1  內(nèi)在可解釋性   41
2.2.2  事后可解釋性   44
2.2.3  全局或局部可解釋性   46
2.3  解釋的性質(zhì)   49
2.4  小結(jié)   51
參考文獻(xiàn)   52
第3章 內(nèi)在可解釋性模型   53
3.1  損失函數(shù)   54
3.2  線性回歸   57
3.3  邏輯回歸   67
3.4  決策樹   78
3.5  K最近鄰算法(KNN)   87
3.6  小結(jié)   90
參考文獻(xiàn)   91
第4章 XAI的模型不可知方法   93
4.1  全局可解釋性:排序重要性與部分依賴圖   94
4.1.1  根據(jù)排序重要性將特征排序   95
4.1.2  訓(xùn)練集中的排序重要性   99
4.1.3  部分依賴圖   100
4.1.4  解釋的性質(zhì)   104
4.2  局部可解釋性:XAI與Shapley加法解釋   106
4.2.1  Shapley值:一種博弈論方法   107
4.2.2  SHAP的首次應(yīng)用   108
4.2.3  解釋的性質(zhì)   111
4.3  KernelSHAP   111
4.3.1  Shapley公式   112
4.3.2  如何計(jì)算Shapley值   112
4.3.3  局部線性代理模型(LIME)   113
4.3.4  KernelSHAP是一種特殊的LIME   115
4.4  KernelSHAP與交互   116
4.4.1  紐約出租車情境   116
4.4.2  通過初步分析訓(xùn)練模型   116
4.4.3  用KernelShap使模型具備可解釋性   120
4.4.4  特征交互   120
4.5  提升樹的更快速SHAP   122
4.5.1  TreeShap的應(yīng)用   122
4.5.2  提供解釋   123
4.6  對(duì)SHAP的樸素評(píng)價(jià)   125
4.7  小結(jié)   127
參考文獻(xiàn)   128
第5章 解釋深度學(xué)習(xí)模型   129
5.1  不可知方法   130
5.1.1  對(duì)抗性特征   130
5.1.2  增強(qiáng)方法   132
5.1.3  將遮擋用作增強(qiáng)方法   133
5.1.4  將遮擋用作不可知XAI方法   134
5.2  神經(jīng)網(wǎng)絡(luò)(NN)   138
5.2.1  神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)   138
5.2.2  為什么神經(jīng)網(wǎng)絡(luò)是深層網(wǎng)絡(luò)(與淺層網(wǎng)絡(luò)相對(duì))   140
5.2.3  修正激活(和批量歸一化)   142
5.2.4  顯著圖   143
5.3  打開深度網(wǎng)絡(luò)   144
5.3.1  不同層解釋   144
5.3.2  CAM(類激活圖,Class Activation Maps)和Grad-CAM   144
5.3.3  DeepShap/ DeepLift   146
5.4  對(duì)顯著性方法的評(píng)判   150
5.4.1  網(wǎng)絡(luò)所見   150
5.4.2  可解釋性逐層批量標(biāo)準(zhǔn)化   151
5.5  無監(jiān)督方法   152
5.5.1  無監(jiān)督降維   152
5.5.2  卷積濾波器降維   154
5.5.3  激活圖集:如何區(qū)分炒鍋與煎鍋   156
5.6 小結(jié)   158
參考文獻(xiàn)   159
第6章 用ML和XAI創(chuàng)造科學(xué)   161
6.1  數(shù)據(jù)時(shí)代的科學(xué)方法   162
6.2  因果關(guān)系階梯   166
6.3  用ML和XAI發(fā)現(xiàn)物理概念   172
6.3.1  自動(dòng)編碼器的魔力   173
6.3.2  利用ML和XAI發(fā)現(xiàn)阻尼擺的物理特性   177
6.3.3  攀登因果關(guān)系階梯   181
6.4  ML和XAI時(shí)代的科學(xué)   182
6.5  小結(jié)   184
參考文獻(xiàn)   185
第7章 對(duì)抗性機(jī)器學(xué)習(xí)和可解釋性   187
7.1  對(duì)抗性示例(AE)速成課程   188
7.2  使用對(duì)抗性示例運(yùn)行XAI   201
7.3  用XAI抵御對(duì)抗性攻擊   205
7.4  小結(jié)   208
參考文獻(xiàn)   209
第8章 關(guān)于XAI可持續(xù)模型的建議   211
8.1  XAI“Fil Rouge”   212
8.2  XAI和GDPR   214
8.3  結(jié)語   220
8.4  小結(jié)   224
參考文獻(xiàn)   224
附錄 F.A.S.T. XAI認(rèn)證   227
 

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) rgspecialties.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)