計算機視覺 Python+TensorFlow+Keras深度學(xué)習(xí)實戰(zhàn) 微課視頻版
定 價:¥39.8
中 教 價:¥33.83 (8.50折)
庫 存 數(shù): 0
人工智能正在成為全世界產(chǎn)業(yè)變革的方向,處于第四次科技革命的核心地位。計算機視覺(Computer Vision)就是利用攝像機、算法和計算資源為人工智能系統(tǒng)按上眼睛,讓其可以擁有人類的雙眼所具有的前景與背景分割、物體識別、目標跟蹤、判別決策等功能。計算機視覺系統(tǒng)可以讓計算機看見并理解這個世界的信息,從而替代人類完成重復(fù)性工作。目前計算機視覺領(lǐng)域熱門的研究方向有物體檢測和識別、語義分割、目標跟蹤等。本書圍繞著計算機視覺的關(guān)鍵技術(shù),介紹基于深度學(xué)習(xí)計算機視覺的基礎(chǔ)理論及主要算法。本書結(jié)合常見的應(yīng)用場景和項目實例,循序漸進地帶領(lǐng)讀者進入美妙的計算機視覺世界。本書共分為11章,2~5章介紹計算機視覺的幾種關(guān)鍵技術(shù),即圖像分類、目標檢測、圖像分割和目標跟蹤,并將這四項關(guān)鍵技術(shù)組合完成人工智能的實際應(yīng)用。本書在6、7章介紹人工智能的兩個典型應(yīng)用:文字檢測與識別系統(tǒng)及多任務(wù)深度學(xué)習(xí)系統(tǒng),第8章介紹一種非常有意思的深度學(xué)習(xí)網(wǎng)絡(luò)對抗生成神經(jīng)網(wǎng)絡(luò),第9章介紹制作訓(xùn)練和測試樣本的方法,第10章介紹如何安裝TensorFlow、Keras API及相關(guān)介紹,第11章介紹綜合實驗。本書提供了大量項目實例及代碼解析,均是基于Python語言及TensorFlow、Keras API的。本教材的每章均配有微課視頻,掃描每章的二維碼,可觀看作者的視頻講解
本書在多年科研積累的基礎(chǔ)上,指導(dǎo)讀者建立以理論 實踐 前沿為導(dǎo)向的計算機視覺學(xué)習(xí)思路,后以基于YOLO和DeepSort的目標檢測與跟蹤的綜合案例完成實踐
計算機視覺是人工智能領(lǐng)域的一個重要組成部分,它的主要任務(wù)是對采集的圖片或視頻進行處理以獲得相應(yīng)信息。傳統(tǒng)的計算機視覺算法的主要步驟是提取包括邊緣、角點、顏色等圖像特征,然后利用這些圖像特征完成圖像處理與機器學(xué)習(xí)的任務(wù)。傳統(tǒng)算法的主要問題在于需要告訴系統(tǒng)在圖像中尋找哪些圖像特性。由于提取圖像特征部分是人為設(shè)計的,在實現(xiàn)的過程中,對于算法、功能及閾值的更改都需要手工完成,這對高質(zhì)量的項目實現(xiàn)造成了很大的障礙,而深度學(xué)習(xí)的出現(xiàn)解決了這一問題。當前,深度學(xué)習(xí)在處理計算機視覺子任務(wù)方面取得了重大進展。深度學(xué)習(xí)的不同之處在于它不再通過精心設(shè)計的算法來搜索特定的圖像特征,而是通過訓(xùn)練大量的神經(jīng)網(wǎng)絡(luò)參數(shù)來實現(xiàn)。本書將從計算機視覺的四大關(guān)鍵技術(shù)出發(fā),詳細介紹基于深度學(xué)習(xí)的計算機視覺技術(shù)的基礎(chǔ)理論、主要算法項目實戰(zhàn)及代碼實現(xiàn)。本書結(jié)合常見的人工智能應(yīng)用場景,循序漸進地帶領(lǐng)讀者進入美妙的計算機視覺世界。 第1章介紹人工智能概述,對人工智能的發(fā)展歷程及常見的應(yīng)用案例進行詳細介紹;第2章講解卷積神經(jīng)網(wǎng)絡(luò)的基本原理,幾種常見的深度卷積神經(jīng)網(wǎng)絡(luò)框架,并介紹圖像分類的項目實戰(zhàn);第3章主要講解目標檢測的基本原理,幾種典型的目標檢測算法,并介紹目標檢測的項目實戰(zhàn);第4章講解圖像分割的基本原理,幾種典型的圖像分割算法,結(jié)合項目實戰(zhàn)使讀者進一步理解圖像分割算法;第5章介紹目標跟蹤的基本原理,幾種典型的目標跟蹤算法,并通過項目實戰(zhàn)介紹目標跟蹤算法的實現(xiàn)過程;第6章講解文字檢測與識別系統(tǒng)的基本構(gòu)成及原理,幾種典型的文字檢測及識別算法,并通過項目實戰(zhàn)進一步介紹文字檢測與識別的實現(xiàn)過程;第7章講解多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的原理、構(gòu)建方法和實用技巧,并通過項目實例給出了易于理解的項目實戰(zhàn)方法;第8章講解生成對抗神經(jīng)網(wǎng)絡(luò)的基本原理,介紹幾種典型的生成對抗神經(jīng)網(wǎng)絡(luò)算法,并通過項目實例介紹生成對抗神經(jīng)網(wǎng)絡(luò)的構(gòu)建過程;第9章主要講解怎樣制作訓(xùn)練樣本,包括數(shù)據(jù)的標注及數(shù)據(jù)增強兩部分;第10章介紹Keras和API的安裝方法;第11章介紹綜合實驗。按照以上章節(jié)介紹的理論及案例,就可以逐步開啟計算機視覺的項目實戰(zhàn)了。 時光荏苒,歲月如梭,轉(zhuǎn)眼研究計算機視覺與神經(jīng)網(wǎng)絡(luò)已經(jīng)近二十個年頭了,感謝引領(lǐng)我進入這個領(lǐng)域的恩師谷荻隆嗣教授,在教授那里學(xué)習(xí)到的研究方法和學(xué)術(shù)態(tài)度讓我受益終身。在漫長歲月里,由于計算資源的限制和一些結(jié)構(gòu)上的缺陷,神經(jīng)網(wǎng)絡(luò)一度備受冷落,由衷地敬佩和感慨Geoffrey Hinton教授在這一領(lǐng)域鍥而不舍地堅持和奉獻,讓深度學(xué)習(xí)真正地進入了產(chǎn)業(yè)界,解決了我在漫長二十年的學(xué)術(shù)生涯中遇到的多個百思不得其解的難題。同樣感謝我的學(xué)生們的支持和奉獻。本書的部分章節(jié)參考了我指導(dǎo)的研究生黃偉杰、裴柳、李博、李雪倩、支勇、王貝貝的碩士論文及畢業(yè)設(shè)計成果。在撰寫書稿的過程中,重新翻開同學(xué)們的畢業(yè)論文,在一起奮戰(zhàn)的日日夜夜一幕幕地浮現(xiàn)在眼前。傳承、融入、影響、身教、合作、困惑與頓悟匯成了我對計算機視覺的全部理解。 編 者 2021年7月
北京交通大學(xué)教授、博士生導(dǎo)師,曾任日本SECOM東京研究院研究員。從事人工智能、計算機視覺技術(shù)的教學(xué)與科研工作,在智能監(jiān)控、無人系統(tǒng)視覺感知、車載視覺環(huán)境感知、基于視覺的表面缺陷檢測、運輸載體故障診斷等方向有著多年的科研經(jīng)驗。近年來主持國家自然科學(xué)基金、北京市科委重點研發(fā)專項等、省部級、企業(yè)合作項目,共計30余項。在國際重要的學(xué)術(shù)期刊與會議上發(fā)表論文60余篇,其中被SCI收錄論文20余篇,被授權(quán)發(fā)明專利6項(日本發(fā)明專利3項)。致力于人工智能技術(shù)的產(chǎn)業(yè)化應(yīng)用。曾自主研發(fā)多套軟件與裝備,如無人系統(tǒng)的視覺感知系統(tǒng)、無人機智能監(jiān)測系統(tǒng)、智能巡檢系統(tǒng)、煤礦運輸皮帶綜合監(jiān)測系統(tǒng)、高速鐵路運行安全監(jiān)測系統(tǒng)等,產(chǎn)生良好的經(jīng)濟和社會效益。
第1章 人工智能概述 1 1.1 人工智能的發(fā)展浪潮 1 1.2 AI技術(shù)發(fā)展歷史 4 1.2.1 AI技術(shù)三要素之算法 4 1.2.2 AI技術(shù)三要素之計算資源 6 1.2.3 AI三要素之數(shù)據(jù) 6 1.3 視頻分析技術(shù)的應(yīng)用案例 9 1.3.1 基于人臉識別技術(shù)的罪犯抓捕系統(tǒng) 9 1.3.2 基于文字識別技術(shù)的辦公自動化系統(tǒng) 10 1.3.3 基于圖像分割及目標檢測技術(shù)的無人駕駛環(huán)境感知系統(tǒng) 10 1.3.4 基于目標檢測及跟蹤技術(shù)的電子交警系統(tǒng) 10 1.3.5 基于圖像比對技術(shù)的產(chǎn)品缺陷檢測系統(tǒng) 10 1.3.6 基于行為識別技術(shù)的安全生產(chǎn)管理系統(tǒng) 10 1.4 本章小結(jié) 10第2章 深度卷積神經(jīng)網(wǎng)絡(luò) 11 2.1 深度卷積神經(jīng)網(wǎng)絡(luò)的概念 11 2.2 卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)成 12 2.2.1 卷積層 12 2.2.2 激活函數(shù) 12 2.2.3 池化層 14 2.3 深度卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu) 14 2.3.1 常用網(wǎng)絡(luò)模型 14 2.3.2 網(wǎng)絡(luò)模型對比 20 2.4 圖像分類 20 2.5 遷移學(xué)習(xí) 21 2.6 圖像識別項目實例 22 2.6.1 下載ImageNet的訓(xùn)練模型 22 2.6.2 ResNet模型構(gòu)建 23 2.6.3 測試圖像 26 2.7 本章小結(jié) 27 2.8 習(xí)題 27第3章 目標檢測 28 3.1 目標檢測的概念 28 3.2 基于候選區(qū)域的目標檢測算法 29 3.2.1 Faster R-CNN目標檢測算法 30 3.2.2 基于區(qū)域的全卷積網(wǎng)絡(luò)(R-FCN)目標檢測算法 30 3.3 基于回歸的目標檢測算法 32 3.3.1 YOLO目標檢測算法 32 3.3.2 SSD目標檢測算法 33 3.4 目標檢測算法評價指標 34 3.5 深度卷積神經(jīng)網(wǎng)絡(luò)目標檢測算法性能對比 35 3.6 目標檢測項目實戰(zhàn) 36 3.6.1 Faster R-CNN 36 3.6.2 用YOLO訓(xùn)練自己的模型 40 3.7 本章小結(jié) 43 3.8 習(xí)題 43第4章 圖像分割 44 4.1 圖像分割的概念 44 4.2 典型的圖像分割算法 45 4.2.1 FCN分割算法 45 4.2.2 DeepLab分割算法 45 4.2.3 SegNet圖像分割算法 47 4.2.4 U-Net算法 47 4.2.5 Mask R-CNN算法 48 4.3 圖像分割評價標準 49 4.4 圖像分割項目實戰(zhàn) 50 4.4.1 FCN32模型構(gòu)建 51 4.4.2 FCN8的模型構(gòu)建 52 4.4.3 Seg-Net的模型構(gòu)建 53 4.4.4 U-Net的模型構(gòu)建 56 4.5 本章小結(jié) 59 4.6 習(xí)題 59第5章 目標跟蹤 60 5.1 圖像分割的概念 60 5.2 基于光流特征的目標跟蹤算法 63 5.2.1 基于光流特征跟蹤算法概述 63 5.2.2 LK光流法 65 5.3 SORT目標跟蹤算法 66 5.3.1 卡爾曼濾波器 66 5.3.2 基于匈牙利算法的數(shù)據(jù)關(guān)聯(lián) 68 5.4 Deep SORT多目標跟蹤算法 69 5.4.1 Deep SORT算法跟蹤原理 69 5.4.2 外觀特征間的關(guān)聯(lián)性計算 69 5.4.3 利用運動信息關(guān)聯(lián)目標 71 5.4.4 級聯(lián)匹配 71 5.5 目標跟蹤算法評價指標 72 5.6 Deep SORT算法主要程序及分析 72 5.6.1 目標檢測框的獲取及坐標轉(zhuǎn)換 72 5.6.2 卡爾曼濾波 73 5.6.3 深度外觀特征的提取 77 5.6.4 匹配 78 5.6.5 后續(xù)處理 79 5.7 本章小結(jié) 81 5.8 習(xí)題 81第6章 OCR文字識別 82 6.1 OCR文字識別的概念 82 6.2 文字檢測 83 6.2.1 傳統(tǒng)的文字檢測算法 83 6.2.2 基于深度學(xué)習(xí)的文字檢測算法 83 6.3 文字識別算法 89 6.3.1 基于DenseNet網(wǎng)絡(luò)模型的序列特征提取 89 6.3.2 基于LSTM結(jié)構(gòu)的上下文序列特征提取 91 6.3.3 字符序列的解碼方式 92 6.4 項目實戰(zhàn) 95 6.4.1 CRAFT模型搭建 96 6.4.2 CRNN模型搭建 97 6.4.3 文字檢測與識別程序 99 6.5 本章小結(jié) 104 6.6 習(xí)題 105第7章 多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò) 106 7.1 多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的概念 107 7.2 多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)構(gòu)建 107 7.2.1 多任務(wù)網(wǎng)絡(luò)的主要分類 107 7.2.2 并行式網(wǎng)絡(luò) 109 7.2.3 級聯(lián)式網(wǎng)絡(luò) 110 7.3 多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的代碼實現(xiàn) 113 7.3.1 構(gòu)建多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò) 114 7.3.2 多任務(wù)深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練 116 7.3.3 多任務(wù)深度學(xué)習(xí)模型測試 116 7.4 本章小結(jié) 119 7.5 習(xí)題 119第8章 生成對抗神經(jīng)網(wǎng)絡(luò) 120 8.1 生成對抗網(wǎng)絡(luò)的概念 120 8.2 典型的生成對抗網(wǎng)絡(luò) 121 8.2.1 DCGAN 121 8.2.2 CycleGAN 123 8.3 傳送帶表面缺陷樣本增強案例 126 8.4 項目實戰(zhàn) 128 8.4.1 DCGAN 128 8.4.2 CycleGAN 130 8.5 本章小結(jié) 132 8.6 習(xí)題 132第9章 樣本制作與數(shù)據(jù)增強 133 9.1 數(shù)據(jù)的獲取 133 9.2 數(shù)據(jù)的標注 133 9.2.1 目標檢測與識別標注軟件LabelImg 134 9.2.2 圖像分割標注軟件LabelMe 134 9.3 數(shù)據(jù)增強 134 9.4 項目實戰(zhàn):數(shù)據(jù)增強 135 9.4.1 數(shù)據(jù)增強庫的安裝與卸載 135 9.4.2 數(shù)據(jù)增強庫的基本使用 136 9.4.3 樣本數(shù)據(jù)增強的結(jié)果 136 9.4.4 關(guān)鍵點變換 137 9.4.5 標注框(Bounding Box)變換 139 9.5 本章小結(jié) 141 9.6 習(xí)題 141第10章 Keras安裝和API 142 10.1 安裝Keras 142 10.1.1 第1步安裝依賴項 142 10.1.2 第2步安裝TensorFlow 144 10.1.3 第3步安裝Keras 145 10.1.4 第4步測試TensorFlow和Keras 145 10.2 配置Keras 146 10.3 Keras API 146 10.4 TensorFlow API 146 10.5 本章小結(jié) 147第11章 綜合實驗:基于YOLO和Deep Sort的目標檢測與跟蹤 148 11.1 算法流程 148 11.2 實驗代碼 149 11.3 實驗評價 155