Transformer自然語言處理實戰:使用Hugging Face Transformers庫構建NLP應用
定 價:¥139
中 教 價:¥83.40 (6.00折)
庫 存 數: 0
本書涵蓋了Transformer在NLP領域的主要應用。首先介紹Transformer模型和Hugging Face 生態系統。然后重點介紹情感分析任務以及Trainer API、Transformer的架構,并講述了在多語言中識別文本內實體的任務,以及Transformer模型生成文本的能力,還介紹了解碼策略和度量指標。接著深入挖掘了文本摘要這個復雜的序列到序列的任務,并介紹了用于此任務的度量指標。之后聚焦于構建基于評論的問答系統,介紹如何基于Haystack進行信息檢索,探討在缺乏大量標注數據的情況下提高模型性能的方法。最后展示如何從頭開始構建和訓練用于自動填充Python源代碼的模型,并總結Transformer面臨的挑戰以及將這個模型應用于其他領域的一些新研究。
自Transformer在2017年發布以來,自然語言處理領域就邁入了 一個全新的時代。以Transformer為基礎的模型,不斷推動著自 然語言處理技術的進步與革新。如今隨著ChatGPT的發布與流行,Transformer也被越來越多的人所了解和使用。 本書以Hugging Face Transformers庫為基礎,旨在向讀者介紹Transformer模型的基礎知識和快速入門方式,幫助讀者完成訓練和擴展。三位作者都是Hugging Face Transformers的創建者,深諳Transformer的原理與架構,將通過實際案例手把手地幫助讀者構建各種自然語言處理任務,并不斷挖掘Transformer的無限潛力,從而實現更廣泛的應用和創新。 通過本書,你將: ? 以NLP領域最具代表性的任務(文本分類、命名實體識別和問答系統)為例,學習構建、調試和優化Transformer模型。 ? 了解Transformer如何應用于跨語言遷移學習。 ? 學習如何在標注數據稀缺的場景中應用Transformer。 ? 使用蒸餾、剪枝和量化等技術優化Transformer。 ? 學習如何對Transformer做分布式并行訓練。
Lewis Tunstall是Hugging Face機器學習工程師,致力于為NLP社區開發實用工具,并幫助人們更好地使用這些工具。 Leandro von Werra是Hugging Face機器學習工程師,致力于代碼生成模型的研究與社區推廣工作。 Thomas Wolf是Hugging Face首席科學官兼聯合創始人,他的團隊肩負著促進AI研究和普及的使命。
目錄序1前言3第1章 歡迎來到Transformer的世界111.1 編碼器-解碼器框架121.2 注意力機制141.3 NLP的遷移學習151.4 Hugging FaceTransformers庫:提供規范化接口181.5 Transformer應用概覽191.6 Hugging Face生態系統231.7 Transformer的主要挑戰271.8 本章小結27第2章 文本分類292.1 數據集302.2 將文本轉換成詞元362.3 訓練文本分類器442.4 本章小結60第3章 Transformer架構剖析623.1 Transformer架構623.2 編碼器643.3 解碼器793.4 認識Transformer813.5本章小結87第4章 多語言命名實體識別884.1 數據集894.2 多語言Transformer934.3 多語言詞元化技術944.4 命名實體識別中的Transformers964.5 自定義Hugging Face Transformers庫模型類984.6 NER的詞元化1034.7 性能度量1054.8 微調XLM-RoBERTa1064.9 錯誤分析1084.10 跨語言遷移1144.11 用模型小部件進行交互1204.12 本章小結121第5章 文本生成1225.1 生成連貫文本的挑戰1235.2 貪婪搜索解碼1255.3 束搜索解碼1295.4 采樣方法1325.5 top-k和核采樣1345.6 哪種解碼方法最好1365.7 本章小結137第6章 文本摘要1386.1 CNN/DailyMail數據集1386.2 文本摘要pipeline1396.3 比較不同的摘要1436.4 度量生成文本的質量1446.5 在CNN/DailyMail數據集上評估PEGASUS1506.6 訓練摘要模型1526.7 本章小結158第7章 構建問答系統1607.1 構建基于評論的問答系統1617.2 評估并改進問答pipeline1837.3 生成式問答1967.4 本章小結199第8章 Transformer模型調優2018.1 以意圖識別為例2018.2 創建性能基準2038.3 通過知識蒸餾減小模型大小2088.4 利用量化技術使模型運算更快2208.5 基準測試量化模型2258.6 使用ONNX和ONNX Runtime進行推理優化2268.7 使用權重剪枝使模型更稀疏2318.8 本章小結235第9章 零樣本學習和少樣本學習2369.1 構建GitHub issue標記任務2389.2 基線模型樸素貝葉斯2459.3 零樣本學習2489.4 少樣本學習2569.5 利用無標注數據2729.6 本章小結278第10章 從零訓練Transformer模型28010.1 如何尋找大型數據集28110.2 構建詞元分析器29010.3 從零訓練一個模型30110.4 結果與分析31510.5 本章小結319第11章 未來發展趨勢32111.1 Transformer的擴展32111.2 其他應用領域32911.3 多模態的Transformer33411.4 繼續前行的建議342