| 书[0名0]: | 基于深度[0学0]习的自然语言处理|7891598 |
| 图书定价: | 69元 |
| 图书作者: | (以)约阿夫·戈尔德贝格(Yoav Goldberg) |
| 出版社: | [1机1] 械工业出版社 |
| 出版日期: | 2018/5/1 0:00:00 |
| ISBN号: | 9787111593737 |
| 开本: | 16开 |
| 页数: | 0 |
| 版次: | 1-1 |
| 内容简介 |
| 本书重点介绍了神[0经0]网络模型在自然语言处理中的应用。[0首0]先介绍有监督的 [1机1] 器[0学0]习和前馈神[0经0]网络的基本[0知0]识,如何将 [1机1] 器[0学0]习方[0法0]应用在自然语言处理中,以及词向量表示(而不是符号表示)的应用。然后介绍更多专门的神[0经0]网络结构,包括一维卷积神[0经0]网络、循环神[0经0]网络、条件生成模型和基于注意力的模型。后讨论树形网络、结构化预测以及多任务[0学0]习的前景。 |
| 目录 |
译者序 前言 致谢 [0第0]1章引言 1��1自然语言处理的挑战 1��2神[0经0]网络和深度[0学0]习 1��3自然语言处理中的深度[0学0]习 1��4本书的覆盖面和组织结构 1��5本书未覆盖的内容 1��6术语 1��7数[0学0]符号 注释 [0第0]一部分有监督分类与前馈神[0经0]网络 [0第0]2章[0学0]习基础与线性模型 2��1有监督[0学0]习和参数化函数 2��2训练集、测试集和验证集 2��3线性模型 2��3��1二分类 2��3��2对数线性二分类 2��3��3多分类 2��4表示 2��5[0独0]热和稠密向量表示 2��6对数线性多分类 2��7训练和[0优0]化 2��7��1损失函数 2��7��2正则化 2��8基于梯度的[0优0]化 2��8��1随 [1机1] 梯度下降 2��8��2实例 2��8��3其他训练方[0法0] [0第0]3章从线性模型到多层感[0知0]器 3��1线性模型的局限性:异或问题 3��2非线性输入转换 3��3核方[0法0] 3��4可训练的映射函数 [0第0]4章前馈神[0经0]网络 4��1一个关于[0大0]脑的比喻 4��2数[0学0]表示 4��3表达能力 4��4常见的非线性函数 4��5损失函数 4��6正则化与丢弃[0法0] 4��7相似和距离层 4��8嵌入层 [0第0]5章神[0经0]网络训练 5��1计算图的抽象概念 5��1��1前向计算 5��1��2反向计算(导数、反向传播) 5��1��3软件 5��1��4实现流程 5��1��5网络构成 5��2实践[0经0]验 5��2��1[0优0]化算[0法0]的选择 5��2��2初始化 5��2��3重启与集成 5��2��4梯度消失与梯度爆炸 5��2��5饱和神[0经0]元与死神[0经0]元 5��2��6随 [1机1] 打乱 5��2��7[0学0]习率 5��2��8minibatch [0第0]二部分处理自然语言数据 [0第0]6章文本特征构造 6��1NLP分类问题中的拓扑结构 6��2NLP问题中的特征 6��2��1直接可观测特征 6��2��2可推断的语言[0学0]特征 6��2��3核心特征与组合特征 6��2��4n元组特征 6��2��5分布特征 [0第0]7章NLP特征的案例分析 7��1文本分类:语言识别 7��2文本分类:主题分类 7��3文本分类:作者归属 7��4上下文中的单词:词性标注 7��5上下文中的单词:命[0名0]实体识别 7��6上下文中单词的语言特征:介词词义消歧 7��7上下文中单词的关系:弧分解分析 [0第0]8章从文本特征到输入 8��1编码分类特征 8��1��1[0独0]热编码 8��1��2稠密编码(特征嵌入) 8��1��3稠密向量与[0独0]热表示 8��2组合稠密向量 8��2��1基于窗口的特征 8��2��2可变特征数目:连续词袋 8��3[0独0]热和稠密向量间的关系 8��4杂项 8��4��1距离与位置特征 8��4��2补齐、未登录词和词丢弃 8��4��3特征组合 8��4��4向量共享 8��4��5维度 8��4��6嵌入的词表 8��4��7网络的输出 8��5例子:词性标注 8��6例子:弧分解分析 [0第0]9章语言模型 9��1语言模型任务 9��2语言模型[0评0]估:困惑度 9��3语言模型的传统方[0法0] 9��3��1延伸阅读 9��3��2传统语言模型的限制 9��4神[0经0]语言模型 9��5使用语言模型进行生成 9��6副产[0品0]:词的表示 [0第0]10章预训练的词表示 10��1随 [1机1] 初始化 10��2有监督的特定任务的预训练 10��3无监督的预训练 10��4词嵌入算[0法0] 10��4��1分布式[jia]设和词表示 10��4��2从神[0经0]语言模型到分布式表示 10��4��3词语联系 10��4��4其他算[0法0] 10��5上下文的选择 10��5��1窗口方[0法0] 10��5��2句子、段落或文档 10��5��3句[0法0]窗口 10��5��4多语种 10��5��5基于字符级别和子词的表示 10��6处理多字单元和字变形 10��7分布式方[0法0]的限制 [0第0]11章使用词嵌入 11��1词向量的获取 11��2词的相似度 11��3词聚类 11��4寻找相似词 11��5同中选异 11��6短文档相似度 11��7词的类比 11��8改装和映射 11��9实用性和陷阱 [0第0]12章案例分析:一种用于句子意义推理的前馈结构 12��1自然语言推理与 SNLI数据集 12��2文本相似网络 [0第0]三部分特殊的结构 [0第0]13章n元语[0法0]探测器:卷积神[0经0]网络 13��1基础卷积池化 13��1��1文本上的一维卷积 13��1��2向量池化 13��1��3变体 13��2其他选择:特征哈希 13��3层次化卷积 [0第0]14章循环神[0经0]网络:序列和栈建模 14��1RNN抽象描述 14��2RNN的训练 14��3RNN常见使用模式 14��3��1接收器 14��3��2编码器 14��3��3传感器 14��4[0双0]向RNN 14��5堆叠RNN 14��6用于表示栈的RNN 14��7文献阅读的注意事项 [0第0]15章实际的循环神[0经0]网络结构 15��1作为RNN的CBOW 15��2简单RNN 15��3门结构 15��3��1长短期记忆网络 15��3��2门限循环单元 15��4其他变体 15��5应用到RNN的丢弃 [1机1] 制 [0第0]16章通过循环网络建模 16��1接收器 16��1��1情感分类器 16��1��2主谓一致语[0法0]检查 16��2作为特征提取器的RNN 16��2��1词性标注 16��2��2RNN�睠NN文本分类 16��2��3弧分解依存句[0法0]分析 [0第0]17章条件生成 17��1RNN生成器 17��2条件生成(编码器解码器) 17��2��1序列到序列模型 17��2��2应用 17��2��3其他条件上下文 17��3无监督的句子相似性 17��4结合注意力 [1机1] 制的条件生成 17��4��1计算复杂性 17��4��2可解释性 17��5自然语言处理中基于注意力 [1机1] 制的模型 17��5��1 [1机1] 器翻译 17��5��2形态屈折 17��5��3句[0法0]分析 [0第0]四部分其他主题 [0第0]18章用递归神[0经0]网络对树建模 18��1形式化定义 18��2扩展和变体 18��3递归神[0经0]网络的训练 18��4一种简单的替代——线性化树 18��5前景 [0第0]19章结构化输出预测 19��1基于搜索的结构化预测 19��1��1基于线性模型的结构化预测 19��1��2非线性结构化预测 19��1��3概率目标函数(CRF) 19��1��4近似搜索 19��1��5重排序 19��1��6参考阅读 19��2贪心结构化预测 19��3条件生成与结构化输出预测 19��4实例 19��4��1基于搜索的结构化预测:一阶依存句[0法0]分析 19��4��2基于Neural�睠RF的命[0名0]实体识别 19��4��3基于柱搜索的NER�睠RF近似 [0第0]20章级联、多任务与半监督[0学0]习 20��1模型级联 20��2多任务[0学0]习 20��2��1多任务设置下的训练 20��2��2选择性共享 20��2��3作为多任务[0学0]习的词嵌入预训练 20��2��4条件生成中的多任务[0学0]习 20��2��5作为正则的多任务[0学0]习 20��2��6注意事项 20��3半监督[0学0]习 20��4实例 20��4��1眼动预测与句子压缩 20��4��2弧标注与句[0法0]分析 20��4��3介词词义消歧与介词翻译预测 20��4��4条件生成:多语言 [1机1] 器翻译、句[0法0]分析以及图像描述生成 20��5前景 [0第0]21章结论 21��1我们[0学0]到了什么 21��2未来的挑战 参考文献 |
这本书真的让我大开眼界,我之前对自然语言处理(NLP)一直都是只闻其名,知其大概,但具体怎么实现,背后的原理是什么,我总觉得像隔着一层纱。特别是“深度学习”这个词,听起来就很高深莫测。拿到这本书后,我迫不及待地翻开,一开始还有点担心自己基础不够,会不会看不懂。但作者的讲解方式非常友好,循序渐进,从最基本的概念讲起,一点点地引导我进入深度学习的世界。书中对一些核心算法的解释,比如RNN、LSTM、Transformer等等,不是那种枯燥的数学公式堆砌,而是用很形象的比喻和图示来帮助理解。我尤其喜欢它在介绍每个模型时,都会先讲清楚它要解决的问题,然后分析之前的方法的不足,最后才引出深度学习模型是如何巧妙地克服这些困难的。这种“why-how”的讲解方式,让我不仅知其然,更知其所以然。读完后,感觉自己对NLP的理解层次一下子提升了好几个level,原来那些智能语音助手、机器翻译背后,有着这么精妙的算法在支撑。
评分最近对人工智能领域的一些热点技术很感兴趣,尤其是那些能和人类语言进行交互的,比如智能客服、智能写作等等。这本书的封面设计就很有吸引力,而且“深度学习”和“自然语言处理”这两个关键词也正是我想要了解的。虽然我不是技术出身,但这本书的语言风格非常平易近人,没有太多晦涩难懂的专业术语,即使是像我这样的初学者,也能读得津津有味。作者很巧妙地将复杂的概念分解成易于理解的部分,并且通过大量的图示和实例来加深读者的印象。我特别喜欢书里对每个模型的演进过程的描述,能看到这些技术是如何一步步发展起来的,这让我对整个NLP领域的发展脉络有了更清晰的认识。读完这本书,感觉自己不再是那个对AI语言技术一无所知的门外汉了,甚至能和懂技术的朋友聊上几句,分享一下我的理解,这让我感到非常充实和自豪。
评分一直以来,我对那些能够理解和生成人类语言的AI技术都充满了好奇。看到这本书的书名,特别是“深度学习”和“自然语言处理”,就觉得这正是我一直在寻找的。这本书真的写得非常棒,它的内容既有深度又不失趣味性。作者没有直接丢给我一堆晦涩的公式,而是用一种循序渐进的方式,从最基础的概念讲起,然后慢慢引入更复杂的模型。我特别欣赏书中的例子,它们都非常贴近生活,让我能更好地理解抽象的理论。比如,在讲解情感分析的时候,作者会用我们日常生活中遇到的各种句子来举例,让我能立刻感受到模型是如何工作的。而且,书中的图解也非常清晰,大大帮助了我理解那些复杂的网络结构。读完这本书,我感觉自己对AI如何“读懂”我们的语言有了全新的认识,也对未来的AI发展充满了期待。
评分我是一名正在攻读计算机专业研究生的学生,平时研究方向就涉及到文本挖掘和信息检索,所以对NLP一直有着浓厚的兴趣。接触过一些传统的NLP方法,也尝试过一些开源库,但总觉得在处理复杂、海量文本数据时,效果总是不尽如人意。这本书的出现,简直就像是为我量身定制的一样。它深入浅出地介绍了深度学习在NLP领域的各种应用,从词向量的表示到文本分类、序列标注、机器翻译,再到更前沿的问答系统和对话生成,几乎涵盖了NLP的各个方面。书中不仅讲解了理论知识,还提供了大量的代码示例和实践指导,这对我来说是至关重要的。我可以在学习理论的同时,立刻动手实践,验证自己的理解,并且能够将学到的知识应用到我的研究项目中。特别是关于Transformer模型的讲解,真的非常到位,让我深刻理解了它在并行计算和捕捉长距离依赖方面的优势,这对于我目前正在进行的一个项目非常有启发。
评分我是一名工作多年的软件工程师,虽然日常工作中接触的主要是后端开发,但随着AI技术的飞速发展,我越来越意识到掌握一些前沿技术的重要性。自然语言处理一直是我比较感兴趣的一个领域,但总觉得门槛比较高,特别是深度学习的部分,让我望而却步。这本书的内容非常扎实,而且结构清晰,逻辑性很强。作者在讲解深度学习模型时,非常注重理论与实践的结合,不仅详细阐述了模型的原理,还提供了相应的代码实现。这对于我这样的开发者来说,是极其宝贵的。我可以通过阅读代码,更直观地理解算法的细节,并且可以将学到的技术迁移到我自己的工作中,为公司的产品增加智能化功能。书中对各种NLP任务的详细介绍,也让我看到了深度学习在实际应用中的巨大潜力,让我对接下来的学习和发展有了更明确的方向。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.coffeedeals.club All Rights Reserved. 静流书站 版权所有