统计机器学习导论
作者 : [日]杉山将(Masashi Sugiyama) 著
译者 : 谢宁 李柏杨 肖竹 罗宇轩 等译
出版日期 : 2018-04-26
ISBN : 978-7-111-59679-0
定价 : 89.00元
教辅资源下载
扩展信息
语种 : 简体中文
页数 : 349
开本 : 16
原书名 : Introduction to Statistical Machine Learning
原出版社: Elsevier (Singapore) Pte Ltd
属性分类: 教材
包含CD : 无CD
绝版 :
图书简介

统计技术与机器学习的结合使其成为一种强大的工具,能够对众多计算机和工程领域的数据进行分析,包括图像处理、语音处理、自然语言处理、机器人控制以及生物、医学、天文学、物理、材料等基础科学范畴。本书介绍机器学习的基础知识,注重理论与实践的结合。第一部分讨论机器学习算法中统计与概率的基本概念,第二部分和第三部分讲解机器学习的两种主要方法,即生成学习方法和判别分类方法,其中,第三部分对实际应用中重要的机器学习算法进行了深入讨论。本书配有MATLAB/Octave代码,可帮助读者培养实践技能,完成数据分析任务。

图书特色

1

图书前言

机器学习是计算机领域的一个学科,旨在研究原理、算法以及能够像人类一样学习的系统的应用。近年来,计算机和传感器的发展使得我们能够访问不同领域的海量数据(如文本、音频、图片、电影、电子商务、电气、医学和生物学等)。在此类大数据的分析和利用方面,机器学习起到了核心的作用。
本书致力于讨论机器学习的数学背景及多种机器学习技术的实用化算法。目标读者定位于计算机和相关专业的本科生和研究生。在工作中应用机器学习技术的工程师和分析数据的科学家也会从本书中获益。
本书特色在于每章的主题简明扼要,给出具体机器学习技术的数学推导并附以简洁的MATLAB程序。由此,读者在学习数学概念的同时,可掌握多种机器学习技术的实用价值。全部MATLAB程序可以从如下网址获得:
本书第一部分给出机器学习领域的简要概述。紧接着,第二部分介绍了概率和统计的基本概念,它们构成了统计机器学习的数学基础。第二部分的成文基于:

第三部分和第四部分分别在生成和判别框架下,介绍了一系列实用机器学习算法。随后, 第五部分介绍高级论题,进而处理更具挑战的机器学习任务。第三部分的成文基于:

第四部分和第五部分的成文基于:

在此感谢东京大学和东京工业大学相关研究组的研究员和学生针对本书早期手稿给出的有价值的反馈。

杉山将
东京大学

上架指导

计算机/人工智能/机器学习

封底文字

本书对统计机器学习的关键知识点进行了全面讲解,首先介绍用于描述机器学习算法的概率与统计的知识,接着详细分析机器学习技术的两类主要方法——生成方法和判别方法,最后深入研究了如何使机器学习算法在实际应用中发挥更大的作用。

本书特色
基础知识全面。涵盖理解机器学习所必需的基础知识,例如数理统计、概率论、线性代数和微积分等。
重点内容突出。着力于讲解统计模式识别的生成方法以及统计机器学习的判别方法,数学推理清晰,案例详实。
程序代码支持。提供MATLAB/Octave程序源代码,通过对书中算法进行测试,帮助读者提高数据分析的实践能力。

作者简介
杉山将(Masashi Sugiyama) 东京大学教授,研究兴趣为机器学习与数据挖掘的理论、算法和应用。2007年获得IBM学者奖,以表彰其在机器学习领域非平稳性方面做出的贡献。2011年获得日本信息处理协会颁发的Nagao特别研究员奖,以及日本文部科学省颁发的青年科学家奖,以表彰其对机器学习密度比范型的贡献。

译者简介
谢宁 电子科技大学副教授,研究兴趣为统计机器学习和计算机图形学,研究领域包括强化学习、行为智能、游戏智能、艺术化绘制等。博士毕业于东京工业大学,师从杉山将教授,曾荣获2013年手岛精一优秀博士论文奖。2017年获得四川省千人计划青年人才项目奖励。目前已在国际一流学术期刊和会议发表论文50篇。

作者简介

[日]杉山将(Masashi Sugiyama) 著:【加照片】Masashi Sugiyama,东京大学教授,拥有东京工业大学计算机科学博士学位,研究兴趣包括机器学习与数据挖掘的理论、算法和应用,涉及信号处理、图像处理、机器人控制等。2007年获得IBM学者奖,以表彰其在机器学习领域非平稳性方面做出的贡献。2011年获得日本信息处理协会颁发的Nagao特别研究奖,以及日本文部科学省颁发的青年科学家奖,以表彰其对机器学习密度比范型的贡献。

译者序

机器学习是计算机科学的重要分支之一,旨在研究原理、算法以及能够像人类一样学习的系统的应用。同时,其亦是一门交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习作为人工智能的核心部分,是计算机获得智能的根本途径,其应用遍及人工智能的各个领域,发挥着不可替代的重要作用。
本书是日本人工智能和机器学习领域的新一代领军人物杉山将(Masashi Sugiyama)的统计机器学习力作。本书致力于讲解数学背景及多种机器学习技术的实用化算法。其结构清晰,内容丰富,案例详实,系统地介绍了统计机器学习的概念、技术及应用。通过对本书的学习,读者可以了解统计机器学习的基本概念和知识,同时培养统计机器学习的基本技能。阅读本书需要了解计算机科学、概率论与统计学等相关基础知识。本书适用于计算机及相关专业的本科生、研究生以及相关领域的研究人员和专业技术人员。
本书翻译工作得到了课题组成员的鼎力支持和大力协作。
谢宁作为本次翻译活动的倡议者和联络人,负责和参与翻译了前言、作者简介及第1章,并帮助分析、修改各章中的疑难点。
第一部分(第1章),由谢宁和李柏杨共同完成。
第二部分(第2~10章),由李煜玮、周飞宇、苏秋霖和文洋负责翻译。
第三部分(第11~20章),由王磊和徐颖负责翻译。
第四部分(第21~29章),由罗宇轩负责翻译。
第五部分(第30~39章),由李柏杨负责翻译。
此外,肖竹负责翻译第一到五部分的引言内容。在翻译组内部审校阶段,谢宁担任内部审校总负责人,李柏杨、肖竹和张帅担任内部审校主要负责人。
本书中文版能够出版发行,首先要感谢本书的作者杉山将教授,是他为我们著作了一本好书。其次要感谢机械工业出版社华章分社引进了本书的中文版权,使得我们能够获得为博士导师杉山将教授翻译此书的机会,并实现将其介绍给国内广大读者的良好愿望。此外,特别感谢本书的编辑曲熠以及所有为此书的出版做出贡献的排校人员,是他们的辛勤劳动才使本书能够付诸印刷和出版,在此表示深深的感谢和崇高的敬意!
本书对原著的错误之处做了一些修正,在原著难懂或需要提醒的地方添加了一些译者说明。尽管我们在翻译过程中力图做得更好,但因个人的业务水平、英文水平乃至中文文学水平的限制,以及翻译过程中的粗心和不够严谨,可能使得本书中文版中存在错误、不足和不当之处。热切期望读者对本书提出宝贵意见、建议和勘误,并欢迎与我们联络(seanxiening@gmailcom)。

2018年3月

图书目录

译者序
前言
作者简介
第一部分绪论
第1章统计机器学习
11学习的类型
12机器学习任务举例
121监督学习
122非监督学习
123进一步的主题
13本书结构
第二部分概率与统计
第2章随机变量与概率分布
21数学基础
22概率
23随机变量和概率分布
24概率分布的性质
241期望、中位数和众数
242方差和标准差
243偏度、峰度和矩
25随便变量的变换
第3章离散概率分布的实例
31离散均匀分布
32二项分布
33超几何分布
34泊松分布
35负二项分布
36几何分布
第4章连续概率分布的实例
41连续均匀分布
42正态分布
43伽马分布、指数分布和卡方分布
44Beta分布
45柯西分布和拉普拉斯分布
46t分布和F分布
第5章多维概率分布
51联合概率分布
52条件概率分布
53列联表
54贝叶斯定理
55协方差与相关性
56独立性
第6章多维概率分布的实例
61多项分布
62多元正态分布
63狄利克雷分布
64威沙特分布
第7章独立随机变量之和
71卷积
72再生性
73大数定律
74中心极限定理
第8章概率不等式
81联合界
82概率不等式
821马尔可夫不等式和切尔诺夫不等式
822坎泰利不等式和切比雪夫不等式
83期望不等式
831琴生不等式
832赫尔德不等式和施瓦茨不等式
833闵可夫斯基不等式
834康托洛维奇不等式
84独立随机变量和的不等式
841切比雪夫不等式和切尔诺夫不等式
842霍夫丁不等式和伯恩斯坦不等式
843贝内特不等式
第9章统计估计
91统计估计基础
92点估计
921参数密度估计
922非参数密度估计
923回归和分类
924模型选择
93区间估计
931基于正态样本期望的区间估计
932bootstrap置信区间
933贝叶斯置信区间
第10章假设检验
101假设检验基础
102正态样本期望的检验
103尼曼皮尔森引理
104列联表检验
105正态样本期望差值检验
1051无对应关系的两组样本
1052有对应关系的两组样本
106秩的无参检验
1061无对应关系的两组样本
1062有对应关系的两组样本
107蒙特卡罗检验
第三部分统计模式识别的生成式方法
第11章通过生成模型估计的模式识别
111模式识别的公式化
112统计模式识别
113分类器训练的准则
1131最大后验概率规则
1132最小错误分类率准则
1133贝叶斯决策规则
1134讨论
114生成式方法和判别式方法
第12章极大似然估计
121定义
122高斯模型
123类后验概率的计算
124Fisher线性判别分析
125手写数字识别
1251预备知识
1252线性判别分析的实现
1253多分类器方法
第13章极大似然估计的性质
131一致性
132渐近无偏性
133渐近有效性
1331一维的情况
1332多维的情况
134渐近正态性
135总结
第14章极大似然估计的模型选择
141模型选择
142KL散度
143AIC信息论准则
144交叉检验
145讨论
第15章高斯混合模型的极大似然估计
151高斯混合模型
152极大似然估计
153梯度上升算法
154EM算法
第16章非参数估计
161直方图方法
162问题描述
163核密度估计
1631Parzen 窗法
1632利用核的平滑
1633带宽的选择
164最近邻密度估计
1641最近邻距离
1642最近邻分类器
第17章贝叶斯推理
171贝叶斯预测分布
1711定义
1712与极大似然估计的比较
1713计算问题
172共轭先验
173最大后验估计
174贝叶斯模型选择
第18章边缘相似的解析近似
181拉普拉斯近似
1811高斯密度估计
1812例证
1813应用于边际似然逼近
1814贝叶斯信息准则
182变分近似
1821变分贝叶斯最大期望算法
1822与一般最大期望法的关系
第19章预测分布的数值近似
191蒙特卡罗积分
192重要性采样
193采样算法
1931逆变换采样
1932拒绝采样
1933马尔可夫链蒙特卡罗方法
第20章贝叶斯混合模型
201高斯混合模型
2011贝叶斯公式化
2012变分推断
2013吉布斯采样
202隐狄利克雷分配模型
2021主题模型
2022贝叶斯公式化
2023吉布斯采样
第四部分统计机器学习的判别式方法
第21章学习模型
211线性参数模型
212核模型
213层次模型
第22章最小二乘回归
221最小二乘法
222线性参数模型的解决方案
223最小二乘法的特性
224大规模数据的学习算法
225层次模型的学习算法
第23章具有约束的最小二乘回归
231子空间约束的最小二乘
2322约束的最小二乘
233模型选择
第24章稀疏回归
2411约束的最小二乘
242解决1约束的最小二乘
243稀疏学习的特征选择
244若干扩展
2441广义1约束最小二乘
2442p约束最小二乘
24431+2约束最小二乘
24441,2约束最小二乘
2445迹范数约束最小二乘
第25章稳健回归
2512损失最小化的非稳健性
2521损失最小化
253Huber损失最小化
2531定义
2532随机梯度算法
2533迭代加权最小二乘
25341约束Huber损失最小化
254Tukey 损失最小化
第26章最小二乘分类器
261基于最小二乘回归的分类器
2620/1损失和间隔
263多类分类器
第27章支持向量分类
271最大间隔分类
2711硬间隔支持向量分类
2712软间隔支持向量分类
272支持向量分类的对偶最优化问题
273对偶解的稀疏性
274使用核技巧的非线性模型
275多类扩展
276损失最小化观点
2761Hinge损失最小化
2762平方Hinge损失最小化
2763Ramp损失最小化
第28章概率分类法
281Logistic回归
2811Logistic模型与极大似然估计
2812损失最小化的观点
282最小二乘概率分类
第29章结构化分类
291序列分类器
292序列的概率分类
2921条件随机场
2922极大似然估计
2923递归计算
2924新样本预测
293序列的确定性分类
第五部分高级主题
第30章集成学习
301决策树桩分类器
302bagging算法
303boosting算法
3031adaboost算法
3032损失最小化观点
304泛化集成学习
第31章在线学习
311随机梯度下降法
312被动攻击学习
3121分类
3122回归
313加权向量的自适应正则化
3131参数的不确定性
3132分类
3133回归
第32章预测的置信度
3212正则化最小二乘的预测方差
322bootstrap法置信区间估计
323应用
3231时间序列预测
3232调整参数的优化
第33章半监督学习
331流形正则化
3311输入样本的流形结构
3312计算解决方案
332协变量移位的适应
3321重要度加权学习
3322相对重要度加权学习
3323重要度加权交叉检验
3324重要度估计
333类别平衡变化下的适应
3331类别平衡加权学习
3332类别平衡估计
第34章多任务学习
341任务相似度正则化
3411公式化
3412解析解
3413多任务的有效计算方法
342多维函数学习
3421公式化
3422有效的分析解决方案
343矩阵正则化
3431参数矩阵正则化
3432迹范数正则化的梯度法
第35章线性降维
351维度灾难
352无监督降维法
3521主成分分析
3522局部保留投影
353分类的线性判别分析
3531Fisher判别分析法
3532局部Fisher 判别分析法
3533半监督局部Fisher判别分析法
354回归问题的充分降维
3541信息论公式化
3542直接导数估计
355矩阵插补
第36章非线性降维
361利用核技巧的降维
3611核主成分分析
3612拉普拉斯特征映射
362通过神经网络的监督降维法
363通过自编码器的非监督降维法
3631自编码器
3632通过梯度下降法的训练
3633稀疏自编码器
364通过受限玻尔兹曼机的非监督降维法
3641模型
3642通过梯度下降法的训练
365深度学习
第37章聚类
371k均值聚类
372核k均值聚类
373谱聚类
374调谐参数的选择
第38章异常检测
381密度估计和局部异常因子
382支持向量数据描述
383基于正常值的异常检测
第39章变化检测
391基于分布模型的变化检测
3911KL散度
3912Pearson散度
3913L2距离
3914L1距离
3915最大均值差异
3916能量距离
3917时序变化检测的应用
392基于结构模型的变化检测
3921稀疏极大似然估计
3922稀疏密度比估计
参考文献
索引

教学资源推荐
作者: [美] 迪帕克·K. 阿加瓦尔(Deepak K. Agarwal) 陈必衷(Bee-Chung Chen) 著
作者: [英] 麦克·威尔逊(Mike Wilson)著
作者: [英]麦克斯·A. 里特尔(Max A. Little) 著
作者: 周昌乐 著