
0人評分過此書
本書收錄於此書展...
本書系統地闡述機器學習中常見的幾類模型,包括模型的思想、原理及實現細節等。同時,本書還結合了當前熱門的機器學習框架Sklearn,對書中所涉及的模型進行用法上詳細講解。全書共10章,第1章介紹機器學習開發環境的配置;第2章講解線性回歸模型的基本原理、回歸模型中常見的幾種評價指標,以及用於有監督模型訓練的梯度下降算法;第3章介紹邏輯回歸模型的基本原理和分類模型中常見的幾種評價指標;第4章介紹模型的改善與泛化,包括特徵標準化、如何避免過擬合及如何進行模型選擇等;第5章講解K最近鄰分類算法的基本原理及kd樹的構造與搜索;第6章介紹樸素貝葉斯算法的基本原理;第7章介紹幾種常見的文本特徵提取方法,包括詞袋模型和TF-IDF等;第8章講解決策樹的基本原理,包括幾種經典的決策樹生成算法和集成模型;第9章介紹支持向量機的基本原理與求解過程;第10章介紹幾種經典的聚類算法及相應的評價指標計算方法。 本書包含大量的代碼示例及實際案例介紹,不僅可以作為計算機相關專業學生入門機器學習的讀物,同時也適用於非計算機專業及培訓機構的參考學習書籍。
- 封面页
- 书名页
- 版权页
- 作者简介
- 内容简介
- 前言PREFACE
- 目录
-
第1章 环境配置
-
1.1 安装Conda
-
1.1.1 Windows环境
-
1.1.2 Linux环境
-
-
1.2 替换源
-
1.3 Conda环境管理
-
1.3.1 虚拟环境安装
-
1.3.2 虚拟环境使用
-
-
1.4 PyCharm安装与配置
-
1.5 小结
-
-
第2章 线性回归
-
2.1 模型的建立与求解
-
2.1.1 理解线性回归模型
-
2.1.2 建立线性回归模型
-
2.1.3 求解线性回归模型
-
2.1.4 sklearn简介
-
2.1.5 安装sklearn及其他库
-
2.1.6 线性回归示例代码
-
2.1.7 小结
-
-
2.2 多变量线性回归
-
2.2.1 理解多变量
-
2.2.2 多变量线性回归建模
-
2.2.3 多变量回归示例代码
-
-
2.3 多项式回归
-
2.3.1 理解多项式
-
2.3.2 多项式回归建模
-
2.3.3 多项式回归示例代码
-
2.3.4 小结
-
-
2.4 回归模型评估
-
2.4.1 常见回归评估指标
-
2.4.2 回归指标示例代码
-
2.4.3 小结
-
-
2.5 梯度下降
-
2.5.1 方向导数与梯度
-
2.5.2 梯度下降算法
-
2.5.3 小结
-
-
2.6 正态分布
-
2.6.1 一个问题的出现
-
2.6.2 正态分布
-
-
2.7 目标函数推导
-
2.7.1 目标函数
-
2.7.2 求解梯度
-
2.7.3 矢量化计算
-
2.7.4 从零实现线性回归
-
2.7.5 小结
-
-
-
第3章 逻辑回归
-
3.1 模型的建立与求解
-
3.1.1 理解逻辑回归模型
-
3.1.2 建立逻辑回归模型
-
3.1.3 求解逻辑回归模型
-
3.1.4 逻辑回归示例代码
-
3.1.5 小结
-
-
3.2 多变量与多分类
-
3.2.1 多变量逻辑回归
-
3.2.2 多分类逻辑回归
-
3.2.3 多分类示例代码
-
3.2.4 小结
-
-
3.3 常见的分类评估指标
-
3.3.1 二分类场景
-
3.3.2 二分类指标示例代码
-
3.3.3 多分类场景
-
3.3.4 多分类指标示例代码
-
3.3.5 小结
-
-
3.4 目标函数推导
-
3.4.1 映射函数
-
3.4.2 概率表示
-
3.4.3 极大似然估计
-
3.4.4 求解梯度
-
3.4.5 从零实现二分类逻辑回归
-
3.4.6 从零实现多分类逻辑回归
-
3.4.7 小结
-
-
-
第4章 模型的改善与泛化
-
4.1 基本概念
-
4.2 特征标准化
-
4.2.1 等高线
-
4.2.2 梯度与等高线
-
4.2.3 标准化方法
-
4.2.4 特征组合与映射
-
4.2.5 小结
-
-
4.3 过拟合
-
4.3.1 模型拟合
-
4.3.2 过拟合与欠拟合
-
4.3.3 解决欠拟合与过拟合问题
-
4.3.4 小结
-
-
4.4 正则化
-
4.4.1 测试集导致糟糕的泛化误差
-
4.4.2 训练集导致糟糕的泛化误差
-
4.4.3 正则化中的参数更新
-
4.4.4 正则化示例代码
-
4.4.5 小结
-
-
4.5 偏差、方差与交叉验证
-
4.5.1 偏差与方差定义
-
4.5.2 模型的偏差与方差
-
4.5.3 超参数选择
-
4.5.4 模型选择
-
4.5.5 小结
-
-
4.6 实例分析手写体识别
-
4.6.1 数据预处理
-
4.6.2 模型选择
-
4.6.3 模型测试
-
4.6.4 小结
-
-
-
第5章 K近邻
-
5.1 K近邻思想
-
5.2 K近邻原理
-
5.2.1 算法原理
-
5.2.2 K值选择
-
5.2.3 距离度量
-
-
5.3 sklearn接口与示例代码
-
5.3.1 sklearn接口介绍
-
5.3.2 K近邻示例代码
-
5.3.3 小结
-
-
5.4 kd树
-
5.4.1 构造kd树
-
5.4.2 最近邻kd树搜索
-
5.4.3 最近邻搜索示例
-
5.4.4 K近邻kd树搜索
-
5.4.5 K近邻搜索示例
-
5.4.6 小结
-
-
-
第6章 朴素贝叶斯
-
6.1 朴素贝叶斯算法
-
6.1.1 概念介绍
-
6.1.2 理解朴素贝叶斯
-
6.1.3 计算示例
-
6.1.4 求解步骤
-
6.1.5 小结
-
-
6.2 贝叶斯估计
-
6.2.1 平滑处理
-
6.2.2 计算示例
-
6.2.3 小结
-
-
-
第7章 文本特征提取与模型复用
-
7.1 词袋模型
-
7.1.1 理解词袋模型
-
7.1.2 文本分词
-
7.1.3 构造词表
-
7.1.4 文本向量化
-
7.1.5 考虑词频的文本向量化
-
7.1.6 小结
-
-
7.2 基于贝叶斯算法的垃圾邮件分类
-
7.2.1 载入原始文本
-
7.2.2 制作数据集
-
7.2.3 训练模型
-
7.2.4 复用模型
-
7.2.5 小结
-
-
7.3 考虑权重的词袋模型
-
7.3.1 理解TF-IDF
-
7.3.2 TF-IDF计算原理
-
7.3.3 TF-IDF计算示例
-
7.3.4 TF-IDF示例代码
-
7.3.5 小结
-
-
7.4 词云图
-
7.4.1 生成词云图
-
7.4.2 自定义样式
-
7.4.3 小结
-
-
-
第8章 决策树与集成学习
-
8.1 决策树的基本思想
-
8.1.1 冠军球队
-
8.1.2 信息的度量
-
8.1.3 小结
-
-
8.2 决策树的生成之ID3与C4.5
-
8.2.1 基本概念与定义
-
8.2.2 计算示例
-
8.2.3 ID3生成算法
-
8.2.4 C4.5生成算法
-
8.2.5 特征划分
-
8.2.6 小结
-
-
8.3 决策树生成与可视化
-
8.3.1 ID3算法示例代码
-
8.3.2 决策树可视化
-
8.3.3 小结
-
-
8.4 决策树剪枝
-
8.4.1 剪枝思想
-
8.4.2 剪枝步骤
-
8.4.3 剪枝示例
-
8.4.4 小结
-
-
8.5 CART生成与剪枝算法
-
8.5.1 CART算法
-
8.5.2 分类树生成算法
-
8.5.3 分类树生成示例
-
8.5.4 分类树剪枝步骤
-
8.5.5 分类树剪枝示例
-
8.5.6 小结
-
-
8.6 集成学习
-
8.6.1 集成学习思想
-
8.6.2 集成学习种类
-
8.6.3 Bagging集成学习
-
8.6.4 Boosting集成学习
-
8.6.5 Stacking集成学习
-
8.6.6 小结
-
-
8.7 随机森林
-
8.7.1 随机森林原理
-
8.7.2 随机森林示例代码
-
8.7.3 特征重要性评估
-
8.7.4 小结
-
-
8.8 泰坦尼克号生还预测
-
8.8.1 读取数据集
-
8.8.2 特征选择
-
8.8.3 缺失值填充
-
8.8.4 特征值转换
-
8.8.5 乘客生还预测
-
8.8.6 小结
-
-
-
第9章 支持向量机
-
9.1 SVM思想
-
9.2 SVM原理
-
9.2.1 超平面的表达
-
9.2.2 函数间隔
-
9.2.3 几何间隔
-
9.2.4 最大间隔分类器
-
9.2.5 函数间隔的性质
-
9.2.6 小结
-
-
9.3 SVM示例代码与线性不可分
-
9.3.1 线性SVM示例代码
-
9.3.2 从线性不可分谈起
-
9.3.3 将低维特征映射到高维空间
-
9.3.4 SVM中的核技巧
-
9.3.5 从高维到无穷维
-
9.3.6 常见核函数
-
9.3.7 小结
-
-
9.4 SVM中的软间隔
-
9.4.1 软间隔定义
-
9.4.2 最大化软间隔
-
9.4.3 SVM软间隔示例代码
-
9.4.4 小结
-
-
9.5 拉格朗日乘数法
-
9.5.1 条件极值
-
9.5.2 求解条件极值
-
9.5.3 小结
-
-
9.6 对偶性与KKT条件
-
9.6.1 广义拉格朗日乘数法
-
9.6.2 原始优化问题
-
9.6.3 对偶优化问题
-
9.6.4 KKT条件
-
9.6.5 计算示例
-
9.6.6 小结
-
-
9.7 SVM优化问题
-
9.7.1 构造硬间隔广义拉格朗日函数
-
9.7.2 硬间隔求解计算示例
-
9.7.3 构造软间隔广义拉格朗日函数
-
9.7.4 软间隔中的支持向量
-
9.7.5 小结
-
-
9.8 SMO算法
-
9.8.1 坐标上升算法
-
9.8.2 SMO算法思想
-
9.8.3 SMO算法原理
-
9.8.4 偏置b求解
-
9.8.5 SVM算法求解示例
-
9.8.6 小结
-
-
-
第10章 聚类
-
10.1 聚类算法的思想
-
10.2 k-means聚类算法
-
10.2.1 算法原理
-
10.2.2 k值选取
-
10.2.3 k-means聚类示例代码
-
10.2.4 小结
-
-
10.3 k-means算法求解
-
10.3.1 k-means算法目标函数
-
10.3.2 求解簇中心矩阵Z
-
10.3.3 求解簇分配矩阵U
-
10.3.4 小结
-
-
10.4 从零实现k-means聚类算法
-
10.4.1 随机初始化簇中心
-
10.4.2 簇分配矩阵实现
-
10.4.3 簇中心矩阵实现
-
10.4.4 聚类算法实现
-
10.4.5 小结
-
-
10.5 k-means++聚类算法
-
10.5.1 算法原理
-
10.5.2 计算示例
-
10.5.3 从零实现k-means++聚类算法
-
10.5.4 小结
-
-
10.6 聚类评估指标
-
10.6.1 聚类纯度
-
10.6.2 兰德系数与F值
-
10.6.3 调整兰德系数
-
10.6.4 聚类指标示例代码
-
10.6.5 小结
-
-
10.7 加权k-means聚类算法
-
10.7.1 引例
-
10.7.2 加权k-means聚类算法思想
-
10.7.3 加权k-means聚类算法原理
-
10.7.4 加权k-means聚类算法迭代公式
-
10.7.5 从零实现加权k-means聚类算法
-
10.7.6 参数求解
-
10.7.7 小结
-
-
- 图书推荐
評分與評論
請登入後再留言與評分