0人評分過此書

跟我一起学机器学习

出版日期
2022/05/01
閱讀格式
EPUB
書籍分類
學科分類
ISBN
9787302592846

本館館藏

借閱規則
當前可使用人數 100
借閱天數 14
線上看 0
借閱中 0
選擇分享方式

推薦本館採購書籍

您可以將喜歡的電子書推薦給圖書館,圖書館會參考讀者意見進行採購

讀者資料
圖書館 元智大學
* 姓名
* 身分
系所
* E-mail
※ 我們會寄送一份副本至您填寫的Email中
電話
※ 電話格式為 區碼+電話號碼(ex. 0229235151)/ 手機格式為 0900111111
* 請輸入驗證碼

本書收錄於此書展...

本書系統地闡述機器學習中常見的幾類模型,包括模型的思想、原理及實現細節等。同時,本書還結合了當前熱門的機器學習框架Sklearn,對書中所涉及的模型進行用法上詳細講解。全書共10章,第1章介紹機器學習開發環境的配置;第2章講解線性回歸模型的基本原理、回歸模型中常見的幾種評價指標,以及用於有監督模型訓練的梯度下降算法;第3章介紹邏輯回歸模型的基本原理和分類模型中常見的幾種評價指標;第4章介紹模型的改善與泛化,包括特徵標準化、如何避免過擬合及如何進行模型選擇等;第5章講解K最近鄰分類算法的基本原理及kd樹的構造與搜索;第6章介紹樸素貝葉斯算法的基本原理;第7章介紹幾種常見的文本特徵提取方法,包括詞袋模型和TF-IDF等;第8章講解決策樹的基本原理,包括幾種經典的決策樹生成算法和集成模型;第9章介紹支持向量機的基本原理與求解過程;第10章介紹幾種經典的聚類算法及相應的評價指標計算方法。 本書包含大量的代碼示例及實際案例介紹,不僅可以作為計算機相關專業學生入門機器學習的讀物,同時也適用於非計算機專業及培訓機構的參考學習書籍。
  • 封面页
  • 书名页
  • 版权页
  • 作者简介
  • 内容简介
  • 前言PREFACE
  • 目录
  • 第1章 环境配置
    • 1.1 安装Conda
      • 1.1.1 Windows环境
      • 1.1.2 Linux环境
    • 1.2 替换源
    • 1.3 Conda环境管理
      • 1.3.1 虚拟环境安装
      • 1.3.2 虚拟环境使用
    • 1.4 PyCharm安装与配置
    • 1.5 小结
  • 第2章 线性回归
    • 2.1 模型的建立与求解
      • 2.1.1 理解线性回归模型
      • 2.1.2 建立线性回归模型
      • 2.1.3 求解线性回归模型
      • 2.1.4 sklearn简介
      • 2.1.5 安装sklearn及其他库
      • 2.1.6 线性回归示例代码
      • 2.1.7 小结
    • 2.2 多变量线性回归
      • 2.2.1 理解多变量
      • 2.2.2 多变量线性回归建模
      • 2.2.3 多变量回归示例代码
    • 2.3 多项式回归
      • 2.3.1 理解多项式
      • 2.3.2 多项式回归建模
      • 2.3.3 多项式回归示例代码
      • 2.3.4 小结
    • 2.4 回归模型评估
      • 2.4.1 常见回归评估指标
      • 2.4.2 回归指标示例代码
      • 2.4.3 小结
    • 2.5 梯度下降
      • 2.5.1 方向导数与梯度
      • 2.5.2 梯度下降算法
      • 2.5.3 小结
    • 2.6 正态分布
      • 2.6.1 一个问题的出现
      • 2.6.2 正态分布
    • 2.7 目标函数推导
      • 2.7.1 目标函数
      • 2.7.2 求解梯度
      • 2.7.3 矢量化计算
      • 2.7.4 从零实现线性回归
      • 2.7.5 小结
  • 第3章 逻辑回归
    • 3.1 模型的建立与求解
      • 3.1.1 理解逻辑回归模型
      • 3.1.2 建立逻辑回归模型
      • 3.1.3 求解逻辑回归模型
      • 3.1.4 逻辑回归示例代码
      • 3.1.5 小结
    • 3.2 多变量与多分类
      • 3.2.1 多变量逻辑回归
      • 3.2.2 多分类逻辑回归
      • 3.2.3 多分类示例代码
      • 3.2.4 小结
    • 3.3 常见的分类评估指标
      • 3.3.1 二分类场景
      • 3.3.2 二分类指标示例代码
      • 3.3.3 多分类场景
      • 3.3.4 多分类指标示例代码
      • 3.3.5 小结
    • 3.4 目标函数推导
      • 3.4.1 映射函数
      • 3.4.2 概率表示
      • 3.4.3 极大似然估计
      • 3.4.4 求解梯度
      • 3.4.5 从零实现二分类逻辑回归
      • 3.4.6 从零实现多分类逻辑回归
      • 3.4.7 小结
  • 第4章 模型的改善与泛化
    • 4.1 基本概念
    • 4.2 特征标准化
      • 4.2.1 等高线
      • 4.2.2 梯度与等高线
      • 4.2.3 标准化方法
      • 4.2.4 特征组合与映射
      • 4.2.5 小结
    • 4.3 过拟合
      • 4.3.1 模型拟合
      • 4.3.2 过拟合与欠拟合
      • 4.3.3 解决欠拟合与过拟合问题
      • 4.3.4 小结
    • 4.4 正则化
      • 4.4.1 测试集导致糟糕的泛化误差
      • 4.4.2 训练集导致糟糕的泛化误差
      • 4.4.3 正则化中的参数更新
      • 4.4.4 正则化示例代码
      • 4.4.5 小结
    • 4.5 偏差、方差与交叉验证
      • 4.5.1 偏差与方差定义
      • 4.5.2 模型的偏差与方差
      • 4.5.3 超参数选择
      • 4.5.4 模型选择
      • 4.5.5 小结
    • 4.6 实例分析手写体识别
      • 4.6.1 数据预处理
      • 4.6.2 模型选择
      • 4.6.3 模型测试
      • 4.6.4 小结
  • 第5章 K近邻
    • 5.1 K近邻思想
    • 5.2 K近邻原理
      • 5.2.1 算法原理
      • 5.2.2 K值选择
      • 5.2.3 距离度量
    • 5.3 sklearn接口与示例代码
      • 5.3.1 sklearn接口介绍
      • 5.3.2 K近邻示例代码
      • 5.3.3 小结
    • 5.4 kd树
      • 5.4.1 构造kd树
      • 5.4.2 最近邻kd树搜索
      • 5.4.3 最近邻搜索示例
      • 5.4.4 K近邻kd树搜索
      • 5.4.5 K近邻搜索示例
      • 5.4.6 小结
  • 第6章 朴素贝叶斯
    • 6.1 朴素贝叶斯算法
      • 6.1.1 概念介绍
      • 6.1.2 理解朴素贝叶斯
      • 6.1.3 计算示例
      • 6.1.4 求解步骤
      • 6.1.5 小结
    • 6.2 贝叶斯估计
      • 6.2.1 平滑处理
      • 6.2.2 计算示例
      • 6.2.3 小结
  • 第7章 文本特征提取与模型复用
    • 7.1 词袋模型
      • 7.1.1 理解词袋模型
      • 7.1.2 文本分词
      • 7.1.3 构造词表
      • 7.1.4 文本向量化
      • 7.1.5 考虑词频的文本向量化
      • 7.1.6 小结
    • 7.2 基于贝叶斯算法的垃圾邮件分类
      • 7.2.1 载入原始文本
      • 7.2.2 制作数据集
      • 7.2.3 训练模型
      • 7.2.4 复用模型
      • 7.2.5 小结
    • 7.3 考虑权重的词袋模型
      • 7.3.1 理解TF-IDF
      • 7.3.2 TF-IDF计算原理
      • 7.3.3 TF-IDF计算示例
      • 7.3.4 TF-IDF示例代码
      • 7.3.5 小结
    • 7.4 词云图
      • 7.4.1 生成词云图
      • 7.4.2 自定义样式
      • 7.4.3 小结
  • 第8章 决策树与集成学习
    • 8.1 决策树的基本思想
      • 8.1.1 冠军球队
      • 8.1.2 信息的度量
      • 8.1.3 小结
    • 8.2 决策树的生成之ID3与C4.5
      • 8.2.1 基本概念与定义
      • 8.2.2 计算示例
      • 8.2.3 ID3生成算法
      • 8.2.4 C4.5生成算法
      • 8.2.5 特征划分
      • 8.2.6 小结
    • 8.3 决策树生成与可视化
      • 8.3.1 ID3算法示例代码
      • 8.3.2 决策树可视化
      • 8.3.3 小结
    • 8.4 决策树剪枝
      • 8.4.1 剪枝思想
      • 8.4.2 剪枝步骤
      • 8.4.3 剪枝示例
      • 8.4.4 小结
    • 8.5 CART生成与剪枝算法
      • 8.5.1 CART算法
      • 8.5.2 分类树生成算法
      • 8.5.3 分类树生成示例
      • 8.5.4 分类树剪枝步骤
      • 8.5.5 分类树剪枝示例
      • 8.5.6 小结
    • 8.6 集成学习
      • 8.6.1 集成学习思想
      • 8.6.2 集成学习种类
      • 8.6.3 Bagging集成学习
      • 8.6.4 Boosting集成学习
      • 8.6.5 Stacking集成学习
      • 8.6.6 小结
    • 8.7 随机森林
      • 8.7.1 随机森林原理
      • 8.7.2 随机森林示例代码
      • 8.7.3 特征重要性评估
      • 8.7.4 小结
    • 8.8 泰坦尼克号生还预测
      • 8.8.1 读取数据集
      • 8.8.2 特征选择
      • 8.8.3 缺失值填充
      • 8.8.4 特征值转换
      • 8.8.5 乘客生还预测
      • 8.8.6 小结
  • 第9章 支持向量机
    • 9.1 SVM思想
    • 9.2 SVM原理
      • 9.2.1 超平面的表达
      • 9.2.2 函数间隔
      • 9.2.3 几何间隔
      • 9.2.4 最大间隔分类器
      • 9.2.5 函数间隔的性质
      • 9.2.6 小结
    • 9.3 SVM示例代码与线性不可分
      • 9.3.1 线性SVM示例代码
      • 9.3.2 从线性不可分谈起
      • 9.3.3 将低维特征映射到高维空间
      • 9.3.4 SVM中的核技巧
      • 9.3.5 从高维到无穷维
      • 9.3.6 常见核函数
      • 9.3.7 小结
    • 9.4 SVM中的软间隔
      • 9.4.1 软间隔定义
      • 9.4.2 最大化软间隔
      • 9.4.3 SVM软间隔示例代码
      • 9.4.4 小结
    • 9.5 拉格朗日乘数法
      • 9.5.1 条件极值
      • 9.5.2 求解条件极值
      • 9.5.3 小结
    • 9.6 对偶性与KKT条件
      • 9.6.1 广义拉格朗日乘数法
      • 9.6.2 原始优化问题
      • 9.6.3 对偶优化问题
      • 9.6.4 KKT条件
      • 9.6.5 计算示例
      • 9.6.6 小结
    • 9.7 SVM优化问题
      • 9.7.1 构造硬间隔广义拉格朗日函数
      • 9.7.2 硬间隔求解计算示例
      • 9.7.3 构造软间隔广义拉格朗日函数
      • 9.7.4 软间隔中的支持向量
      • 9.7.5 小结
    • 9.8 SMO算法
      • 9.8.1 坐标上升算法
      • 9.8.2 SMO算法思想
      • 9.8.3 SMO算法原理
      • 9.8.4 偏置b求解
      • 9.8.5 SVM算法求解示例
      • 9.8.6 小结
  • 第10章 聚类
    • 10.1 聚类算法的思想
    • 10.2 k-means聚类算法
      • 10.2.1 算法原理
      • 10.2.2 k值选取
      • 10.2.3 k-means聚类示例代码
      • 10.2.4 小结
    • 10.3 k-means算法求解
      • 10.3.1 k-means算法目标函数
      • 10.3.2 求解簇中心矩阵Z
      • 10.3.3 求解簇分配矩阵U
      • 10.3.4 小结
    • 10.4 从零实现k-means聚类算法
      • 10.4.1 随机初始化簇中心
      • 10.4.2 簇分配矩阵实现
      • 10.4.3 簇中心矩阵实现
      • 10.4.4 聚类算法实现
      • 10.4.5 小结
    • 10.5 k-means++聚类算法
      • 10.5.1 算法原理
      • 10.5.2 计算示例
      • 10.5.3 从零实现k-means++聚类算法
      • 10.5.4 小结
    • 10.6 聚类评估指标
      • 10.6.1 聚类纯度
      • 10.6.2 兰德系数与F值
      • 10.6.3 调整兰德系数
      • 10.6.4 聚类指标示例代码
      • 10.6.5 小结
    • 10.7 加权k-means聚类算法
      • 10.7.1 引例
      • 10.7.2 加权k-means聚类算法思想
      • 10.7.3 加权k-means聚类算法原理
      • 10.7.4 加权k-means聚类算法迭代公式
      • 10.7.5 从零实现加权k-means聚类算法
      • 10.7.6 参数求解
      • 10.7.7 小结
  • 图书推荐
  • 出版地 中國大陸
  • 語言 簡體中文

評分與評論

請登入後再留言與評分
幫助
您好,請問需要甚麼幫助呢?
使用指南

客服專線:0800-000-747

服務時間:週一至週五 AM 09:00~PM 06:00

loading