人工智能基础课堂纪要4

1.K-近邻算法

1.1 K-近邻算法简介

1.定义:

就是通过你的"邻居"来判断你属于哪个类别

2.如何计算你到你的"邻居"的距离

一般时候,都是使用欧氏距离

1.2 k近邻算法api初步使用

1.sklearn

优势:

1.文档多,且规范,

2.包含的算法多

3.实现起来容易

2.sklearn中包含内容

分类、聚类、回归

特征工程

模型选择、调优

3.knn中的api

sklearn.neighbors.KNeighborsClassifier(n_neighbors=5)

参数:

n_neighbors -- 选定参考几个邻居

4.机器学习中实现的过程

1.实例化一个估计器

2.使用fit方法进行训练

1.3 距离度量[###]

1.欧式距离

通过距离平方值进行计算

2.曼哈顿距离(Manhattan Distance):

通过举例的绝对值进行计算

3.切比雪夫距离 (Chebyshev Distance):

维度的最大值进行计算

4.闵可夫斯基距离(Minkowski Distance):

当p=1时,就是曼哈顿距离;

当p=2时,就是欧氏距离;

当p→∞时,就是切比雪夫距离。

小结:前面四个距离公式都是把单位相同看待了,所以计算过程不是很科学

5.标准化欧氏距离 (Standardized EuclideanDistance):

在计算过程中添加了标准差,对量刚数据进行处理

6.余弦距离(Cosine Distance)

通过cos思想完成

7.汉明距离(Hamming Distance)【了解】:

一个字符串到另一个字符串需要变换几个字母,进行统计

8.杰卡德距离(Jaccard Distance)【了解】:

通过交并集进行统计

9.马氏距离(Mahalanobis Distance)【了解】

通过样本分布进行计算

1.4 k值选择[***]

K值过小:

容易受到异常点的影响

过拟合

k值过大:

受到样本均衡的问题

欠拟合

拓展:

近似误差 -- 过拟合 --在训练集上表现好,测试集表现不好

估计误差好才是真的好!

1.5 kd树[###]

1.构建树

2.最近领域搜索

案例:

一,构建树

第一次:

x轴-- 2,5,9,4,8,7 --> 2,4,5,7,8,9

y轴-- 3,4,6,7,1,2 --> 1,2,3,4,6,7

首先选择x轴, 找中间点,发现是(7,2)

第二次:

左面: (2,3), [4,7], [5,4] --> 3,4,7

右面: (8,1), (9,6) --> 1,6

从y轴开始选择, 左边选择点是(5,4),右边选择点(9,6)

第三次:

从x轴开始选择

二,搜索

1.在本域内,没有进行跨域搜索

2.要跨到其他域搜索

1.6 案例:鸢尾花种类预测--数据集介绍[****]

1.获取数据集

sklearn.datasets.

小数据:

sklearn.datasets.load_*

注意:

该数据从本地获取

大数据集:

sklearn.datasets.fetch_*

注意:

该数据从网上下载

subset--表示获取到的数据集类型

2.数据集返回值介绍

返回值类型是bunch--是一个字典类型

返回值的属性:

data:特征数据数组

target:标签(目标)数组

DESCR:数据描述

feature_names:特征名,

target_names:标签(目标值)名

3.数据可视化

import seaborn

seaborn.lmplot()

参数

x,y -- 具体x轴,y轴数据的索引值

data -- 具体数据

hue -- 目标值是什么

fit_reg -- 是否进行线性拟合

4.数据集的划分

api:

sklearn.model_selection.train_test_split(arrays, *options)

参数:

x -- 特征值

y -- 目标值

test_size -- 测试集大小

random_state -- 随机数种子.若两次的随机数种子相等,则其顺序会相一致

返回值:

x_train, x_test, y_train, y_test

1.7 特征工程-特征预处理[****]

1.定义

通过一些转换函数将特征数据转换成更加适合算法模型的特征数据过程

2.包含内容:

归一化

标准化

3.api

sklearn.preprocessing

4.归一化

定义:

对原始数据进行变换把数据映射到(默认为[0,1])之间

api:

sklearn.preprocessing.MinMaxScaler (feature_range=(0,1)… )

参数:

feature_range -- 自己指定范围,默认0-1

总结:

鲁棒性比较差(容易受到异常点的影响)

只适合传统精确小数据场景(以后不会用你了)

5.标准化

定义:

对原始数据进行变换把数据变换到均值为0,标准差为1范围内

api:

sklearn.preprocessing.StandardScaler( )

总结:

异常值对我影响小

适合现代嘈杂大数据场景(以后就是用你了)

1.8 案例:鸢尾花种类预测—流程实现[***]

1.api

sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto')

algorithm -- 选择什么样的算法进行计算

auto,ball_tree, kd_tree, brute

2.案例流程

1.获取数据集

2.数据基本处理

3.特征工程

4.机器学习(模型训练)

5.模型评估

(0)

相关推荐

  • 算法模型自动超参数优化方法

    什么是超参数? 学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,我们称为参数(Parameter).还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,我们称为超参数(Hyper ...

  • Sklearn:sklearn.preprocessing之StandardScaler 的transform()函数和fit_transform()函数清晰讲解及其案例应用

    Sklearn:sklearn.preprocessing之StandardScaler 的transform()函数和fit_transform()函数清晰讲解及其案例应用 sklearn.prep ...

  • KNN算法原理及代码实现

    在本文中,我们将讨论一种广泛使用的分类技术,称为K最近邻(KNN).我们的重点主要集中在算法如何工作以及输入参数如何影响预测结果. 内容包括: 何时使用KNN算法? KNN算法原理 如何选择K值 KN ...

  • 【机器学习】漫谈特征缩放

    作者: 时晴 说起'炼丹'最耗时的几件事,首先就能想到的就是数据清洗,特征工程,还有调参.特征工程真的是老生常谈了,但是特征工程又是最重要的一环,这一步做不好怎么调参也没用.在特征工程中,做特征缩放是 ...

  • KNN:最容易理解的分类算法

    KNN是一种分类算法,其全称为k-nearest neighbors, 所以也叫作K近邻算法.该算法是一种监督学习的算法,具体可以分为以下几个步骤 1. 第一步,载入数据,因为是监督学习算法,所以要求 ...

  • 实现特征缩放和特征归一化的方法有哪些?(附代码)

    本文将为你介绍实现特征缩放和特征归一化的方法. 1. 特征缩放 在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能提高算法的收敛速度. 1.1 什么是特征缩 ...

  • Python 中解释 XGBoost 模型的学习曲线

    XGBoost是梯度提升集成算法的强大而有效的实现.配置XGBoost模型的超参数可能具有挑战性,这通常会导致使用既费时又计算量大的大型网格搜索实验.配置XGBoost模型的另一种方法是在训练过程中算 ...

  • sklearn机器学习笔记:数据预处理与特征工程

    这是一篇纯学习笔记,感觉回到了开发,难道要成为调包侠了吗? 数据挖掘5大流程 获取数据 数据预处理 数据预处理是从数据中检测,纠正或删除损坏,不准确或不适用于模型的记录的过程可能面对的问题有:数据类型 ...

  • 21句话入门机器学习

    这是一篇关于机器学习工具包Scikit-learn的入门级读物.对于程序员来说,机器学习的重要性毋庸赘言.也许你还没有开始,也许曾经失败过,都没有关系,你将在这里找到或者重拾自信.只要粗通Python ...

  • 人工智能基础课堂纪要1

    人工智能基础课堂纪要1

  • 人工智能基础课堂纪要2

    3.3 常见图形绘制[*] 1.折线图 -- plt.plot 变化 2.散点图 -- plt.scatter() 分布规律 3.柱状图 -- plt.bar 统计.对比 4.直方图 -- plt.h ...

  • 人工智能基础课堂纪要3

    5.2 基本数据操作 1.索引操作 1.直接 -- 先列后行 2.loc -- 先行后列,索引值 3.iloc -- 先行后列,索引值的下标 4.ix -- 先行后列,混合索引 2.赋值操作 1.对象 ...

  • 人工智能基础课堂纪要5

    1.9 k近邻算法总结[**] 优点: 1.简单有效 2.重新训练代价低 3.适合类域交叉样本 4.适合大样本自动分类 缺点: 1.惰性学习 2.类别评分不是规格化 3.输出可解释性不强 4.对不均衡 ...

  • 人工智能基础课堂纪要6

    2.6 api介绍[**] 1.梯度下降法 sklearn.linear_model.SGDRegressor(loss="squared_loss", fit_intercept ...

  • 人工智能基础课堂纪要7

    4.2 决策树分类原理[*****] 1.信息增益 信息增益 = entroy(前) - entroy(后) 注意:信息增益越大,我们优先选择这个属性进行计算 信息增益优先选择属性总类别比较多的进行划 ...

  • 人工智能基础课堂纪要8

    5.3 Boosting[**] 1.boosting集成原理 随着学习的积累从弱到强 2.实现过程 1.初始化训练数据权重,初始权重是相等的 2.通过这个学习器,计算错误率 3.计算这个学习期的投票 ...

  • 【基础课堂】仓库选址流程图 仓库选址方法(带公式)

    【基础课堂】仓库选址流程图 仓库选址方法(带公式)

  • 手绘基础课堂——景观树的画法

    景观树的画法解析 END