深度学习(day1)
深度学习(day1)
k近邻
使用:
-
对于未知类别属性数据集中的点:
- 计算已知类别数据集中的点与当前点的距离
- 按照距离依次排序
- 选取与当前距离最小的k个点
- 确定前k个点所在类别的出现概率
- 返回前k个点出现概率最高的类别最为当前点预测分类
- KNN算法本身简单有效,分类器不需要使用训练集进行训练,训练时间复杂度为0
- 但是KNN分类的计算复杂度和训练集中的数目成正比。
- 有多少个训练集(多少个点)都有与之进行比较
计算
-
计算测试图与训练图每一个像素点差值,然后对差值求和
- 需要计算测试图和所有训练图的差值,然后求最近最小的几个点(k值)
-
-
交叉验证集(validation)
- 由于testdata很重要,是用来确定最终训练的结果
- 所以引出了validation
- validation其实就是随机选出一部分训练集进行做训练时的验证测试
- 例如 开始训练1234 测试5
- 开始训练1354 测试2
K近邻问题:
- 当两张图片背景相似时,容易造成误判,造成结果不准确。
线性分类
-
-
-
-
先找出决策边界,通过w找到倾斜度,再通过b找到偏置值。就可以找到划分的区域