机器学习(3) ---- 回归问题 聚类问题

机器学习(3) —- 回归问题 聚类问题


个人博客,欢迎参观:http://www.ioqian.top/


参考博客: https://www.jiqizhixin.com/articles/2017-05-20-3

1.回归方法


  回归方法是一种对数值型连续随机变量进行预测和建模的监督学习算法。使用案例一般包括房价预测、股票走势或测试成绩等连续变化的案例。

机器学习(3) ---- 回归问题 聚类问题

1.1 Logic Regression


  当预测目标是概率这样的,值域需要满足大于等于0,小于等于1的,这个时候单纯的线性模型是做不到的,因为在定义域不在某个范围之内时,值域也超出了规定区间。

机器学习(3) ---- 回归问题 聚类问题

所以此时需要这样的形状的模型会比较好

机器学习(3) ---- 回归问题 聚类问题

那么怎么得到这样的模型呢?
  这个模型需要满足两个条件 大于等于0,小于等于1
  大于等于0 的模型可以选择 绝对值,平方值,这里用 指数函数,一定大于0
  小于等于1 用除法,分子是自己,分母是自身加上1,那一定是小于1的了

机器学习(3) ---- 回归问题 聚类问题

再做一下变形,就得到了 logistic regression 模型

机器学习(3) ---- 回归问题 聚类问题

通过源数据计算可以得到相应的系数了

机器学习(3) ---- 回归问题 聚类问题

最后得到 logistic 的图形

机器学习(3) ---- 回归问题 聚类问题

2.聚类问题


  聚类是一种无监督学习任务,该算法基于数据的内部结构寻找观察样本的自然族群(即集群)。使用案例包括细分客户、新闻聚类、文章推荐等。
因为聚类是一种无监督学习(即数据没有标注),并且通常使用数据可视化评价结果。如果存在「正确的回答」(即在训练集中存在预标注的集群),那么分类算法可能更加合适。

2.1 K均值聚类(K-means)


  k-means算法是聚类分析中使用最广泛的算法之一。它把n个对象根据他们的属性分为k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。

机器学习(3) ---- 回归问题 聚类问题
如图所示,数据样本用圆点表示,每个簇的中心点用叉叉表示。(a)刚开始时是原始数据,杂乱无章,没有label,看起来都一样,都是绿色的。(b)假设数据集可以分为两类,令K=2,随机在坐标上选两个点,作为两个类的中心点。(c-f)演示了聚类的两种迭代。先划分,把每个数据样本划分到最近的中心点那一簇;划分完后,更新每个簇的中心,即把该簇的所有数据点的坐标加起来去平均值。这样不断进行”划分—更新—划分—更新”,直到每个簇的中心不在移动为止。

  • 优点:K 均值聚类是最流行的聚类算法,因为该算法足够快速、简单,并且如果你的预处理数据和特征工程十分有效,那么该聚类算法将拥有令人惊叹的灵活性
  • 该算法需要指定集群的数量,而 K 值的选择通常都不是那么容易确定的。另外,如果训练数据中的真实集群并不是类球状的,那么 K 均值聚类会得出一些比较差的集群。

2.2 层次聚类(Hierarchical / Agglomerative)


  层次聚类,是一种很直观的算法。顾名思义就是要一层一层地进行聚类,可以从下而上地把小的cluster合并聚集,也可以从上而下地将大的cluster进行分割。似乎一般用得比较多的是从下而上地聚集
所谓从下而上地合并cluster,具体而言,就是每次找到距离最短的两个cluster,然后进行合并成一个大的cluster,直到全部合并为一个cluster。整个过程就是建立一个树结构,类似于下图
机器学习(3) ---- 回归问题 聚类问题

层次聚类最大的优点,就是它一次性地得到了整个聚类的过程,只要得到了上面那样的聚类树,想要分多少个cluster都可以直接根据树结构来得到结果,改变cluster数目不需要再次计算数据点的归属。层次聚类的缺点是计算量比较大,因为要每次都要计算多个cluster内所有数据点的两两距离。另外,由于层次聚类使用的是贪心算法,得到的显然只是局域最优,不一定就是全局最优,这可以通过加入随机效应解决


决策树,svm,knn,k-means源码下载(python实现,基本上都使用第三方库)
https://gitee.com/qianlilo/Machine-Learning-simple-arithmetic#machine-learning-simple-arithmetic