sklearn Classifier 基础例子
前沿:
学习了机器学习中的sklearn, 感觉颇有些简单,接下来就让我们看一个例子,来分析一下它的KNeighborsClassifier 例子,是如何工作的。
代码如下:
import numpy as np
from sklearn import datasets #这里导入sklearn的数据库
from sklearn.cross_validation import train_test_split #这里用来分离数据,分成训练数据和测试数据
from sklearn.neighbors import KNeighborsClassifier #这里导入knn的方法
iris = datasets.load_iris() #这里我们导入数据, iris是一种花,有几种属性,通过属性来分类
print(iris_X[:2]) #这里我们简单查看下花的几种属性数值
iris_X = iris.data #这里获取iris属性的值
iris_Y = iris.target #这里获取每种花的类型,就是iris_X对应的结果
#这里我们进行数据分离,注意左边的格式, test_size = 0.3 是指测试数据占30% 训练数据则为70%
X_train , X_test,Y_train,Y_test = train_test_split(iris_X,iris_Y,test_size = 0.3)
knn = KNeighborsClassifier() # 这里引入训练方式
knn.fit(X_train,Y_train) #这里将数据放入KNeighborsClassifier() 训练器
prediction_Y = knn.predict(X_test) #这里 进行预测数据
print(prediction_Y) #这里打印预测值
print(Y_test) #这里打印相应的实际值 我们可以进行简单的对比
下面为输出结果:
可以看出我们的预测结果准确率还是蛮高的,对于sklearn 还有许多其他的方法,这里介绍了其中一种!
欢迎大家学习!!!