Python快速实战机器学习之数据预处理

前言

机器学习是如今人工智能时代背景下一个重要的领域,它应用广泛,如推荐系统,文本分析,图像识别,语言翻译等等。要想学通这个大的领域不是一件容易的事情,这个“Python快速实战机器学习”系列,用Python代码实践机器学习里面的算法,旨在理论和实践同时进行,快速掌握知识。


Python快速实战机器学习之数据预处理


本文概要

1、学会用pandas导入数据;

2、学会用matplotlib可视化数据;

3、学会用sklearn给标签编码。

4、学会用sklearn划分数据集。

5、学会用sklearn进行特征缩放。

导入数据

<code>import pandas as pd/<code>
<code>df = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data',header=None)/<code>
<code>df.tail()/<code>

我们使用pandas读取数据,然后通过pandas中的tail方法输出最后五行数据,看一下Iris数据集格式:

Python快速实战机器学习之数据预处理


这是一个来自叫做“UCI Machine Learning Repository”数据集。UCI Machine Learning Repository:它是网络中最古老的数据集源之一,是寻找各种有趣数据集的第一选择。在这里,尽管数据集都是用户自行贡献的,但清洁程度仍然很高。此外,你可以直接从 UCI Machine Learning Repository 上下载数据,无需注册。

Python快速实战机器学习之数据预处理


这个数据集是关于鸢尾花分类的问题,一个150个数据,第一列是编号,第二列到第五列是鸢尾花的各种参数,也叫做“特征(features)”是我们判断鸢尾花属于哪种的依据。最后一列就是鸢尾花的种类。

数据可视化


<code>import numpy as np/<code>
<code>import matplotlib.pyplot as plt/<code>
<code>Y = df.iloc[0:100,4].values/<code>
<code>X = df.iloc[0:100,[0,2]].values/<code>
<code>plt.scatter(X[:50,0], X[:50,1], color='red', marker = 'o', label = 'setosa')/<code>
<code>plt.scatter(X[50:100,0], X[50:100,1], color='blue', marker = 'x', label = 'versicolor')/<code>
<code>plt.xlabel('petal length')/<code>
<code>plt.ylabel('sepal length')/<code>
<code>plt.legend(loc='upper left')/<code>
<code>plt.show()/<code>

我们抽取出前100条样本,这正好是Setosa(前五十个数据)和Versicolor(后五十个数据)对应的样本,我们将Versicolor对应的数据作为类别1,Setosa对应的作为-1。对于特征,我们抽取出sepal length和petal length两维度特征,然后用散点图对数据进行可视化:

Python快速实战机器学习之数据预处理


标签编码

<code>from sklearn.preprocessing import LabelEncoder/<code>
<code>labelencoder_Y = LabelEncoder()/<code>
<code>Y =  labelencoder_Y.fit_transform(Y)/<code>

我们使用sklearn中的preprocessing模块中LabelEncoder函数给鸢尾花的种类Y编码,因为在编码之前,Y存储的是鸢尾花的名字,也就是字符串变量。我们无法用字符串变量进行数值计算,因此我们需要把它变成0,1,2这种格式的数据。大家可以打印编码后的Y来查看编码的效果。


划分数据

<code>from sklearn.model_selection import train_test_split/<code>
<code>X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size = 0.2, random_state = 0)/<code>
<code>print (X_train.shape)/<code>
<code>print (X_test.shape)/<code>

我们使用sklearn中的切分数据集的模块,model_selection来完成训练集和测试集的划分。一般而言我们随机从整个数据集中找到80%的数据作为训练集,另外20%的数据作为测试集。一个更加严谨的办法是将整个数据集随机划分成五份,然后依次用其中的一份作为测试集,另外四份合并作为训练集,对算法运行五次,最后取五次的平均值作为最终的结果。这里我们只用一次,作为演示。大家可以看到我们打印了训练集和数据集的形状,的确按照八二分。


特征缩放

<code>from sklearn.preprocessing import StandardScaler/<code>
<code>sc_X = StandardScaler()/<code>
<code>X_train = sc_X.fit_transform(X_train)/<code>
<code>X_test = sc_X.fit_transform(X_test)/<code>

由于我们的特征不止一个维度,每个维度之间没有同一个刻度,会导致两个维度之间的数据差距特别大。可能一个维度的数据是0.1,0.2这种小于1的数字;而另一个维度是1000,2000这种非常大的数字。因此,我们需要给特征缩放,让他们都在同一个尺度,方便后面进行模型计算。


分享到:


相關文章: