玖叶教程网

前端编程开发入门

从一张图片来讲数据分析项目70%的过程

相信做过真实的数据分析项目的朋友,第一次看到这张图都会会心一笑

基本上一个数据项目可能80%的时间都会花费在数据的处理上.如果有一份处理好的数据放在你面前让你分析,那无疑是一件幸福的事情

言归正传,首先来谈谈需要花费掉70%的时间的数据预处理,我们应该要怎么做:

ETL方法有很多, 针对数据挖掘建模的方法, 可以分为以下几类:

1.缺失值处理, 可以删除,可以填充, 填充的话可以固定值填充, 比如用0填充, 或者均值,中位数,众数填充,

2.异常值处理, 异常值一般是要删掉的, 取值异常可以用分布来识别,直方图, 箱线图, 或者使用模型来识别, 或者明显违背常识的, 可以写表达式过滤, 还有重复数据也是异常值, 需要去掉

3.类型转换, 数据库里存的是字符, 但建模计算是要数值型, 这就要作类型转换了, 还比如日期的类型一般也要转换, 还有一些算法计算时都是用的整数, 所以一些标签要转换成整数标签

4.去量纲化, 为了避免特征取值数值的大小区别导致计算时权重分配错误, 一般可以使用min-max归一化, z-分数标准化来处理

5.离散化, 即将数值型特征标签化, 比如年龄转换成青年, 中年,老年这样的标签

6.去相关性, 可能2个字段所包含的信息是一致的, 只是取值不同而已, 所以要先做相关性分析, 完全相关的字段只留一个, 或者做主成分分析, 通过线性变换, 得到线性无关的字段组

7.降维, 主成分分析也是最常用的降维方法

从上面七个思路出发,我们可以有下面的数据清洗代码,供大家参考:

删除多列

在进行数据分析时,并非所有的列都有用,用df.drop可以方便地删除你指定的列。

def drop_multiple_col(col_names_list, df): 
 '''
 AIM -> Drop multiple columns based on their column names 
 INPUT -> List of column names, df
 OUTPUT -> updated df with dropped columns 
 ------
 '''
 df.drop(col_names_list, axis=1, inplace=True)
 return df

转换数据类型

当数据集变大时,需要转换数据类型来节省内存。

def change_dtypes(col_int, col_float, df): 
 '''
 AIM -> Changing dtypes to save memory
 INPUT -> List of column names (int, float), df
 OUTPUT -> updated df with smaller memory 
 ------
 '''
 df[col_int] = df[col_int].astype('int32')
 df[col_float] = df[col_float].astype('float32')

将分类变量转换为数值变量

一些机器学习模型要求变量采用数值格式。这需要先将分类变量转换为数值变量。同时,你也可以保留分类变量,以便进行数据可视化。

def convert_cat2num(df):
 # Convert categorical variable to numerical variable
 num_encode = {'col_1' : {'YES':1, 'NO':0},
 'col_2' : {'WON':1, 'LOSE':0, 'DRAW':0}} 
 df.replace(num_encode, inplace=True) 

检查缺失数据

如果你要检查每列缺失数据的数量,使用下列代码是最快的方法。可以让你更好地了解哪些列缺失的数据更多,从而确定怎么进行下一步的数据清洗和分析操作。

def check_missing_data(df):
 # check for any missing data in the df (display in descending order)
 return df.isnull().sum().sort_values(ascending=False)

删除列中的字符串

有时候,会有新的字符或者其他奇怪的符号出现在字符串列中,这可以使用df[‘col_1’].replace很简单地把它们处理掉。

def remove_col_str(df):
 # remove a portion of string in a dataframe column - col_1
 df['col_1'].replace('\n', '', regex=True, inplace=True)
 # remove all the characters after (including ) for column - col_1
 df['col_1'].replace(' .*', '', regex=True, inplace=True)

删除列中的空格

数据混乱的时候,什么情况都有可能发生。字符串开头经常会有一些空格。在删除列中字符串开头的空格时,下面的代码非常有用。

def remove_col_white_space(df):
 # remove white space at the beginning of string 
 df[col] = df[col].str.lstrip()

用字符串连接两列(带条件)

当你想要有条件地用字符串将两列连接在一起时,这段代码很有帮助。比如,你可以在第一列结尾处设定某些字母,然后用它们与第二列连接在一起。

根据需要,结尾处的字母也可以在连接完成后删除。

def concat_col_str_condition(df):
 # concat 2 columns with strings if the last 3 letters of the first column are 'pil'
 mask = df['col_1'].str.endswith('pil', na=False)
 col_new = df[mask]['col_1'] + df[mask]['col_2']
 col_new.replace('pil', ' ', regex=True, inplace=True) # replace the 'pil' with emtpy space

转换时间戳(从字符串到日期时间格式)

在处理时间序列数据时,我们很可能会遇到字符串格式的时间戳列。

这意味着要将字符串格式转换为日期时间格式(或者其他根据我们的需求指定的格式) ,以便对数据进行有意义的分析。

def convert_str_datetime(df): 
 '''
 AIM -> Convert datetime(String) to datetime(format we want)
 INPUT -> df
 OUTPUT -> updated df with new datetime format 
 ------
 '''
 df.insert(loc=2, column='timestamp', value=pd.to_datetime(df.transdate, format='%Y-%m-%d %H:%M:%S.%f')) 

不同的业务场景下,我们会选取不同的方式来进行数据的预处理,至于具体使用哪几种,那就要看大家能不能灵活运用啦!

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言