相信做过真实的数据分析项目的朋友,第一次看到这张图都会会心一笑
基本上一个数据项目可能80%的时间都会花费在数据的处理上.如果有一份处理好的数据放在你面前让你分析,那无疑是一件幸福的事情
言归正传,首先来谈谈需要花费掉70%的时间的数据预处理,我们应该要怎么做:
ETL方法有很多, 针对数据挖掘建模的方法, 可以分为以下几类:
1.缺失值处理, 可以删除,可以填充, 填充的话可以固定值填充, 比如用0填充, 或者均值,中位数,众数填充,
2.异常值处理, 异常值一般是要删掉的, 取值异常可以用分布来识别,直方图, 箱线图, 或者使用模型来识别, 或者明显违背常识的, 可以写表达式过滤, 还有重复数据也是异常值, 需要去掉
3.类型转换, 数据库里存的是字符, 但建模计算是要数值型, 这就要作类型转换了, 还比如日期的类型一般也要转换, 还有一些算法计算时都是用的整数, 所以一些标签要转换成整数标签
4.去量纲化, 为了避免特征取值数值的大小区别导致计算时权重分配错误, 一般可以使用min-max归一化, z-分数标准化来处理
5.离散化, 即将数值型特征标签化, 比如年龄转换成青年, 中年,老年这样的标签
6.去相关性, 可能2个字段所包含的信息是一致的, 只是取值不同而已, 所以要先做相关性分析, 完全相关的字段只留一个, 或者做主成分分析, 通过线性变换, 得到线性无关的字段组
7.降维, 主成分分析也是最常用的降维方法
从上面七个思路出发,我们可以有下面的数据清洗代码,供大家参考:
删除多列
在进行数据分析时,并非所有的列都有用,用df.drop可以方便地删除你指定的列。
def drop_multiple_col(col_names_list, df): ''' AIM -> Drop multiple columns based on their column names INPUT -> List of column names, df OUTPUT -> updated df with dropped columns ------ ''' df.drop(col_names_list, axis=1, inplace=True) return df
转换数据类型
当数据集变大时,需要转换数据类型来节省内存。
def change_dtypes(col_int, col_float, df): ''' AIM -> Changing dtypes to save memory INPUT -> List of column names (int, float), df OUTPUT -> updated df with smaller memory ------ ''' df[col_int] = df[col_int].astype('int32') df[col_float] = df[col_float].astype('float32')
将分类变量转换为数值变量
一些机器学习模型要求变量采用数值格式。这需要先将分类变量转换为数值变量。同时,你也可以保留分类变量,以便进行数据可视化。
def convert_cat2num(df): # Convert categorical variable to numerical variable num_encode = {'col_1' : {'YES':1, 'NO':0}, 'col_2' : {'WON':1, 'LOSE':0, 'DRAW':0}} df.replace(num_encode, inplace=True)
检查缺失数据
如果你要检查每列缺失数据的数量,使用下列代码是最快的方法。可以让你更好地了解哪些列缺失的数据更多,从而确定怎么进行下一步的数据清洗和分析操作。
def check_missing_data(df): # check for any missing data in the df (display in descending order) return df.isnull().sum().sort_values(ascending=False)
删除列中的字符串
有时候,会有新的字符或者其他奇怪的符号出现在字符串列中,这可以使用df[‘col_1’].replace很简单地把它们处理掉。
def remove_col_str(df): # remove a portion of string in a dataframe column - col_1 df['col_1'].replace('\n', '', regex=True, inplace=True) # remove all the characters after (including ) for column - col_1 df['col_1'].replace(' .*', '', regex=True, inplace=True)
删除列中的空格
数据混乱的时候,什么情况都有可能发生。字符串开头经常会有一些空格。在删除列中字符串开头的空格时,下面的代码非常有用。
def remove_col_white_space(df): # remove white space at the beginning of string df[col] = df[col].str.lstrip()
用字符串连接两列(带条件)
当你想要有条件地用字符串将两列连接在一起时,这段代码很有帮助。比如,你可以在第一列结尾处设定某些字母,然后用它们与第二列连接在一起。
根据需要,结尾处的字母也可以在连接完成后删除。
def concat_col_str_condition(df): # concat 2 columns with strings if the last 3 letters of the first column are 'pil' mask = df['col_1'].str.endswith('pil', na=False) col_new = df[mask]['col_1'] + df[mask]['col_2'] col_new.replace('pil', ' ', regex=True, inplace=True) # replace the 'pil' with emtpy space
转换时间戳(从字符串到日期时间格式)
在处理时间序列数据时,我们很可能会遇到字符串格式的时间戳列。
这意味着要将字符串格式转换为日期时间格式(或者其他根据我们的需求指定的格式) ,以便对数据进行有意义的分析。
def convert_str_datetime(df): ''' AIM -> Convert datetime(String) to datetime(format we want) INPUT -> df OUTPUT -> updated df with new datetime format ------ ''' df.insert(loc=2, column='timestamp', value=pd.to_datetime(df.transdate, format='%Y-%m-%d %H:%M:%S.%f'))
不同的业务场景下,我们会选取不同的方式来进行数据的预处理,至于具体使用哪几种,那就要看大家能不能灵活运用啦!