SparkSQL-对数据缺失和异常值进行处理
迪丽瓦拉
2025-05-30 05:46:02
0

缺失数据

准备数据

 处理方式

丢弃规则

填充规则

异常数据

 方法1:丢弃处理

 方法2:替换处理


缺失数据

准备数据

 处理方式

1、丢弃/过滤:DataFrame.na.drop()

2、填充:DataFrame.na.fill()

3、替换:DataFrame.na.replace()

丢弃规则

1、any 一行中有任何一个是NaN/null就丢弃

df.na.drop("any").show() //任何出现NaN/null就丢弃

2、all 只有一行中所有都是NaN/null才丢弃

df.na.drop("all").show() //一行都是NaN/null才丢弃

3、某些规则 针对某些列有NaN/null ,是否丢弃该列

df.na.drop("any",List("age","dt")).show() //针对特定列出现NaN/null就丢弃改行

填充规则

1、针对所有列进行默认填充

df.na.fill(0).show() //针对所有列都填充0

2、针对特定的列

df.na.fill(0,List("age","dt")).show() //针对特定列进行填充

异常数据

准备数据 

        方法1:丢弃处理

df2.where('dt =!= "NaN").show() //只获取dt列 =!=(不为)NaN的数据

        方法2:替换处理

        如果需要使用when 则需要导入functions的隐式转换操作 

    import org.apache.spark.sql.functions._

        1、直接替换

 df2.select( //如果dt等于NA就替换为Double类型的NaN(NA是字符串类型 NaN是double类型)when('age === "NA",Double.NaN).otherwise('age cast DoubleType)//还需要统一该列其他的数据类型.as("ok") //指定为新的列名).show()

         2、使用na.repalce替换 

repalce("指定列",Map("原始数据" -> "替换后的数据")) 进行替换但是Map替换的方式不能变

注意:Map()转换的时候原类型和转换后的类型必须是一致的 

df2.na.replace("dt",Map("NaN" -> "NA","Null" -> "null")).show()

代码: 

  def main(args: Array[String]): Unit = {//创建Session对象val spark = SparkSession.builder() //构建器.appName("sparkSQL") //序名称程.master("local[*]") //执行方式:本地.getOrCreate() //创建对象//导入转换import spark.implicits._//因为自定推断字段类型可能识别NAN为String类型,不方便处理,所以这里指定schemaval schema: StructType = StructType(List(StructField("id", LongType),StructField("name", StringType),StructField("age", IntegerType),StructField("dt", DoubleType)))schema//读取数据//因为数据中已有表头则设置option("header",true)val df: DataFrame = spark.read.option("header",true).schema(schema).csv("file:///D:\\spark.test\\datas\\a1.csv")//数据缺失处理//方式1:丢弃原则 any、all、自定义//df.na.drop("any").show() //任何出现NaN/null就丢弃//df.na.drop("all").show() //一行都是NaN/null才丢弃//df.na.drop("any",List("age","dt")).show() //针对特定列出现NaN/null就丢弃改行//方式2:填充//df.na.fill(0).show() //针对所有列都填充0//df.na.fill(0,List("age","dt")).show() //针对特定列进行填充//读取数据val df2: DataFrame = spark.read.option("header",true).csv("file:///D:\\spark.test\\datas\\a2.csv")//异常数据处理//1.丢弃处理//df2.where('dt =!= "NaN").show() //只获取dt列 =!=(不为)NaN的数据//2、替换处理import org.apache.spark.sql.functions._//直接替换
//    df2.select( //如果dt等于NA就替换为Double类型的NaN(NA是字符串类型 NaN是double类型)
//      when('age === "NA",Double.NaN)
//        .otherwise('age cast DoubleType)//还需要统一该列其他的数据类型
//        .as("ok") //指定为新的列名
//    ).show()//df2.na.replace("dt",Map("NaN" -> "NA","Null" -> "null")).show()}

相关内容