博客
关于我
SparkTask未序列化(Tasknotserializable)问题分析
阅读量:797 次
发布时间:2023-04-04

本文共 3139 字,大约阅读时间需要 10 分钟。

Task未序列化问题分析及解决方案

在编写Spark程序时,若在map、filter等算子内部引用了外部变量或函数,可能会导致Task未序列化的问题。这种情况通常发生在引用了当前类成员变量或函数时,导致整个类需要支持序列化,而某些成员变量未能做好序列化准备。

引用成员变量的实例分析

例如,在一个Spark程序中,我们定义了一个类MyTest1,该类使用了SparkContextSparkConf作为成员变量。由于这些变量未做好序列化处理,导致类整体无法序列化,最终引发Task未序列化错误。

class MyTest1(conf:String) extends Serializable {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     private val sparkConf = new SparkConf().setAppName("AppName")     private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     private val rootDomain = conf     def getResult(): Array[String] = {        val result = rdd.filter(item => item.contains(rootDomain))         result.take(result.count().toInt)     }}

在运行过程中,错误报告指出SparkContextSparkConf未能序列化,导致Task失败。为了验证这一点,我们尝试对不需要序列化的成员变量进行标注。

class MyTest1(conf:String) extends Serializable {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     @transient private val sparkConf = new SparkConf().setAppName("AppName")     @transient private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     private val rootDomain = conf     def getResult(): Array[String] = {        val result = rdd.filter(item => item.contains(rootDomain))         result.take(result.count().toInt)     }}

标注后,sparkConfsc不再参与序列化过程,程序能够正常运行。

引用成员函数的实例分析

同样地,当成员函数引用导致类依赖序列化时,也会引发Task未序列化问题。例如,在map操作中使用了一个成员函数来处理域名前缀。

class MyTest1(conf:String) extends Serializable {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     private val sparkConf = new SparkConf().setAppName("AppName")     private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     def getResult(): Array[(String)] = {        val rootDomain = conf         val result = rdd.filter(item => item.contains(rootDomain))         .map(item => addWWW(item))         result.take(result.count().toInt)     }     def addWWW(str:String): String = {        if(str.startsWith("www.")) str else "www."+str     }}

为了解决这个问题,我们可以将成员函数移至一个object中,使其不再依赖当前类。

def getResult(): Array[(String)] = {    val rootDomain = conf     val result = rdd.filter(item => item.contains(rootDomain))     .map(item => UtilTool.addWWW(item))     result.take(result.count().toInt) }object UtilTool {    def addWWW(str:String): String = {        if(str.startsWith("www.")) str else "www."+str     }}

对全类序列化要求的验证

通过上述实例可以看出,引用成员变量或函数会导致整个类需要支持序列化。因此,在类中使用@transient标注来避免不必要的序列化。

class MyTest1(conf:String) {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     private val sparkConf = new SparkConf().setAppName("AppName")     private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     def getResult(): Array[String] = {        val rootDomain = conf         val result = rdd.filter(item => item.contains(rootDomain))         result.take(result.count().toInt)     }}

如果去掉extends Serializable,程序将报错,证明了类需要序列化的必要性。

解决办法与编程建议

  • 避免在闭包内部引用成员变量或函数

    • 如果依赖值固定,可以直接在闭包内部定义或使用object中的静态变量。
    • 如果依赖值需要动态指定,可以在闭包内部重新定义局部变量,避免引用成员变量。
  • 确保类支持序列化并处理不可序列化成员

    • 如果引用了成员变量或函数,确保类继承Serializable,并对不可序列化的成员使用@transient标注。
    • 将依赖外部变量的功能独立到一个object中,以减少对类序列化的依赖。
  • 通过以上方法,可以有效避免Task未序列化问题,确保Spark程序顺利运行。

    转载地址:http://bjrfk.baihongyu.com/

    你可能感兴趣的文章
    mysql 字段类型类型
    查看>>
    MySQL 字符串截取函数,字段截取,字符串截取
    查看>>
    MySQL 存储引擎
    查看>>
    mysql 存储过程 注入_mysql 视图 事务 存储过程 SQL注入
    查看>>
    MySQL 存储过程参数:in、out、inout
    查看>>
    mysql 存储过程每隔一段时间执行一次
    查看>>
    mysql 存在update不存在insert
    查看>>
    Mysql 学习总结(86)—— Mysql 的 JSON 数据类型正确使用姿势
    查看>>
    Mysql 学习总结(87)—— Mysql 执行计划(Explain)再总结
    查看>>
    Mysql 学习总结(88)—— Mysql 官方为什么不推荐用雪花 id 和 uuid 做 MySQL 主键
    查看>>
    Mysql 学习总结(89)—— Mysql 库表容量统计
    查看>>
    mysql 实现主从复制/主从同步
    查看>>
    mysql 审核_审核MySQL数据库上的登录
    查看>>
    mysql 导入 sql 文件时 ERROR 1046 (3D000) no database selected 错误的解决
    查看>>
    mysql 导入导出大文件
    查看>>
    mysql 将null转代为0
    查看>>
    mysql 常用
    查看>>
    MySQL 常用列类型
    查看>>
    mysql 常用命令
    查看>>
    Mysql 常见ALTER TABLE操作
    查看>>