博客
关于我
SparkTask未序列化(Tasknotserializable)问题分析
阅读量:797 次
发布时间:2023-04-04

本文共 3139 字,大约阅读时间需要 10 分钟。

Task未序列化问题分析及解决方案

在编写Spark程序时,若在map、filter等算子内部引用了外部变量或函数,可能会导致Task未序列化的问题。这种情况通常发生在引用了当前类成员变量或函数时,导致整个类需要支持序列化,而某些成员变量未能做好序列化准备。

引用成员变量的实例分析

例如,在一个Spark程序中,我们定义了一个类MyTest1,该类使用了SparkContextSparkConf作为成员变量。由于这些变量未做好序列化处理,导致类整体无法序列化,最终引发Task未序列化错误。

class MyTest1(conf:String) extends Serializable {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     private val sparkConf = new SparkConf().setAppName("AppName")     private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     private val rootDomain = conf     def getResult(): Array[String] = {        val result = rdd.filter(item => item.contains(rootDomain))         result.take(result.count().toInt)     }}

在运行过程中,错误报告指出SparkContextSparkConf未能序列化,导致Task失败。为了验证这一点,我们尝试对不需要序列化的成员变量进行标注。

class MyTest1(conf:String) extends Serializable {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     @transient private val sparkConf = new SparkConf().setAppName("AppName")     @transient private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     private val rootDomain = conf     def getResult(): Array[String] = {        val result = rdd.filter(item => item.contains(rootDomain))         result.take(result.count().toInt)     }}

标注后,sparkConfsc不再参与序列化过程,程序能够正常运行。

引用成员函数的实例分析

同样地,当成员函数引用导致类依赖序列化时,也会引发Task未序列化问题。例如,在map操作中使用了一个成员函数来处理域名前缀。

class MyTest1(conf:String) extends Serializable {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     private val sparkConf = new SparkConf().setAppName("AppName")     private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     def getResult(): Array[(String)] = {        val rootDomain = conf         val result = rdd.filter(item => item.contains(rootDomain))         .map(item => addWWW(item))         result.take(result.count().toInt)     }     def addWWW(str:String): String = {        if(str.startsWith("www.")) str else "www."+str     }}

为了解决这个问题,我们可以将成员函数移至一个object中,使其不再依赖当前类。

def getResult(): Array[(String)] = {    val rootDomain = conf     val result = rdd.filter(item => item.contains(rootDomain))     .map(item => UtilTool.addWWW(item))     result.take(result.count().toInt) }object UtilTool {    def addWWW(str:String): String = {        if(str.startsWith("www.")) str else "www."+str     }}

对全类序列化要求的验证

通过上述实例可以看出,引用成员变量或函数会导致整个类需要支持序列化。因此,在类中使用@transient标注来避免不必要的序列化。

class MyTest1(conf:String) {    val list = List("a.com", "www.b.com", "a.cn", "a.com.cn", "a.org")     private val sparkConf = new SparkConf().setAppName("AppName")     private val sc = new SparkContext(sparkConf)     val rdd = sc.parallelize(list)     def getResult(): Array[String] = {        val rootDomain = conf         val result = rdd.filter(item => item.contains(rootDomain))         result.take(result.count().toInt)     }}

如果去掉extends Serializable,程序将报错,证明了类需要序列化的必要性。

解决办法与编程建议

  • 避免在闭包内部引用成员变量或函数

    • 如果依赖值固定,可以直接在闭包内部定义或使用object中的静态变量。
    • 如果依赖值需要动态指定,可以在闭包内部重新定义局部变量,避免引用成员变量。
  • 确保类支持序列化并处理不可序列化成员

    • 如果引用了成员变量或函数,确保类继承Serializable,并对不可序列化的成员使用@transient标注。
    • 将依赖外部变量的功能独立到一个object中,以减少对类序列化的依赖。
  • 通过以上方法,可以有效避免Task未序列化问题,确保Spark程序顺利运行。

    转载地址:http://bjrfk.baihongyu.com/

    你可能感兴趣的文章
    Multisim中555定时器使用技巧
    查看>>
    MySQL CRUD 数据表基础操作实战
    查看>>
    multisim变压器反馈式_穿过隔离栅供电:认识隔离式直流/ 直流偏置电源
    查看>>
    mysql csv import meets charset
    查看>>
    multivariate_normal TypeError: ufunc ‘add‘ output (typecode ‘O‘) could not be coerced to provided……
    查看>>
    MySQL DBA 数据库优化策略
    查看>>
    multi_index_container
    查看>>
    mutiplemap 总结
    查看>>
    MySQL Error Handling in Stored Procedures---转载
    查看>>
    MVC 区域功能
    查看>>
    MySQL FEDERATED 提示
    查看>>
    mysql generic安装_MySQL 5.6 Generic Binary安装与配置_MySQL
    查看>>
    Mysql group by
    查看>>
    MySQL I 有福啦,窗口函数大大提高了取数的效率!
    查看>>
    mysql id自动增长 初始值 Mysql重置auto_increment初始值
    查看>>
    MySQL in 太多过慢的 3 种解决方案
    查看>>
    Mysql Innodb 锁机制
    查看>>
    MySQL InnoDB中意向锁的作用及原理探
    查看>>
    MySQL InnoDB事务隔离级别与锁机制深入解析
    查看>>
    Mysql InnoDB存储引擎 —— 数据页
    查看>>