运行spark-submit作业并收到“无法获取broadcast_58_piece0...”错误。我真的不确定我做错了什么。我是否过度使用了UDF?功能太复杂?作为我的目标的总结,我正在解析pdf中的文本,这些文本作为base64编码的字符串存储在JSON对象中。我正在使用ApacheTika获取文本,并尝试大量使用数据帧来简化操作。我写了一段代码,通过tika将文本提取作为“主”之外的一个函数在数据上作为RDD运行,并且运行完美。但是,当我尝试将提取作为数据帧上的UDF引入main时,它会以各种不同的方式出现问题。在我到达这里之前,我实际上是在尝试将最终数据框编写为:valid.t