草庐IT

SparkContexts

全部标签

python - 教程中出现多个 SparkContexts 错误

我正在尝试运行非常基本的Spark+Pythonpyspark教程——参见http://spark.apache.org/docs/0.9.0/quick-start.html当我尝试初始化一个新的SparkContext时,frompysparkimportSparkContextsc=SparkContext("local[4]","test")我收到以下错误:ValueError:CannotrunmultipleSparkContextsatonce我想知道我之前运行示例代码的尝试是否将某些未清除的内容加载到内存中。有没有办法列出已经在内存中的当前SparkContexts和/