我在 macbook pro 上使用 IPython 笔记本中的 Spark (1.5.1)。安装 Spark 和 Anaconda 后,我通过执行以下命令从终端启动 IPython IPYTHON_OPTS="notebook" pyspark
:这将打开一个网页,列出我所有的 IPython 笔记本。我可以选择其中一个,在第二个网页中打开它。SparkContext (sc) 已经可用,我在笔记本中的第一个命令是help(sc)
,它运行良好。我遇到的问题是我收到了一个我不知道如何解决的 Java 堆空间错误。如何查看我当前的 Java 堆设置,以及如何在我的设置上下文中增加它。我收到的错误消息如下:
Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 19 in stage 247.0 failed 1 times, most recent failure: Lost task 19.0 in stage 247.0 (TID 953, localhost): java.lang.OutOfMemoryError: Java heap space