前面在运行Spark项目的时候,突然就报了个错:java.lang.StackOverflowError,以前也没出现过这种情况,原来是栈溢出,内存不够导致的。
需要在spark的配置文件中添加新的内存信息。
vi /opt/soft/spark234/confcp spark-defaults.conf.template spark-defaults.conf
vi spark-defaults.conf//添加以下配置信息spark.driver.extraJavaOptions="-Xss30M"
这样就不会再报栈溢出的错误了!