spark submit 运行多个任务问题,求大神解答?
我用的是独立模式,2个application 提交的参数是: --master spark://spark-1:7077 --executor-memory 4g --driver-memory 2g --total-executor-cores 12 --executor-cores 4 ,为什么后面一个application一直处于等待状态?
spark
赞
收藏 0
回答 1
待解决
应该是机器被进程占了所有的cpu造成其他进程排队,把进程解决掉了,后面重新启动第二个spark任务就直接running状态了。