bigdata Spark中Container killed by YARN for exceeding memory limits 昨天在yarn集群上跑代码遇到这个问题,现在发现spark代码写好是重要的一方面,spark submit参数…