我已经阅读了很多有关通过设置yarn.scheduler.maximum-allocation-mb来解决此类问题的内容,我已将其设置为2gb,因为我当前正在运行selectcount(*)from我想这不是一个繁重的计算。但是什么是RequiredAMmemory(471859200+47185920MB)应该是什么意思其他问题说关于(1024+2048)问题或类似的东西。我在一台机器上设置,即我的桌面有4-gbram和2个内核。将Spark作为Hive执行引擎运行的规范是否非常低?目前我正在从java运行这项工作,我的设置是Connectionconnect=DriverManag