EDITI:通过删除应用程序中“setMaster”的conf设置,我能够成功运行yarn-cluster-如果有人可以帮助sparkmaster作为集群部署-那太棒了我正在尝试在本地测试机上设置spark,以便我可以从s3存储桶中读取数据,然后写回它。使用客户端运行jar/应用程序工作正常,很好,很好,因为它进入存储桶并创建一个文件并再次返回。然而,我需要它在集群模式下工作,以便它更接近我们的生产环境,但它总是失败——我能看到的日志中没有真正有意义的消息,也没有什么反馈可以继续。非常感谢任何帮助-我是spark/hadoop的新手,所以可能忽略了一些明显的事情。我也尝试以yarn-c