我正在运行一个基于集群的应用程序(使用Spark,但同样的问题适用于Hadoop)并且想要进行应用程序级别的日志记录(最好使用slf4j)。但是,我希望日志转到一个中央位置——我不想在每台机器上读取单个文件。HDFS文件会很棒-或者任何我可以在单个命令中拉回和grep的文件。我该怎么做? 最佳答案 有几种方法可以解决这个问题。对于罕见/临时搜索,可以使用并行SSH等工具。由于日志量可能很大,因此并行grep可能效率更高对于监控——将日志(在错误级别)重定向到像LogStash这样能够存储和搜索大量日志的系统是有意义的。