我正在使用SparkSQL查询Hive中以ORC格式存储的数据。当我对提供给spark.sql(query)的查询运行解释命令时,我看到以下查询计划:==PhysicalPlan==*Project[col1,col2,col3]+-*Filter(....)+-HiveTableScan[col1,col2,col3,...col50]据我所知,从Hive查询所有50列,然后才在Spark中进行过滤,后记仅选择所需的实际列。是否可以将所需的列直接下推到Hive,以便它们不会一直加载到Spark? 最佳答案 检查以下属性是否设置为默