草庐IT

hdfs-audit

全部标签

java - 如何从 hdfs 上的文件加载类型安全的 configFactory?

我正在使用类型安全的ConfigFactory将配置加载到我的Scala应用程序中。我不想将配置文件包含到我的jar中,而是从外部hdfs文件系统加载它们。但是,我找不到从hadoop获得的fsDataInputStream对象加载配置的简单方法://getHDFSfilevalhadoopConfig:Configuration=sc.hadoopConfigurationvalfs:FileSystem=org.apache.hadoop.fs.FileSystem.get(hadoopConfig)valfile:FSDataInputStream=fs.open(newPath

shell - HDFS 命令行追加

有没有办法像复制文件一样从命令行append到HDFS上的文件:hadoopfs-copyFromLocalURI 最佳答案 此功能在Hadoop2.3.0中实现为appendToFile语法如下:hdfsdfs-appendToFilelocalfile/user/hadoop/hadoopfile(在2009年考虑HDFSAppend功能时首次提出:https://issues.apache.org/jira/browse/HADOOP-6239) 关于shell-HDFS命令行追加

csv - 如何从 Hdfs 读取 CSV 文件?

我的数据在CSV文件中。我想读取HDFS中的CSV文件。谁能帮我写代码??我是hadoop的新手。提前致谢。 最佳答案 为此所需的类是FileSystem,FSDataInputStream和Path.客户端应该是这样的:publicstaticvoidmain(String[]args)throwsIOException{//TODOAuto-generatedmethodstubConfigurationconf=newConfiguration();conf.addResource(newPath("/hadoop/proje

hadoop - Apache Spark JDBCRDD 使用 HDFS 吗?

ApacheSparkJDBCRDD是否使用HDFS来存储数据库记录并将其分发到工作节点?我们正在使用JdbcRDD与apachespark上的数据库进行交互。我们想知道ApacheSpark是使用HDFS来分发和存储数据库表记录还是工作节点直接与数据库交互。 最佳答案 JdbcRDD不使用HDFS,直接从JDBC连接读取数据到worker内存中的RDD。如果您想要HDFS上的结果,您必须明确地将RDD持久化到HDFS。你可以在这里看到JdbcRDD是如何运作的https://github.com/apache/spark/blob

hadoop - Hive 为 HDFS 中的每个插入创建多个小文件

下面已经实现了KafkaProducer使用SparkStreaming从Twitter中提取数据。KafkaConsumer将数据提取到Hive外部表(在HDFS上)。虽然到目前为止一切正常。我只面临一个问题,当我的应用程序将数据插入Hive表时,它创建了一个小文件,每个文件的每一行数据。下面是代码//Definewhichtopicstoreadfromvaltopic="topic_twitter"valgroupId="group-1"valconsumer=KafkaConsumer(topic,groupId,"localhost:2181")//CreateSparkCo

hadoop - Flink 在 HDFS 上写入产生空文件

我有一个flink作业,它使用TextOutputFormat将数据写入目标。代码是这样的:StringbasePath="/Users/me/out";//StringbasePath="hdfs://10.199.200.204:9000/data";//ensurewehaveaformatforthis.TextOutputFormatformat=newTextOutputFormat(newPath(basePath,selection+"/"+uid));StreamingRuntimeContextcontext=(StreamingRuntimeContext)get

python - 配置 SnakeBite HDFS 客户端以使用高可用性模式

我正在使用snakebite从我的airflowdags访问HDFS的库。我的HDFS集群已升级到高可用性模式。这意味着当名称节点不是事件节点时,配置为仅指向一个名称节点的客户端将失败。我可以使用哪些策略使高可用性模式具有高可用性?我可以将snakebite客户端配置为故障转移到另一个节点吗?我可以使用某种负载均衡器将流量定向到正确的名称节点吗? 最佳答案 事实证明,Snakebite没有一个,而是两个解决这个问题的方法:AutoConfigClient,它将从hadoop配置中获取其配置,并且HAClient它需要两个名称节点。就

performance - Spark 本地 vs hdfs 性能

我在同一台机器上有一个Spark集群和一个Hdfs。我已经在每台机器的本地文件系统和hdfs分布式文件系统上复制了一个大约3GB的文本文件。我有一个简单的字数统计pyspark程序。如果我提交从本地文件系统读取文件的程序,它会持续大约33秒。如果我提交从hdfs读取文件的程序,它会持续大约46秒。为什么?我期望完全相反的结果。根据sgvd的要求添加:16从1主没有特殊设置的SparkStandalone(复制因子3)版本1.5.2importsyssys.path.insert(0,'/usr/local/spark/python/')sys.path.insert(0,'/usr/l

java - 连接到 Kerberrized HDFS,java.lang.IllegalArgumentException : Failed to specify server's Kerberos principal name;

我正在尝试使用以下代码连接到Kerberizedhdfs集群,使用以下相同的代码我能够使用HBaseConfiguration访问hbaseofcourse,Configurationconfig=newConfiguration();config.set("hadoop.security.authentication","Kerberos");UserGroupInformation.setConfiguration(config);UserGroupInformationugi=null;ugi=UserGroupInformation.loginUserFromKeytabAnd

hadoop - 如何将 HBase 表以 Parquet 格式移动到 HDFS?

我必须构建一个工具,以parquet格式处理从HBase(HFiles)到HDFS的数据存储。请建议将数据从HBase表移动到Parquet表的最佳方法之一。我们必须将4亿条记录从HBase迁移到Parquet。如何实现这一目标以及移动数据的最快方式是什么?提前致谢。问候,帕迪普夏尔马。 最佳答案 请查看此项目tmalaska/HBase-ToHDFS它读取HBase表并将其写为Text、Seq、Avro或ParquetParquet的用法示例:ExportsthedatatoParquethadoopjarHBaseToHDFS.