草庐IT

redefined-outer-name

全部标签

scala - HDFS : java. io.FileNotFoundException : File does not exist: name. _COPYING

我正在使用Scala处理SparkStreaming。我需要使用此行从HDFS目录动态读取.csv文件:vallines=ssc.textFileStream("/user/root/")我使用以下命令行将文件放入HDFS:hdfsdfs-put./head40k.csv它适用于相对较小的文件。当我尝试使用更大的一个时,出现此错误:org.apache.hadoop.ipc.RemoteException(java.io.FileNotFoundException):Filedoesnotexist:/user/root/head800k.csv._COPYING我能理解为什么,但我不

hadoop - 我不明白这个示例代码中的 jar 和 class-name 是什么

我正在尝试使用sqoop合并hdfs上的增量数据,这是我在googlehttps://developer.ibm.com/hadoop/2017/02/28/typical-scenario-sqoop-incremental-import-merge/上找到的示例代码我不明白那里的jar文件和类名是什么,我应该提供哪个jar文件的路径以及什么类名?有人可以帮我理解吗?谢谢。sqoopmerge--new-data/apps/hive/warehouse/student/part-m-00000--onto/apps/hive/warehouse/student/part-m-0000

c++ - : No module named _hdfs_*

我能够毫无错误地构建和安装Pydoop,因此,例如,我可以执行以下操作:>>>importpydoop>>>pydoop.__version__'0.10.0'但是,当我尝试导入主要的Pydoop模块(例如pipes或hdfs)时,我遇到了ImportError:>>>importpydoop.hdfsTraceback(mostrecentcalllast):File"",line1,inFile"pydoop/hdfs/__init__.py",line79,infromfsimporthdfs,default_is_localFile"pydoop/hdfs/fs.py",lin

git clone:SSL: no alternative certificate subject name matches target host name

gitclone时的常见错误:fatal:unabletoaccess‘https://ip_or_domain/xx/xx.git/’:SSL:noalternativecertificatesubjectnamematchestargethostname‘ip_or_domain’解决办法:disablesslverifygitconfig--globalhttp.sslVerifyfalseremote:HTTPBasic:Accessdeniedremote:Youmustuseapersonalaccesstokenwith‘read_repository’or‘write_repo

hadoop - 我如何避免 Hive 表的第一个 "NULL"中的 "Field Name"

首先,我使用以下命令在Hive中创建了表“emp”:createtableemp(idINT,nameSTRING,addressSTRING)ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t';然后通过以下命令将数据加载到这个“emp”表中:LOADDATALOCALINPATH'\home\cloudera\Desktop\emp.txt'覆盖到表emp;当我从“emp”表中选择数据时:它显示了表Null的第一个字段像这样: 最佳答案 您的文件中有一个标题行,第一个值id无法转换为INT,因此被替换

Hadoop 2.9.0 - hadoop namenode -format 和 hdfs-site.xml dfs.namenode.name.dir

我的第一个问题,我会尽量不把事情搞砸:)出于学习目的,我正在4节点集群上安装Hadoop2.9.0。我已经按照官方ApacheHadoop2.9.0文档和一些谷歌页面开始安装/配置名称节点。我像这样编辑了位于$HADOOP_HOME/etc/hadoop目录下的hdfs-site.xml:dfs.namenode.name.dirfile:///apps/hdfs/namenode/datadfs.datanode.data.dirfile:///apps/hdfs/datanode/datadfs.namenode.checkpoint.dirfile:///apps/hdfs/na

【Python】No module named ‘yaml‘ 解决办法

文章目录一、yaml包的介绍二、使用报错及安装成功一、yaml包的介绍yaml是一种文件格式,跟json一样通常被用作配置文件,但远比JSON格式方便!使用json作为配置文件的朋友会发现,在json中写注释要通过增加键值对的形式来,但是yaml格式就非常的友好!建议使用yaml来写配置文件,如下为yaml格式的示例:二、使用报错及安装成功我训练模型的时候,出现了错误,如下所示:Traceback(mostrecentcalllast):File"train.py",line24,inmodule>importyamlModuleNotFoundError:Nomodulenamed'yaml

scala - Hadoop 端口 : fs. default.name

我有点懵。我看到的几乎所有Hadoop安装“如何”指定的core-site.xml都将fs.default.name设置为9000fs.default.namehdfs://192.168.0.141:9000但是,下面的代码valconf=neworg.apache.hadoop.conf.Configuration()valfs=org.apache.hadoop.fs.FileSystem.get(newjava.net.URI("hdfs://192.168.0.141/"),conf)给我一​​个java.net.ConnectException:指定无法连接到端口8020。

hadoop - Hive 没有完全遵守 core-site.xml 中的 fs.default.name/fs.defaultFS 值

我在一台名为hadoop的机器上安装了NameNode服务。core-site.xml文件的fs.defaultFS(等同于fs.default.name)设置如下:fs.defaultFShdfs://hadoop:8020我有一个名为test_table的非常简单的表,它当前存在于HDFS上的Hive服务器中。即存放在/user/hive/warehouse/test_table下。它是在Hive中使用一个非常简单的命令创建的:CREATETABLEnew_table(record_idINT);如果我尝试将数据加载到本地表中(即使用LOADDATALOCAL),一切都会按预期进行

amazon-ec2 - 使用 s3 作为 fs.default.name 或 HDFS?

我正在EC2上设置Hadoop集群,我想知道如何进行DFS。我所有的数据目前都在s3中,所有map/reduce应用程序都使用s3文件路径来访问数据。现在我一直在研究Amazon的EMR是如何设置的,它似乎为每个作业流设置了一个名称节点和数据节点。现在我想知道我是否真的需要那样做,或者我是否可以只使用s3(n)作为DFS?如果这样做,有什么缺点吗?谢谢! 最佳答案 为了使用S3而不是HDFS,core-site.xml中的fs.name.default需要指向您的存储桶:fs.default.names3n://your-bucke