草庐IT

directory-permissions

全部标签

Windows server :active directory域(ad域)服务,安装&搭建&加入

环境:虚拟机下可以相互通信Windowsserver2016Windows101.安装首先打开server上的控制面板添加角色和功能下一步下一步下一步activedirectory域服务选择上添加功能下一步下一步下一步安装等待安装完成……2.搭建点击小旗子找到部署后配置点击“将此服务器提升为域控制器”选择添加林域然后填写根域名下一步填写密码下一步下一步下一步安装等待完成重启耐心等待3.加入首先把dns指向服务器1.1是Windows10ip1.2是server2016ip右键此电脑点击属性重命名这台电脑最下边的“更改”选择域填写域名bao.com确定然后输入域管理员账户重启即可

Hadoop 'put' 命令 : No such file or directory

我尝试将文本文件添加到HDFS文件系统,但Hadoop拒绝了它并显示错误消息“没有这样的文件或目录”。$bin/hdfsdfs-put/home/NDelt/Datasets/SampleText.txt/home/NDelt/HadoopDir/hdataput:`/home/NDelt/HadoopDir/hdata':Nosuchfileordirectory:`hdfs://localhost:9000/home/NDelt/HadoopDir/hdata'但是SampleText.txt和hdata目录的路径是正确的。有什么问题?这是我的hdfs-site.xml文件:dfs

linux - 无法创建目录/home/hadoop/.ssh : permission denied?

我正在Ubuntu操作系统上配置hadoop。我需要创建RSAkey对以允许hadoop与其节点交互,所以我运行此命令:hadoop@ubuntu:~$ssh-keygen-trsa-P""然后我明白了:Generatingpublic/privatersakeypair.Enterfileinwhichtosavethekey(/home/hadoop/.ssh/id_rsa):Couldnotcreatedirectory'/home/hadoop/.ssh':permissiondenied.Enterpassphrase(emptyfornopassphrase):Enters

hadoop - 复制到本地 : No such file or directory

我正在尝试使用以下命令将文件从hadoophdfs复制到本地:bin/hadoopfs-copyToLocal/user/nj/dir/hfilefile:///home/nj/lfilecopyToLocal得到Nosuchfileordirectory但是,ls有效,我可以使用cat读取文件内容。尝试了get和sudo选项但同样的错误。 最佳答案 假设您要将hfile复制到nj用户主目录中的data文件夹。然后使用以下命令。bin/hdfsdfs-copyToLocal/user/nj/dir/hfile/home/nj/dat

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war

hadoop - 线程 "main"org.apache.hadoop.mapred.InvalidJobConfException : Output directory not set 中的异常

嘿,你能帮我清除以下错误吗?当我运行Mapreduce作业fopr将数据从hdfs文件插入到hbase表中时,我得到了这个。使用HFileOutputFormat.class,之前我使用MultiTableOutputFormat.class运行相同的程序,它工作正常,但是在将数据插入hbase表时花费了很多时间。那么你能帮帮我吗……:)*job.setMapOutputKeyClass(ImmutableBytesWritable.class);job.setMapOutputValueClass(Put.class);job.setInputFormatClass(TextInpu

hadoop - 亚马逊弹性 MapReduce : Output directory

我正在运行Amazon的运行ElasticMapReduce的示例,并不断遇到以下错误:Errorlaunchingjob,Outputpathalreadyexists.这是运行我正在使用的作业的命令:C:\ruby\elastic-mapreduce-cli>rubyelastic-mapreduce--create--stream\--mappers3://elasticmapreduce/samples/wordcount/wordSplitter.py\--inputs3://elasticmapreduce/samples/wordcount/input\--output[

Hadoop hive : How to allow regular user continuously write data and create tables in warehouse directory?

我在单个节点上运行Hadoop2.2.0.2.0.6.0-101。我正在尝试运行JavaMRD程序,该程序在普通用户下从Eclipse将数据写入现有的Hive表。我得到异常:org.apache.hadoop.security.AccessControlException:Permissiondenied:user=dev,access=WRITE,inode="/apps/hive/warehouse/testids":hdfs:hdfs:drwxr-xr-x发生这种情况是因为普通用户对仓库目录没有写权限,只有hdfs用户有:drwxr-xr-x-hdfshdfs02014-03-0

hadoop - Cloudera hadoop : not able to run Hadoop fs command and at same time HBase is not able to create directory on HDFS?

我已经启动并运行了6个节点的cloudera5.0beta集群但是我无法使用命令查看hadoopHDFS的文件和文件夹sudo-uhdfshadoopfs-ls/在输出中它显示了linux目录的文件和文件夹。尽管namenodeUI正在显示文件和文件夹。在HDFS上创建文件夹时出现错误sudo-uhdfshadoopfs-mkdir/testmkdir:`/test':Input/outputerror由于此错误,hbase未启动并关闭并出现以下错误:Unhandledexception.Startingshutdown.java.io.IOException:Exceptioninm

hadoop - HDFS 错误放置 : `input' : No such file or directory

我已经安装了hadoop2.6.0,并且正在试用它。我正在尝试伪分布式设置,并按照http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html#Execution上的说明进行操作我卡在了第5步,即当我运行命令时bin/hdfsdfs-putetc/hadoopinput我收到以下错误。15/02/0200:35:49WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...u