草庐IT

vm_protect

全部标签

java - 如何在 Hortonworks VM 上的 Spark 上运行 .jar?

我是HortonworksVM的新手,我很困惑。我正在尝试在Spark上运行.jar文件。通常我通过运行在Windows上进行本地测试spark-submit--driver-memory4g--classen.name.ClassName%CODE%/target/program.jar但由于我需要Hive,所以我想我应该转移到HortonworksVM以在本地进行测试。现在,我已经通过Hortonworks的Ambari的HDFS文件GUI将我的.jar和输入文件上传到HDFS(到/tmp/my_code目录)。接下来是什么?我也找到了命令行,但是如何从VM的命令行访问HDFS上的

xml - 可以将 HCatalog 与 XML 一起使用吗? -- 在 Cloudera VM 上执行 ETL

我正在处理一个大数据类的项目,我已经在本地安装了ClouderaQuickstartVM以在我的数据集上运行一些基本任务并熟悉一些工具。我正在学习一个教程,其中涉及将数据集移动到HDFS,基于数据集文件创建一个HCatalog表,然后在该表上运行Hive和/或Pig命令。问题是我的数据是一个大的XML文件,HCatalog中的标准分隔符选项不适用。有没有办法将XML导入HCatalog?如果不是,在我的XML数据集上使用Hive或Pig的最佳方法是什么?编辑:我的文件来自公共(public)StackOverflow数据集。我正在使用posts.xml文件。它非常大(25GB),我无法

hadoop - "No common protection layer between client and server"尝试与 Kerberized Hadoop 集群通信时

我正在尝试以编程方式与Kerberized(CDH5.3/HDFS2.5.0)的Hadoop集群进行通信。我在客户端有一个有效的Kerberostoken。但是我收到如下错误,“客户端和服务器之间没有公共(public)保护层”。这个错误是什么意思,有什么方法可以修复或解决它吗?这与HDFS-5688有关吗??该票似乎暗示必须设置属性“hadoop.rpc.protection”,大概是“身份验证”(也根据例如this)。这是否需要在集群中的所有服务器上设置,然后集群反弹?我无法轻松访问集群,因此我需要了解“hadoop.rpc.protection”是否是真正的原因。看起来'auth

Oracle VM VirtualBox安装的Centos7无法上网

OracleVMVirtualBox安装的Centos7无法上网解决方法:1、设置第一块网卡使用仅主机网络。2、设置第二块网卡使用网络地址转换(NAT)。 

Oracle VM VirtualBox安装的Centos7无法上网

OracleVMVirtualBox安装的Centos7无法上网解决方法:1、设置第一块网卡使用仅主机网络。2、设置第二块网卡使用网络地址转换(NAT)。 

hadoop - 403 拒绝访问 Amazon S3 删除 protected 文件夹

我在amazons3中有一个文件夹,我限制了删除任何文件夹的权限。但是,现在发生的事情是我无法使用配置单元脚本创建任何文件夹。此配置单元查询创建一个名为_tmp.customerlevel的临时文件夹。一旦它完成mapreduce作业,它就会尝试删除它。但是,由于删除配置单元查询的限制而失败。任何人都可以告诉我解决方法,以便我可以维护删除保护权限以及我可以使用配置单元脚本写入数据吗?Insertoverwritedirectory's3://logs/customerlevel'select*fromcustomer;REST.DELETE.OBJECTlogs/_tmp.custom

java - 无法在 Cloudera VM 中使用 java(在 Eclipse 中)连接到 hbase

我正在尝试在ClouderaVM中使用Java(在Eclipse中)连接到Hbase,但出现以下错误。能够在命令行中运行相同的程序(通过将我的程序转换为jar)我的java程序`importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;importorg.apache.hadoop.hbase.HColumnDescriptor;importorg.apache.hadoop.hbase.HTableDescriptor;importorg.apache.had

python - Pyspark java.lang.OutOfMemoryError : Requested array size exceeds VM limit 错误

我正在运行Pyspark作业:spark-submit--masteryarn-client--driver-memory150G--num-executors8--executor-cores4--executor-memory150Gbenchmark_script_1.pyhdfs:///tmp/data/sample150k128hdfs:///tmp/output/sample150k|tee~/output/sample150k.log工作本身非常标准。它只是抓取一些文件并对它们进行计数。:print(str(datetime.now())+"-Ingestingfiles

hadoop - Quickstart VM Cloudera parcel 无法启动

我无法理解ClouderaQuickstartVM的某些内容。让我尝试通过概述到目前为止的步骤来进行解释。我想使用Kafka编写一些东西来连接到网络服务并获取数据源。我将使用Cloudera5.5quickstartVM作为我的Playground。我需要从包裹中安装CDH,然后才能获得Kafka。通过https://community.cloudera.com/t5/Apache-Hadoop-Concepts-and/cloudera-manager-5-4-0-installing-kafka-parcel-fails/td-p/30615我在ClouderaVM的桌面上看到一个

java - OpenJDK 客户端 VM - 无法分配内存

我在集群上运行Hadoopmapreduce作业。我收到此错误。OpenJDKClientVMwarning:INFO:os::commit_memory(0x79f20000,104861696,0)failed;error='Cannotallocatememory'(errno=12)ThereisinsufficientmemoryfortheJavaRuntimeEnvironmenttocontinue.Nativememoryallocation(malloc)failedtoallocate104861696bytesforcommittingreservedmemor