草庐IT

amazon-efs

全部标签

hadoop - 在 Amazon S3 中创建由 Avro 文件支持的 Hive 表时出现问题

我一直在尝试在S3中创建一个由Avro文件支持的Hive表。最初,我认为这可能相对简单,但我遇到了以下错误。这是创建表的命令:setfs.s3.awsAccessKeyId=ACCESS_KEY_ID;setfs.s3.awsSecretAccessKey=SECRET_ACCESS_KEY;usesome_database;CREATEEXTERNALTABLEexperiment_with_s3_backed_dataROWFORMATSERDE'org.apache.hadoop.hive.serde2.avro.AvroSerDe'WITHSERDEPROPERTIES('av

python - 在 Amazon EMR 上安装 PIG 0.14

我需要使用Hadoop2.x从PIG在AmazonEMR上运行Python流式UDF基于文档PIGworkswithHadoop2.xsinceversion0.14http://pig.apache.org/docs/r0.12.0/udf.html#python-udfshttp://pig.apache.org/docs/r0.14.0/udf.html#python-udfs我个人曾尝试过Python流式UDF在0.12上不起作用,并且根据0.14文档中缺少的注释,在我看来它应该在这个版本中起作用。在AmazonEMR文档中看到受支持的PIG版本,在我看来,只有低于0.12的受

r - 将 Hive 表从 HDFS 移动到 Amazon Redshift

我尝试将通过连接4-5个数据集创建的Hive表传输到Redshift。这个过程应该如何实现?我们在边缘节点上有可用的R。Hive表必须先传输到S3,然后从s3传输到Redshift。这是唯一的方法吗?是否可以使用R,即使用RHive包将我的数据集从HDFS移动到R,然后将该数据集从R移动到Redshift? 最佳答案 您可以使用RJDBC连接到Redshift(Redshift是pgsql)。因此,您可以使用从配置单元读取一行,并使用R中的RJDBC将其加载到Redshift。您创建1000个或更多的批处理并插入Redshift。如

Ef Core花里胡哨系列(5) 动态修改追踪的实体、动态查询

EfCore花里胡哨系列(5)动态修改追踪的实体、动态查询同样还是IModelCacheKeyFactory,不过这次要采用主动刷新的方式。实现DbContext动态实体,根据配置等生成动态类型来当作数据库实体使用,当配置修改时,可以调用DynamicModelCacheKeyFactory.Refresh()刷新DbContext。动态构建部分不提供,我们将在其它的地方进行讨论。publicclassSampleDbContext(DbContextOptionsoptions):DbContext(options){protectedoverridevoidOnModelCreating(

hadoop - 从 Pig UDF Java 类中的分布式缓存访问文件,Amazon EMR

我正在尝试访问UDF中的文件(sample.txt)。我想将该文件放在分布式缓存中并从那里使用它。我正在使用亚马逊EMR来运行Pig作业。我在创建集群时使用EMRbootstrap-action将文件(sample.txt)复制到HDFS。bootstrap.sh(将文件从s3复制到hdfs)hadoopfs-copyToLocals3n://s3_path/sample.txt/mnt/sample.txtUsingSample.java(使用sample.txt的UDF)publicclassUsingSampleextendsEvalFunc{publicStringuseSam

hadoop - 无法让日志聚合在 Amazon-Hadoop 集群上工作

我尽我所能使日志聚合,但我做不到。所以我需要你的帮助来解决这个问题:我将其添加到yarn-site.xml并重新启动但没有任何乐趣。yarn.log-aggregation-enabletrueWheretoaggregatelogsto.yarn.nodemanager.remote-app-log-dir/tmp/logsyarn.log-aggregation.retain-seconds259200yarn.log-aggregation.retain-check-interval-seconds3600当我尝试通过以下方式进行聚合时:yarnlogs-applicationI

amazon-web-services - 如何使用 "s3a://"方案让 Hive 2.2.1 成功与 AWS S3 集成

我遵循了各种已发布的文档,了解如何使用s3a://方案将ApacheHive2.1.1与AWSS3集成,配置fs.s3a.access.key和fs.s3a.secret.key用于hadoop/etc/hadoop/core-site.xml和hive/conf/hive-site.xml.我现在可以让hdfsdfs-lss3a://[bucket-name]/正常工作(它返回那个桶的s3ls)。所以我知道我的信用、存储桶访问和整体Hadoop设置是有效的。hdfsdfs-lss3a://[bucket-name]/drwxrwxrwx-hdfshdfs02017-06-2722:4

amazon-web-services - Hadoop 配置单元无法在 AWS EMR 上扩展

我正在hadoophive上运行一个实验。在这个实验中,我在2个不同的硬件设置上运行相同的配置单元作业。它托管在AWSEMR中。这是我运行的hive.sql脚本:DROPDATABASEIFEXISTSlabtest;CREATEDATABASElabtest;CREATETABLEIFNOTEXISTSlaborder(InserttsTIMESTAMP,ordernrSTRING,PatientnrSTRING,visitnrSTRING)ROWFORMATSERDE'org.apache.hadoop.hive.serde2.OpenCSVSerde'WITHSERDEPROPE

Ef Core花里胡哨系列(4) 多租户

EfCore花里胡哨系列(4)多租户当然,我们要考虑设计问题,例如,切换Schema或者改变数据库时,EfCore同样也会刷新改实体的缓存,所以,首次查询将会很慢,不适合大表。基于Schema实现多租户在我的上一篇博客中[EfCore花里胡哨系列(3)动态修改实体对应的表(分表)、多租户]中我们实现了如何分表,同理,我们可以用近似的方法来切换表的Schema,只需要一点很小的改动。publicclassSampleDbContext(DbContextOptionsoptions):DbContext(options){protectedoverridevoidOnModelCreating(

hadoop - 如何知道 Amazon EMR 实例的 MIN_CONTAINER_SIZE?

如何在AmazonEMR集群上获取MIN_CONTAINER_SIZE的默认设置?因为我想通过这个公式来计算EMR上每个节点的内存使用情况RAM-per-container=max(MIN_CONTAINER_SIZE,(TotalAvailableRAM)/containers))谢谢! 最佳答案 在EMR4.x中,默认的最小容器大小为256M。但是上限将受到每个实例类型的节点管理器可用内存的限制(http://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/emr