草庐IT

COMPUTE_FRAMES

全部标签

java - Google Compute Engine 上 Hadoop 中的标准输出

我正在尝试调试在GoogleComputeEngine上的Hadoop上运行的程序作为.jar文件。我尝试在reducer代码中同时使用System.out.println()和context.write()进行调试输出,但无法在任何地方找到它们的输出。我能找到的唯一日志是我的Google存储桶gs:/my_bucket/yarn-logs/my_name/logs/application_#####中的日志和存储在$hadoop_install_dir$中的本地日志/logs/但它们都没有我正在寻找的输出。在以前的日志中,我可以看到我的log4j没有正确初始化,但我不确定这是否是问题

hadoop - Google Compute 引擎中的职位跟踪 URL 不起作用

我正在使用GoogleComputeEngine在Hadoop上运行Mapreduce作业(几乎所有默认配置)。在运行作业时,我得到一个形式为http://PROJECT_NAME:8088/proxy/application_X_Y/的跟踪URL但它无法打开。我是不是忘记配置什么了? 最佳答案 要详细说明在使用GoogleComputeEngineVM的“外部IP地址”的其他答案中提到的选项Amal,您可以通过运行gcloudcomputeinstancesdescribe--zone来获取外部IP地址。并寻找natIP.要打开端

hadoop - 无法在 Google Compute Engine 中安装 Hadoop

当我尝试从谷歌计算引擎“部署ApacheHadoop”时,我收到一条消息“部署将超过us-central1的CPU配额。限制:8。减少使用,选择另一个区域中的区域,或者请求增加配额。”我尝试了所有区域。它仍然无法正常工作。 最佳答案 如果您使用的是GCE免费试用版,则限制为8个并发CPU内核。这对所有地区和地区都是如此,因此尝试在不同的地区并不能解决这个问题。要运行更大的部署,您需要升级到付费帐户。或者,您可以使用GoogleCloudDataproc或bdutil至deployaHadoopcluster并选择一些较小的实例类型,

scala - SparkPi 程序在 Yarn/Spark/Google Compute Engine 下保持运行

在GoogleComputeEngine上部署了一个Hadoop(Yarn+Spark)集群,其中有一个主节点和两个从节点。当我运行以下shell脚本时:spark-submit--classorg.apache.spark.examples.SparkPi--masteryarn-cluster--num-executors1--driver-memory1g--executor-memory1g--executor-cores1/home/hadoop/spark-install/lib/spark-examples-1.1.0-hadoop2.4.0.jar10作业一直在运行,每

java - 在 Google Compute Engine 上成功安装 Oryx?

我正在尝试在GoogleComputeEngine上启动并运行Oryx。我创建了一个新实例并通过以下方式安装了Oryx:gitclonehttps://github.com/cloudera/oryx.gitcdoryxmvn-DskipTestsinstall并将此安装保存为GoogleComputeEngine上的图像(“oryx-image”)。查找Oryx和Google文件系统的问题(Hadoop2.4.1andGoogleCloudStorageconnectorforHadoop)我一直在使用hdfs://作为默认文件系统。发现在GoogleComputeEngine上启动

r - 如何使用 SparkR 的 as.DataFrame() 将大型 R data.frames 加载到 Spark 中?

我的目标是将大型Rdata.frame加载到Spark中。data.frame的大小是500万。各种类型的行和7列。一旦加载到R中,这个data.frame占用大约。200MB内存。但是,当我尝试使用as.DataFrame()函数将其加载到Spark中时,Rsession永远被占用,它已经运行了1小时,我不得不取消该操作。详情如下:我正在创建以下数据集以在此示例中使用:n=5e6#setsamplesized上面创建了一个示例data.frame大小,大约200mb:paste0("size:",round(as.numeric(object.size(d))/1000000,1),

hadoop - hadoop 集群上的 gcloud compute 权限不足

我在开发控制台上使用点击部署机制安装了hadoop集群。我对自定义设置做了一些修改,例如机器种类,机器数量。集群已部署。但是现在当我登录到master并运行以下命令时sudogcloudcompute防火墙规则列表我收到错误:权限不足我检查了主节点的权限,我看到了这个:权限用户信息-禁用,计算障碍存储满任务队列-禁用BigQuery-禁用CloudSQL-已禁用云数据存储-禁用云平台-禁用当我启动一个单独的虚拟机时,我可以为这些方面启用它的权限,但是当我启动一个集群时,我不能。这是我在hadoopmaster上看到权限错误的原因吗?如何修复?更多背景:我需要启用防火墙端口,以便我可以使

php - 想象 : Remove frames from an animated GIF?

我想了解如何从动画GIF中删除帧。目前我正在尝试这个(作为测试):$count=1;foreach($_imAS$frame){if($count>1){$frame->removeImage();}$count++;}然而,这似乎让对象中的所有东西都toast了。同事的建议是创建另一个IM对象,然后将名人提取到其中,等等。但这看起来非常困惑。 最佳答案 我一直在浏览Imagick一段时间的文档,并尝试了一些事情......但我也没有设法做你想要的-所以,我们至少有两个人找不到干净的方法^^无论如何,我设法删除动画GIF图像帧的唯一

android - 我怎样才能摆脱 "Skipped Frames. Application may be doing too much work on it' 的主线程“错误

我正在尝试运行构建我的应用程序的第一个示例,但在从主要Activity开始另一个Activity时遇到此错误。从System.out消息中,我可以看到sendMessage()方法由发送按钮的onClick调用,但从未调用显示消息Activity。logcat有这条消息-"03-2008:56:52.278:I/Choreographer(868):Skipped66frames!Theapplicationmaybedoingtoomuchworkonitsmainthread."这会一直打印,直到我终止模拟器。这是内存问题吗?我使用的是4GRamPC。MainActivity.ja

android - 编舞(639): Skipped 50 frames

04-1205:40:55.577:我/编舞(639):跳过了50帧!应用程序可能在其主线程上做了太多工作。每当我在android模拟器上运行我的应用程序时,它会显示忙碌(我的意思是它轮换)并且它确实花费了很多时间,而且有时它会一直很忙请问有人能帮帮我吗?有没有运行速度快的安卓模拟器我的运行速度很慢? 最佳答案 模拟器几乎在所有情况下都很慢。当您使用真实设备时,它可能不会再出现警告。无论如何,当过度使用UI线程时,就会发生这种情况。可能的原因是:在UI线程上加载数据库信息。使用Loader在UI线程上运行较长的进程。使用AsyncT