草庐IT

source_filename

全部标签

ios - 音频单元 : Use sound output as input source

我想处理来自iOS设备的立体声输出,无论是什么应用程序导致它们并实时可视化。是否可以使用通用输出设备(或其他任何设备)获取当前正在播放的音频数据?也许作为remoteIO单元的输入?换句话说:我想做什么aurioTouch2做(仅FFT)但不是使用麦克风作为输入源,我想处理在给定时间从扬声器发出的一切。亲切的问候 最佳答案 如果您自己的应用正在使用RemoteIO音频单元播放,您可以捕获该内容。您无法使用许多其他音频API捕获您的应用正在播放的音频。iOS安全沙箱将阻止您的应用捕获任何其他应用正在播放的音频(除非该应用通过Inter

eclipse - Hadoop 2 : Setting up Hadoop 2 code in eclipse to modify source code and run/test?

我想获取最新版本的Hadoop(YARN/Hadoop2)并通过更改一些底层代码来试用它。我想知道是否有人可以提供有关在eclipse上设置这样一个Hadoop开发环境的分步指南,我可以在其中更改代码、编译它然后在我的本地机器上安装/测试它?我是Hadoop方面的新手,我确实设法在网上找到了一些指南,但它们之间似乎非常不同,我不知道我应该遵循哪一个以及为什么等等,所以任何提示或资源将不胜感激。谢谢 最佳答案 看看你是否觉得这有用,我已将其添加为书签http://wiki.apache.org/hadoop/EclipseEnviro

hadoop - 使用 cloudera quickstart 的 Flume Avro Sink Source

是否可以在Cloudera-Quickstart-CDH-VM中使用AvroSink/Source设置FlumeClient-Collector-Structure?我知道没有实际用途,但是我想了解Flume如何与Avro文件一起使用以及我以后如何将它们与PIG等一起使用。它尝试了几种配置,但没有一种有效。对我来说,我似乎需要多个代理,但虚拟机中只能有一个。我最后尝试的是:agent.sources=readeravro-collection-sourceagent.channels=memoryChannelmemoryChannel2agent.sinks=avro-forward

hadoop - 水槽 :Exec source cat command is not writing on HDFS

我正在尝试使用Flume-ng将数据写入Hdfs作为exec源。但它总是以退出代码127结束。它还显示类似警告无法从VM获取maxDirectMemory:NoSuchMethodException:sun.misc.VM.maxDirectMemory(null)。这是exec.conf文件execAgent.sources=eexecAgent.channels=memchannelexecAgent.sinks=HDFSexecAgent.sources.e.type=org.apache.flume.source.ExecSourceexecAgent.sources.e.ch

hadoop - 为单个 MapReduce 作业指定 'mapreduce.jobtracker.hosts.filename'

集群中添加了一些节点。我的M/R作业在其中任何一个上执行时都失败了。确切原因尚不清楚,需要几天时间才能找到解决方案,因此我正在寻找临时解决方法。有没有办法在作业级别排除这些节点(mapreduce.jobtracker.hosts.exclude.filename)?或者将旧的工作节点列入白名单(mapreduce.jobtracker.hosts.filename)? 最佳答案 您可以将以下属性设置为2mapred.max.tracker.failures2并且它将在这些节点上使作业2失败两次并在其他地方继续

java - Hadoop 映射 : attach sources howto

我使用:org.apache.avroavro-mapred1.7.4hadoop2问题:如何将源附加到该类? 最佳答案 你可以添加另一个依赖,使用sourcesclassiferorg.apache.avroavro-mapred1.7.4jarsources参见therepo.您还可以获得javadoc。 关于java-Hadoop映射:attachsourceshowto,我们在StackOverflow上找到一个类似的问题: https://stack

windows - Windows 上的 Hadoop : Not a valid DFS filename

我在Windows上配置了Hadoop2.7.2,我可以看到名称节点、数据节点、资源管理器和节点管理器正常运行,当我尝试运行作为示例提供的mapreduce程序之一时出现问题.请在下面找到我正在运行的命令c:\hdp\bin\yarnjarc:\hdp\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.7.2.jarwordcountc:\hdp\LICENSE.txt/out我可以看到所有文件都位于所需位置。请在堆栈跟踪下方找到:C:\WINDOWS\system32>c:\hdp\bin\yarnjarc:\hdp\share\h

java - Hadoop-级联: Partial directory source tap

我的数据结构如下:+data|-2014080700_00.txt|-2014080700_01.txt|-2014080701_00.txt|-...|-2014080723_00.txt|-2014080800_00.txt|-...|-2014090800_00.txt我知道我可以通过Tap使用数据目录中的所有文件,如下所示:TapinTap=newHfs(newTextLine(),"/path/to/data");但我想要目录的特定部分,例如日期为20140807的文件。因此它将包括所有前缀为20140807的文件。有没有办法用级联来做到这一点?或者有什么方法可以烫一下吗?

hadoop - 错误配置单元(使用 Derby): Source tables cannot be empty

我刚开始使用Hive,遇到一个错误需要您的帮助。在等待一段时间后,当我尝试创建一个新数据库时,它发生了:hive>CREATEDATABASETest;(编辑:我对“SHOWTABLES”有同样的看法)我明白了:Exceptioninthread"main"java.lang.AssertionError:Sourcetablescannotbeemptyatorg.apache.hadoop.hive.ql.hooks.EnforceReadOnlyTables.(EnforceReadOnlyTables.java:46)atjava.lang.Class.forName0(Nat

linux - 异常(exception)如下。 org.apache.flume.FlumeException : Unable to load source type in flume twitter analysis 异常

我正在尝试使用Flume和Hive进行Twitter分析。为了从twitter获取推文,我在flume.conf文件中设置了所有必需的参数(consumerKey、consumerSecret、accessToken和accessTokenSecret)。TwitterAgent.sources=TwitterTwitterAgent.channels=MemChannelTwitterAgent.sinks=HDFSTwitterAgent.sources.Twitter.type=com.cloudera.flume.source.TwitterSourceTwitterAgent