草庐IT

flex-spark

全部标签

windows - 如何在 Windows 上访问 Spark 中的本地文件?

我在Windows上使用Spark。我知道在*nix中,访问本地文件代码是这样的:valtextFile=sc.textFile("file:///usr/local/spark/README.md")但是如何在Windows上访问本地文件?我尝试了以下方法:vallogFile="C:\spark-1.3.1-bin-hadoop2.4\README.md"vallogFile="file\\C:\spark-1.3.1-bin-hadoop2.4\README.md"但都行不通。 最佳答案 不幸的是,在Windows中你必须转义

php - 在 Windows 上安装 codeigniter sparks 管理器

已解决,请阅读帖子底部:我正在尝试按照officialinstructions在Windows上安装Sparks包管理器.发出此命令:php-r"$(curl-fsSLhttp://getsparks.org/go-sparks)"导致此错误消息:Parseerror:syntaxerror,unexpected':'inCommandlinecodeonline1如果我只在上述行中执行curl命令,即:curl-fsSLhttp://getsparks.org/go-sparks它回显位于URL上的php脚本。所以我认为问题是将curl输出管道传输到PHP以某种方式失败。我尝试了几种

java - 使用 Java 8 在 Windows 上调试 spark 进程

我可以使用cmd.exe中的命令在Windows上运行spark:setCLASS=org.apache.spark.deploy.SparkSubmit%SPARK_HOME%\bin\spark-class2.cmd%CLASS%--class"com.sel2in.TstFac"--masterlocal[4]target\scala-2.11\theApp_2.11-1.0.jar在spark-class2.cmd中要添加远程调试选项:setJOPTS=setJOPTS=-agentlib:jdwp=transport=dt_socket,server=y,address=80

windows - Spark WindowedApplication,监听keyUp事件

我有一个WindowedApplication,我需要监视keyUp以便我可以在按下转义键时关闭应用程序。但是,我的代码不起作用:似乎这个事件根本没有触发,我什至试图覆盖keyUpHandler并追踪一些信息,但没有。 最佳答案 我找到了thissimilarquestion在Adob​​e论坛上,它帮助解决了问题。我通过监听applicationComplete然后在处理程序中将keyUp监听器附加到stage来解决。 关于windows-SparkWindowedApplicatio

java - 无法在 Windows 10 上设置 Apache Spark 2.1.1

我已经在Windows10上安装了ApacheSpark2.1.1,Java1.8和Python版本3.6Anaconda4.3.1。我还下载了JAVA_HOME、HADOOP_HOME和SPARK_HOME的winutils.exe和设置环境变量,并更新了路径变量。我还运行了winutils.exechmod-R777\tmp\hive。但是在cmd提示符下运行pyspark时出现以下错误。请有人帮忙,如果我遗漏了任何重要细节,请告诉我提前致谢!c:\Spark>bin\pysparkPython3.6.0|Anaconda4.3.1(64-bit)|(default,Dec2320

windows - winutils spark windows 安装 env_variable

我正在尝试在Windows10上安装Spark1.6.1,到目前为止我已经完成了以下操作......下载spark1.6.1,解压到某个目录,然后设置SPARK_HOME下载scala2.11.8,解压到某个目录,然后设置SCALA_HOME设置_JAVA_OPTION环境变量从https://github.com/steveloughran/winutils.git下载了winutils只需下载zip目录,然后设置HADOOP_HOME环境变量。(不确定这是否不正确,因为权限被拒绝,我无法克隆该目录)。当我回到sparkhome并运行bin\spark-shell时,我得到了'C:\

Spark 下载安装配置详解文档 (spark-2.4.8-bin-hadoop2.7.tgz)

下载安装配置spark:官网地址:https://archive.apache.org/dist/spark/上传spark-2.4.8-bin-hadoop2.7.tgz 解压tar-zxvfspark-2.4.8-bin-hadoop2.7.tgz-C/opt/moudel/重命名mvspark-2.4.8-bin-hadoop2.7spark-2.4.8配置环境变量vim/etc/profile#SPARK_HOMEexportSPARK_HOME=/opt/moudel/spark-2.4.8exportPATH=$PATH:$SPARK_HOME/bin执行source/etc/pr

c - 如何在 Linux 上调试 LEX/FLEX 程序

如何在Linux上调试LEX/FLEX程序?编译运行代码如下:lexexample.lgcclex.yy.c-lfl./a.out-dtoken是否可以调试LEX/FLEX?如果是,我需要在代码中的哪一行编译? 最佳答案 您在flex命令行上使用-d(如lex-dexample.l——假设您的lex实际上是flex,它在linux上)。这将默认启用Debug模式,这将在识别每个token时打印出有关它的信息。您可以通过更改全局变量yy_flex_debug在词法分析器中动态打开和关闭Debug模式——将其设置为零将关闭调试打印,并将

windows - 带有 Hadoop 发行版的 Apache Spark 无法在 Windows 上运行

我尝试使用Cygwin在Windows上运行spark-1.5.1-bin-hadoop2.6发行版(以及具有相同结果的较新版本的Spark)。尝试在bin文件夹中执行spark-shell脚本时,我得到以下输出:错误:无法找到或加载主类org.apache.spark.launcher.Main我尝试将CLASSPATH设置为lib/spark-assembly-1.5.1-hadoop2.6.0.jar的位置,但无济于事。(仅供引用:我可以在我的MAC上运行相同的发行版,无需额外的设置步骤)请协助寻找在Windows上执行Cygwin的解决方案。 最佳答

python - 如何将 spark 与 python 或 jupyter 笔记本一起使用

我正在尝试在python中处理12GB的数据,我迫切需要使用Spark,但我想我太愚蠢了,不能自己使用命令行或使用互联网,这就是为什么我想我必须转向SO,所以到目前为止,我已经下载了spark并解压缩了tar文件或其他任何东西(对语言感到抱歉,但我觉得自己很愚蠢而且出局)但现在我无处可去。我在spark网站文档中看到了说明,上面写着:Spark还提供了一个PythonAPI。要在Python解释器中以交互方式运行Spark,请使用bin/pyspark但在哪里执行此操作?请帮忙。编辑:我正在使用Windows10注意::我在尝试安装某些东西时总是遇到问题,主要是因为我似乎无法理解命令提