草庐IT

lzo_deflate

全部标签

php - 使用 PHP ob_start() 与 Apache Deflate/Gzip 压缩内容?

大多数网站都希望压缩其内容以节省带宽。然而,当涉及到运行PHP的apache服务器时,有两种方法可以做到-withPHP或与Apache。那么在您的服务器上哪一个更快或更容易?例如,在PHP中,我在页面的开头运行以下函数来启用它:/***Gzipcompresspageoutput*Originalfunctioncamefromwordpress.org*/functiongzip_compression(){//Ifnoencodingwasgiven-thenitmustnotbeabletoacceptgzippagesif(empty($_SERVER['HTTP_ACCEP

php - 使用 PHP ob_start() 与 Apache Deflate/Gzip 压缩内容?

大多数网站都希望压缩其内容以节省带宽。然而,当涉及到运行PHP的apache服务器时,有两种方法可以做到-withPHP或与Apache。那么在您的服务器上哪一个更快或更容易?例如,在PHP中,我在页面的开头运行以下函数来启用它:/***Gzipcompresspageoutput*Originalfunctioncamefromwordpress.org*/functiongzip_compression(){//Ifnoencodingwasgiven-thenitmustnotbeabletoacceptgzippagesif(empty($_SERVER['HTTP_ACCEP

java.io.IOException : No LZO codec found, 无法运行

我尝试在我的配置单元脚本中使用lzo,但收到此错误消息。看来我在类路径中没有lzo的类。以前有没有其他人遇到过这个问题,如何解决这个问题,也许我需要知道的是我在哪里可以获得lzo压缩的jar文件,thx。 最佳答案 Here是一些关于如何设置LZO压缩的详细说明。 关于java.io.IOException:NoLZOcodecfound,无法运行,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/qu

hadoop - 使用 Hadoop-LZO 构建 Java 项目但找不到类

我正在尝试构建一个简单的WordCountjar项目,该项目利用Hadoop-lzo库,但似乎无法使以下命令起作用,即使我引用的类位于hadoopclasspath中:$javac-cp`hadoopclasspath`*.javaLzoWordCount.java:76:cannotfindsymbolsymbol:classLzoTextInputFormatlocation:classLzoWordCountjob.setInputFormatClass(LzoTextInputFormat.class);^1error有什么想法吗? 最佳答案

hadoop - 是否有可用于 lzo 压缩二进制数据的 Scalding 源?

我正在使用ElephantBird's将序列化的Thrift记录写入文件可分割的LZO压缩。为此,我使用了他们的ThriftBlockWriter类。然后我的Scalding工作使用FixedPathLzoThrift源来处理记录。这一切都很好。问题是我仅限于单个Thrift类的记录。我想开始使用RawBlockWriter而不是ThriftBlockWriter[MyThriftClass]。因此,我的输入将是LZO压缩的原始字节数组,而不是LZO压缩的Thrift记录。我的问题是:我应该使用什么来代替FixedPathLzoThrift[MyThriftClass]?“protoc

Java Hadoop-lzo 已找到接口(interface),但类是预期的 LzoTextInputFormat

我正在尝试使用Hadoop-LZO包(使用步骤here构建)。似乎一切正常,因为我能够将我的lzo文件转换为索引文件(按预期返回big_file.lzo.index):hadoopjar/path/to/your/hadoop-lzo.jarcom.hadoop.compression.lzo.LzoIndexerbig_file.lzo然后我将在我的mapreduce作业中使用这些文件(使用big_file.lzo.index作为输入):importcom.hadoop.mapreduce.LzoTextInputFormat;....JobjobConverter=newJob(c

java - 合并 HDFS 中小于 128MB 的压缩 lzo 文件

我正在尝试将Kb大小的小型hdfs文件合并到128MB大小的文件中。所有这些kb大小的文件都是lzo压缩的任何人都可以帮忙吗?这是我到目前为止尝试过的方法。hadoopjar/opt/cloudera/parcels/CDH/jars/hadoop-streaming-2.6.0-cdh5.15.1.jar-Dmapred.reduce.tasks=10-Dmapred.reduce.output.compression.codec=lzo-Dmapred.output.compress=truemapred.output.compression.type=lzo-input"/use

hadoop - Sqoop 导出到 RDBMS .lzo .gz 文件超过 64 MB 加载重复

使用sqoop1.3尝试将hdfs输出导出到mysql表加载大小超过300MB的未压缩文件时一切正常但是在加载大小为75MB或79MB的压缩文件(.gz和.lzo)时,我看到加载到表中的行数翻了一番。当压缩文件的大小为60MB或更小时(猜测与64MB,block大小相关的东西),这不会发生。我在上述上下文中所做的一些操作:bash-3.2$ls-ltr-rw-r--r--1bhargavnbhargavn354844413Nov1602:27large_file-rw-rw-r--1bhargavnbhargavn15669507Nov2103:41small_file.lzo-rw-

hadoop - 如何使用 LZO 以外的压缩处理 Hadoop Map/Reduce 中的 Protocol Buffer 文件?

我想使用HadoopMap/Reduce来处理delimited使用LZO以外的东西压缩的ProtocolBuffer文件,例如xz或gzip。Twitter的elephant-bird库似乎主要支持读取LZO压缩的protobuf文件,因此似乎不能满足我的需求。是否有现有的库或标准方法来执行此操作?(注意:正如您从我选择的压缩算法中看到的那样,解决方案没有必要使protobuf文件可拆分。您的答案甚至不需要指定特定的压缩算法,但应该至少允许我提到的其中之一。) 最佳答案 您可能需要查看Hadoop的RAgzip补丁,以处理大型gz

hadoop - Faunus 测试在未找到 com.hadoop.compression.lzo.LzoCodec 时失败,HDP1.3

你好,我在HDP1.3上安装了Faunus0.32当我按照https://github.com/thinkaurelius/faunus/wiki/Getting-Started中的入门测试用例进行操作时,我遇到了以下错误gremlin>g=FaunusFactory.open('bin/faunus.properties')==>faunusgraph[graphsoninputformat->graphsonoutputformat]gremlin>g.V.type.groupCount13/09/2921:38:49WARNmapreduce.FaunusCompiler:Usi