草庐IT

compression

全部标签

css - 无法让我的网站压缩工作

我正在尝试为我网站的css和js文件设置压缩。我已经为我的.htaccess文件尝试了许多设置组合。这是它现在的样子:#CompressHTML,CSS,JavaScript,Text,XMLandfontsAddOutputFilterByTypeDEFLATEapplication/javascriptAddOutputFilterByTypeDEFLATEapplication/rss+xmlAddOutputFilterByTypeDEFLATEapplication/vnd.ms-fontobjectAddOutputFilterByTypeDEFLATEapplicatio

javascript - PageSpeed Insights (node.js) 未检测到 gzip 压缩

我用gulp(gulp-gzip)构建我的gzip文件,并将它们与npm包connect-gzip-static一起使用:varapp=express();varserveStatic=require('connect-gzip-static');//...app.use(serveStatic(__dirname)).listen(3000);但是,PageSpeedInsights不检测gzip压缩。但googlechrome开发人员控制台显示:响应header:内容编码:gzip。其他seo测试工具也在检测gzip。为什么Google不这样做?我压缩了所有html、js、css。

seo - PageSpeed Insights 看不到 Gzip 压缩

我正在尝试加速我的网站。Googleinsights(https://developers.google.com/speed/pagespeed/insights)告诉我一个关键问题是启用GZip压缩。网站地址是http://user2.net它基于codeigniter框架。我启用了gzip压缩,并对我的.htaccess文件进行了以下更改:AddOutputFilterByTypeDEFLATEtext/plainAddOutputFilterByTypeDEFLATEtext/htmlAddOutputFilterByTypeDEFLATEtext/xmlAddOutputFil

c++ - 用公共(public)部分压缩字符串

我有一个管理大量字符串的应用程序。字符串是一种类似路径的格式,有很多共同的部分,但没有明确的规则。它们不是文件系统上的路径,但可以这样考虑。我显然需要优化内存消耗,但又不能牺牲很大的性能。我正在考虑2个选项:-实现一个compressed_string类来存储压缩数据,但我需要一个固定的字典,我现在找不到一个库。我不想要字节上的霍夫曼,我想要文字上的。-在字符串部分实现某种享元模式。这个问题看起来很常见,我想知道最好的解决方案是什么,或者是否有人知道针对这个问题的库。谢谢 最佳答案 虽然针对您的问题调整特定算法可能很诱人,但这可能需

c++ - C/C++ 的压缩库能够处理数组中超过 32 位的元素

我有一个问题,因为我需要压缩大约6GB的std::vector()(其中包含15亿个float),甚至更高到现在我已经使用了lz4,但它只处理int计数的char。由于我的vector中有60亿个字符,因此需要33位来表示,并且使用LZ4进行压缩无法正常工作。从我在zlib库中看到的情况来看,它接受int以及压缩数据长度的输入。我是否需要对我的数据进行分段,或者是否有一个框架能够处理超过32位的char,或者我是否遗漏了什么? 最佳答案 使用zlib,并将数组作为几个block传入。zlib使用的DEFLATE算法窗口大小约为32K

C++ LZMA SDK : Uncompress function for LZMA2 compressed file

我正在尝试创建一个解压缩LZAM2压缩数据的函数。我的灵感来自thistutorial这对LZMA非常有效,我尝试将其改编为LZMA2。我成功地为LZMA2创建了压缩函数,但我没有成功创建解压缩函数。这里是压缩函数:staticvoidCompress2Inc(std::vector&outBuf,conststd::vector&inBuf){CLzma2EncHandleenc=Lzma2Enc_Create(&SzAllocForLzma,&SzAllocForLzma2);assert(enc);CLzma2EncPropsprops;Lzma2EncProps_Init(&p

c++ - 如何以位字节序将数字转换为字节数组

我正在尝试使用zlibAPI解压缩在VB6中创建的一些数据。我读过qUncompress函数可以做到这一点:http://doc.trolltech.com/4.4/qbytearray.html#qUncompress我已经通过readRawBytes从QDataStream读取数据到一个char数组,然后我将其转换为QByteArray以进行解压。我具有压缩长度和预期的解压缩长度,但没有得到从qUncompress返回的任何内容。但是,我需要以大端格式在预期的解压缩长度前添加。有没有人这样做过并举个例子? 最佳答案 我很久没有使

c++ - append 到 gzip 压缩的 Tar-Archive

我写了一个程序,生成一个tarball,它被zlib压缩。每隔一段时间,同一个程序应该向tarball添加一个新文件。根据定义,tarball需要空记录(512字节block)才能在它的末尾正常工作,这已经表明了我的问题。根据文档gzopen无法在r+模式下打开文件,这意味着我不能简单地跳转到空记录的开头,append我的文件信息并用空记录再次密封。现在,我已经束手无策了。只要不涉及空记录,append就可以在zlib上正常工作,但我需要它们来“完成”我的压缩tarball。有什么想法吗?啊,是的,如果我能避免解压整个东西和/或解析整个tarball,那就太好了。我也对我可以实现的其他

c++ - 使用 boost iostreams 读取和写入数组到压缩文件

我想将一个数组写入一个文件,边写边压缩它。稍后,我想从该文件中读取数组,边解压边解压。Boost的Iostream似乎是一个不错的选择,所以我构建了以下代码。不幸的是,输出和输入数据最后比较不相等。但他们几乎做到了:OutputInput0.84018772840.84018802640.39438292380.39438301320.78309923410.78309899570.79844003920.79843997960.91164737940.91164702180.19755136970.19755099710.33522275090.3352229893这表明每个floa

c++ - 更好的 vector 数据压缩算法?

我需要压缩一些空间相关的数据记录。目前我使用zlib获得1.2x-1.5x压缩,但我认为应该有可能获得更接近2x的压缩。数据记录有各种字段,但例如,zlib似乎无法压缩点列表。这些点代表道路网络。它们是XXXXYYYY形式的定点4字节整数对。通常,如果单个数据block有100个点,则X和Y的前两个字节(空间相关)的组合只会很少。但是底部字节总是在变化,并且对于zlib来说必须看起来像随机数据。同样,记录具有4字节ID,往往具有恒定的高字节和可变的低字节。是否有另一种算法能够更好地压缩这种数据?我正在使用C++。编辑:请不要再提出更改数据本身的建议。我的问题是关于自动压缩算法。如果有人