草庐IT

论文阅读笔记Binary Code Summarization: Benchmarking ChatGPT/GPT-4 and Other Large Language Models

摘要二进制代码总结,虽然对于理解代码语义非常有价值,但由于其劳动密集的特性,具有挑战性。本研究深入探讨了大型语言模型(LLMs)在理解二进制代码方面的潜力。为此,作者提出了BinSum,一个包含超过557,000个二进制函数的全面基准和数据集,并引入了一种新颖的提示合成和优化方法。为了更准确地衡量LLM的性能,作者还提出了一种超越传统精确匹配方法的新语义相似度度量。作者对知名LLM进行了广泛评估,包括ChatGPT、GPT-4、Llama2和CodeLlama,揭示了10个关键见解。此评估生成了40亿推理令牌,总费用为11,418美元,使用了873个NVIDIAA100GPU小时。作者的发现突

102、X^3 : Large-Scale 3D Generative Modeling using Sparse Voxel Hierarchies

简介官网 Nvidia2023提出的一种新的生成模型,可生成具有任意属性的高分辨率稀疏3D体素网格,以前馈方式生成数百万体素,最细有效分辨率高达102431024^310243,而无需耗时的test-time优化,使用一种分层体素潜扩散模型,使用建立在高效VDB数据结构上的自定义框架,以从粗到细的方式生成逐步更高的分辨率网格。XCube在100m×100m规模的大型户外场景中的有效性,体素大小小至10cm。实现流程 目标是学习一个以稀疏体素层次表示的大规模3D场景的生成模型,由L层由粗到细的体素网格组成G={G1,⋅,GL}G=\{G_1,\cdot,G_L\}G={G1​,⋅,GL​}及其相

【FunASR】Paraformer语音识别-中文-通用-16k-离线-large-onnx

模型亮点模型文件:damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorchParaformer-large长音频模型集成VAD、ASR、标点与时间戳功能,可直接对时长为数小时音频进行识别,并输出带标点文字与时间戳:ASR模型:Parformer-large模型结构为非自回归语音识别模型,多个中文公开数据集上取得SOTA效果,可快速地基于ModelScope对模型进行微调定制和推理。热词版本:Paraformer-large热词版模型支持热词定制功能,基于提供的热词列表进行激励增强,提升热词的

hadoop - pig : how to efficiently LOAD and FILTER a large dataset?

我有一个大型数据集,分成许多200GB的block。目前,我正在努力使用Pig处理数据。事实上,我的集群很小(4个节点)。我认为一个可能的瓶颈是当我加载数据时,因为我只需要我拥有的2TB数据中的一小部分。具体来说,我想知道是否加载整个数据集,然后过滤A=load‘data_part*’as(x,y);A=FILTERAbyx>0效率低于加载每个block,过滤每个block并将所有内容附加在一起A1=load‘data_part1’as(x,y);A1=FILTERA1byx>0A2=load‘data_part2’as(x,y);A2=FILTERA2byx>0A=UNIONA1,A

hadoop - pig : Splitting large large file into multiple smaller files

我需要拆分由另一个Pig脚本生成的输出部分文件,并生成每个包含1000行的组。这些组将发布到网络服务以供进一步处理。数据之间没有关系,所以我无法将数据分组到特定字段。我如何在Pig中执行此操作? 最佳答案 如果拆分与数据无关,为什么还要使用Pig或MapReduce?作为替代方案,如果我没有误解的话,您可以只使用标准拆分程序来拆分数据。例如:catpart-*|split-d-l1000-result- 关于hadoop-pig:Splittinglargelargefileintomu

Vary: Scaling up the Vision Vocabulary for Large Vision-Language Models ----论文阅读

Vary预备知识CLIPQwen-7BVicuna-7B简介模型产生新视觉词表新词汇网络数据输入格式融合新视觉词表Vary-base结构数据对话格式模型输出结果示例结论Vary的代码和模型均已开源,还给出了供大家试玩的网页demo。感兴趣的小伙伴可以去试试主页:https://varybase.github.io/部分内容参考:https://mp.weixin.qq.com/s/Sg_yHAVVN-yAYT61SNKvCA预备知识CLIP官网:https://openai.com/research/clip(要了解的建议看这个,篇幅少点,论文中大量篇幅是介绍实验的)论文:https://ar

解决Git Large File Storage (LFS)问题:一步一步的教程

在这篇博客中,我们将探讨如何处理GitLargeFileStorage(LFS)的一些常见问题。GitLFS是一种用来处理大型文件的Git扩展,它可以让你更轻松地管理大型二进制文件,如图像、音频和视频文件,存储GIS中的.tif,.csv等数据文件有重要作用。1.引言在使用Git和GitHub进行版本控制时,我们可能会遇到一些关于大文件的问题。GitHub对文件的大小有限制,单个文件大小不能超过100MB。如果你尝试上传超过这个大小的文件,你会遇到错误。GitLFS是解决这个问题的一个好方法。2.安装GitLFS首先,你需要在你的系统上安装GitLFS。你可以从GitLFS的官方网站下载并安装

[论文阅读笔记] TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models

一、论文信息1论文标题TRACE:AComprehensiveBenchmarkforContinualLearningInLargeLanguageModels2发表刊物arXiv20233作者团队复旦大学4关键词Benchmark、ContinualLearing、LLMs二、文章结构#mermaid-svg-AWUENWtk6KXhB7b8{font-family:"trebuchetms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-AWUENWtk6KXhB7b8.error-icon{fill:#5

php - PHP 中的 "Regular Expression is too large"错误

我正在研究一个相对复杂且非常大的正则表达式。目前是41,127个字符,并且可能会随着额外案例的添加而有所增加。我开始在PHP中遇到此错误:preg_match_all():Compilationfailed:regularexpressionistoolargeatoffset41123有没有办法增加大小限制?以下其他地方建议的设置不起作用,因为这些设置适用于数据大小而不是正则表达式大小:ini_set("pcre.backtrack_limit","100000000");ini_set("pcre.recursion_limit","100000000");或者,是否有一种方法可以

php - 处理此 : large download via PHP + slow connection from client = script timeout before file is completely downloaded 的最佳方法是什么

我的客户想要一种向用户提供下载的方法,但前提是他们填写注册表(主要是姓名和电子邮件)。将向用户发送一封电子邮件,其中包含可下载内容的链接。这些链接包含包、文件和用户独有的注册哈希,它们实际上会转到一个PHP页面,该页面记录每次下载并通过将文件写入标准输出(连同适当的header)将文件推出。该解决方案存在固有缺陷,但这就是他们想要的方式。需要说明的是,我向他们施加了很大的压力,以1.)限制可下载文件的大小和2.)考虑使用CDN(他们有国际客户,但托管在美国在2个镜像服务器和一个使用粘性IP的负载平衡器上)。无论如何,它“对我有用”,但他们的一些国际客户的连接速度非常慢(d/l速率约为6