草庐IT

language-yaml

全部标签

论文阅读:Large Language Models Are Zero-Shot Time Series Forecasters(2023NIPS)(LLMTime)

摘要文章涉及了两个时间序列的任务:forecasting,imputation.对于预测任务:通过将时间序列编码为一系列数字,可以将时间序列预测任务转化为文本里面的next-token预测任务。在大规模预训练语言模型的基础上,文章提出了一些方法用于有效编码时间序列数据,并将离散分布的编码转换成灵活的连续分布(分布转换部分涉及到诸多统计学知识)。在数值补全任务中,文章展示了语言模型(LLMs)如何通过非数值文本自然处理缺失数据,无需插补,如何适应文本侧面信息,并回答问题以帮助解释预测。方法文章提出了LLMTime模型https://unit8co.github.io/darts/generate

21、LiDAR-LLM: Exploring the Potential of Large Language Models for 3D LiDAR Understanding

简介官网 将原始LiDAR数据作为输入,利用LLMs卓越的推理能力,来获得对室外3D场景的全面了解,将3D户外场景认知重构为语言建模问题,如3Dcaptioning,3Dgrounding,3Dquestionanswering。实现流程 给定LiDAR输入L∈Rn×3L\in\R^{n\times3}L∈Rn×3,n是点的数量,使用VoxelNet获取LiDARFeature,考虑到计算成本,沿着z轴展平特征以生成鸟瞰图(BEV)FeatureFv∈Rc×h×wF_v\in\R^{c\timesh\timesw}Fv​∈Rc×h×w,对于最大m个字符的文本输入T,使用LLaMA进行文本特征提

论文解读:Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models

论文解读:Siren’sSongintheAIOcean:ASurveyonHallucinationinLargeLanguageModels核心要点针对大模型幻觉问题进行综述,从detection、explanation和mitigation三个方面进行介绍;对幻觉现象和评估基准进行归纳,分析现有的缓解幻觉的方法,讨论未来潜在的研究发展相关文献整理:https://github.com/HillZhang1999/llm-hallucination-survey一、什么是大模型的幻觉大模型幻觉的三种类型:生成的内容与输入存在冲突:Input-conflictinghallucination

python第三方模块之yaml模块

安装:pipinstallPyYamlPyYaml5.1之后,通过禁止默认加载程序(FullLoader)执行任意功能,该load函数也变得更加安全。使用:config.yaml-10-20-30-40-50---name:ccage:

Python解析YAML: PyYAML详解

YAML(YAMLAin'tMarkupLanguage)是一种轻量级、人类可读的数据序列化格式,经常用于配置文件、元数据和数据交换。在Python中,有多个库可用于解析和生成YAML数据,其中最常用的是PyYAML。1.安装PyYAML首先,需要安装PyYAML库。使用pip来安装它:pipinstallpyyaml2.解析YAML文件2.1使用pyyaml库PyYAML库提供了一种便捷的方法来解析YAML文件。以下是一个读取YAML文件并访问其中配置数据的示例:importyaml#读取YAML文件withopen('config.yaml','r')asyaml_file:config=

【联邦学习-大模型论文】Federated Large Language Model : A Position Paper

题目FederatedLargeLanguageModel:APositionPaper作者ChaochaoChen,XiaohuaFeng,JunZhou,JianweiYin,XiaolinZheng来源arXiv主要工作FL与LLM结合的一个探索,从三个阶段来说明FL怎么和LLM结合其他摘要大规模语言模型(LLM)受到了广泛的关注,并应用在各个领域,但它们在现实场景中的发展面临挑战。这些挑战源于公共领域数据稀缺以及在私有领域数据方面需要维护隐私。为了解决这些问题,联邦学习(FL)已成为一项有前景的技术,它能够在保留分散数据的同时实现共同训练共享模型。我们提出了联邦大规模语言模型的概念,其

pytest + yaml 框架 -60.git+jenkins+allure+钉钉通知反馈

前言当我们自动化用例写完后,接下来就是如何运行用例,生成报告以及反馈通知了。如果你们公司已经有jenkins了,那么直接集成到jenkins上构建你的自动化任务是非常方便的。用例上传git仓库第一步,将写好的自动化用例,上传到本公司的git仓库。jenkins自动拉取仓库代码在jenkins上创建一个自由风格的项目源码管理,添加git自动化项目地址构建步骤执行pytest命令,生成allure报告生成allure报告插件管理搜索:allure,安装allure插件系统管理-全局工具管理,安装allure命令行工具构建后操作,添加allure报告,报告地址跟前面一步--alluredir设置的地

【NPL】自然语言处理(Natural Language Processing,NLP)的发展简述

大家好,我是全栈小5,欢迎阅读文章!此篇是【话题达人】序列文章,这一次的话题是《自然语言处理的发展》文章将以博主的角度进行讲述,理解和水平有限,不足之处,望指正。目录背景发展线路研发关键词背景随着深度学习和大数据技术的进步,自然语言处理取得了显著的进步。人们正在研究如何使计算机更好地理解和生成人类语言,以及如何应用NLP技术改善搜索引擎、语音助手、机器翻译等领域。发展线路自然语言处理(NaturalLanguageProcessing,NLP)是人工智能(AI)领域的重要分支,旨在使计算机能够理解、解释和生成人类语言。自然语言处理的发展经历了几个重要的阶段1.早期阶段(1950年代-1980年

k8s关于pod的metadata、spec.containers、spec.volumes的属性介绍(yaml格式)

目录一.metadata常用属性二.spec.containers子属性介绍explainpod.spec.containers给出的参考1.command示例演示2.env和envFrom示例演示3.ports部分详解4.resources部分详解5.startupProbe格式演示6.terminationMessagePath和terminationMessagePolicy格式演示7.volumeDevices格式演示8.volumeMounts格式演示三.spec.volumes子属性介绍 一.metadata常用属性[root@k8s-masterpod]#kubectlexpla

【论文阅读】Jailbreak and Guard Aligned Language Modelswith Only Few In-Context Demonstrations

 对齐语言模型的通用和可迁移对抗攻击 论文地址:https://arxiv.org/abs/2310.063871.Motivation之前的越狱攻击方法可以通过对有害请求添加对抗前缀或后缀来破解对齐的LLM,以产生有害的答案。然而,由于这些前/后缀的不自然性,这些对抗性prompt可以通过简单的困惑检测器轻松防御。本文提出是否可以利用LLM的上下文学习(ICL)能力来使用自然语言越狱LLMs。利用模型的上下文学习能力,我们可以通过首先向LLM展示另一个有害的查询-答案演示来诱导LLM生成所需的内容。此外,由于这个对抗演示也使用自然语言,因此上下文攻击也更加隐蔽,更难被发现2. MethodI