草庐IT

清华园

全部标签

ICLR 2024接收率31%,清华LCM论文作者:讲个笑话,被拒了

ICLR2024国际学习表征会议已经来到了第十二届,将于今年5月7日-11日在奥地利维也纳会展中心举行。在机器学习社区中,ICLR是较为「年轻」的学术顶会,它由深度学习巨头、图灵奖获得者YoshuaBengio和YannLeCun牵头举办,2013年才举办了第一届。不过ICLR很快获得学术研究者们的广泛认可,被认为是深度学习顶会。在GoogleScholar的学术会议/杂志排名中,ICLR目前排名第十位,要高于NeurIPS。今日,ICLR2024将录用结果陆续通知了论文提交者。本届会议共收到了7262篇提交论文,整体接收率约为31%,与去年持平(31.8%)。此外Spotlights论文比例

ubuntu系统(2):ubuntu20.04更换为国内清华源

目录一、sudoaptinstallXX时提示找不到软件包或timeout二、更新为国内清华源1、根据自己的虚拟机版本选择源码源2、修改配置文件3、更新其中的源网址4、更新软件列表和升级一、sudoaptinstallXX时提示找不到软件包或timeout二、更新为国内清华源1、根据自己的虚拟机版本选择源码源ubuntu|镜像站使用帮助|清华大学开源软件镜像站|TsinghuaOpenSourceMirrorlsb_release-a//查看ubuntu版本我的是20.04版本。复制下面的这段代码。2、修改配置文件vi/etc/apt/sources.list3、更新其中的源网址不建议现在的大

数据结构(期末复习篇) 清华大学出版社

第一章绪论1.1什么是数据结构1.1.1数据结构的定义数据:描述客观事物的数和字符的集合数据元素:数据的基本单位数据对象:性质相同的数据元素的集合,是数据的一个子集数据结构:数据元素以及数据元素之间的关系,可以看作互相之间有着特定关系的集合1.1.2逻辑结构1.逻辑结构的表示一 、 图标表示   采用图表来进行表示逻辑关系二、  二元组  一种数据逻辑结构表示方式B=(D, R)  D:数据元素的集合R:关系的集合在R之中有一个关系r是序偶的集合,对于r中任意序偶,表示x与y相邻x为y的前驱元素       y为x的后继元素x没有前驱元素为开始元素y没有后继元素为终端元素注意:矩阵中r进行的描

2024 CSRankings全球计算机科学排名发布!AI领域中国高校霸榜,清华排名第一

【导读】CSRankings2024结果出炉!全世界计算机科学机构的排名进行了大更新。在AI板块,清华、北大、上交分列TOP3,CMU和浙大并列第4。AITOP10中的中国高校,还包括人大、南京大学、复旦大学、哈工大等。2024CSRankings全球计算机科学排名,刚刚发布!全球CS排名中,中国高校/机构包揽了多个席位,其中CMU第一,清华第二,上交第3,北大第4。就AI领域的世界TOP10排名来看,中国表现非常亮眼,共有8所高校/机构进入全球前十(包含并列排名)。2024年AI领域世界高校/机构排名中,最值得关注的一点是,中国科学学院跌出了世界前十(2023年排第8)。CSRankings

清华镜像源的使用(Python必备之物)

清华镜像源的地址为https://pypi.tuna.tsinghua.edu.cn/simple因此,下载各种各样的包可以这样使用清华镜像源pipinstall-ihttps://pypi.tuna.tsinghua.edu.cn/simple***其中,***表示我们所需要下的包。注:梯子不能与清华镜像源同时开,使用清华镜像源一定要关闭梯子。

SelfOcc:首篇纯视觉环视自监督三维占有预测(清华大学)

本文经自动驾驶之心公众号授权转载,转载请联系出处。写在前面&笔者的个人理解三维场景标注通常需要耗费大量的人力物力财力,是制约自动驾驶模型训练迭代的一大瓶颈问题,从大量的二维视频中自监督地学习出有效的三维场景表示是一个有效的解决方案。我们提出的SelfOcc通过使用NeRF监督首次实现仅使用视频序列进行三维场景表示(BEV或TPV)学习。SelfOcc在自监督单目场景补全、环视三维语义占有预测、新视角深度合成、单目深度估计和环视深度估计等任务上均取得了SOTA的性能。SelfOcc的相关背景自监督3D占用预测在当前的自动驾驶技术领域,以视觉为核心的系统通常依赖于精细的三维(3D)标注来学习有效的

一句话精准视频片段定位!清华新方法拿下SOTA|已开源

只需一句话描述,就能在一大段视频中定位到对应片段!比如描述“一个人一边下楼梯一边喝水”,通过视频画面和脚步声的匹配,新方法一下子就能揪出对应起止时间戳:就连“大笑”这种语义难理解型的,也能准确定位:方法名为自适应双分支促进网络(ADPN),由清华大学研究团队提出。具体来说,ADPN是用来完成一个叫做视频片段定位(TemporalSentenceGrounding,TSG)的视觉-语言跨模态任务,也就是根据查询文本从视频中定位到相关片段。ADPN的特点在于能够高效利用视频中视觉和音频模态的一致性与互补性来增强视频片段定位性能。相较其他利用音频的TSG工作PMI-LOC、UMT,ADPN方法从音频

首创pix2emb范式!NUS清华联合发布NExT-Chat:对话/检测/分割全能多模态大模型

随着ChatGPT的爆红,多模态领域也涌现出一大批可以处理多种模态输入的对话模型,如LLaVA,BLIP-2等等。为了进一步扩展多模态大模型的区域理解能力,近期新加坡国立大学NExT++实验室和清华大学的研究人员联手打造了一个可以同时进行对话和检测、分割的多模态模型NExT-Chat。作者:张傲,姚远,吉炜,刘知远,ChuaTat-Seng多模态对话模型Demo:https://next-chatv.github.io/论文:https://arxiv.org/pdf/2311.04498.pdf代码:https://github.com/NExT-ChatV/NExT-Chat文章探索了如何

程序员面试笔试通关宝典系列丛书(由清华大学出版社出版)

程序员面试笔试通关宝典系列——编程职场成功的必备秘籍由清华大学出版社出版的专为编程爱好者和职业开发者打造的“程序员面试笔试通关宝典”系列丛书。该系列包含五本专业指南,覆盖数据库、Java、前端、通用编程和Python五个领域。这些书籍深度解析各领域的核心技术,包括数据库理论、Java高级特性、前端现代框架、编程基础与进阶知识以及Python语言艺术。每本书都融入了实战笔试题和面试技巧,并有行业资深专家的深度解读和经验分享。无论你是编程新手还是寻求职业突破的资深开发者,这套系列都将为你提供强大的支持。它将帮助你提升理论与实践能力,从容应对各种面试和笔试挑战,助力你在编程职业生涯中取得成功。选择“

让机器人感知你的「Here you are」,清华团队使用百万场景打造通用人机交接

来自清华大学交叉信息研究院的研究者提出了「GenH2R」框架,让机器人学习通用的基于视觉的人机交接策略(generalizablevision-basedhuman-to-robothandoverpolicies)。这种可泛化策略使得机器人能更可靠地从人们手中接住几何形状多样、运动轨迹复杂的物体,为人机交互提供了新的可能性。随着具身智能(EmbodiedAI)时代的来临,我们期待智能体能主动与环境进行交互。在这个过程中,让机器人融入人类生活环境、与人类进行交互(HumanRobotInteraction)变得至关重要。我们需要思考如何理解人类的行为和意图,以最符合人类期望的方式满足其需求,将