草庐IT

伯恩斯坦

全部标签

人类沦为工具人!斯坦福机器人“吸星大法”:从演示中转移技能,400美元打破训练数据悖论...

梦晨西风发自凹非寺量子位|公众号QbitAI斯坦福最新“技能转移”大法,让人类沦为给机器人提供训练数据的工具人。小哥拿上机械手做示范,机器人就能从收集到的数据中学会刷碗,并且能随机应变。打开水龙头、抓取盘子、用百洁布清洗一气呵成,外界干扰使坏也不怕。整套系统从硬件到代码完全开源,成本只需400美元,就可以在没有机器人的情况下收集训练机器人所需数据。更详细的3D打印、组装教程视频也即将发布。要知道,在这项工作之前要想大规模训练机器人belike:对此,李飞飞团队具身智能成果VoxPoser一作黄文龙表示:惊人的工作,破解了机器人数据收集中的先有鸡先有蛋难题。有网友觉得,这项工作和之前爆火的斯坦福

斯坦福大学全能家政服务机器人Mobile ALOHA以及“小群体大智慧”Zooids集群机器人

斯坦福大学成功研发出低成本自主进化克隆人类行为和任务的能力全能型家政服务机器人。原文标题:【MobileALOHA-LearningBimanualMobileManipulationwithLow-CostWhole-BodyTeleoperation】论文链接:【MobileALOHA(mobile-aloha.github.io)】。以及由斯坦福大学和法国国家信息与自动化研究所的Aviz团队等共同研发SwarmRobotZooids群体协作机器人。Zooids的名字来源于一种无脊椎的群聚动物,也象征着这堆机器人需要合作才能完成一些事情。斯坦福大学MobileALOHA全能型家政服务机器人

java - 找不到斯坦福 C++ 库的文件 'spl.jar'

我想参加斯坦福大学的CS106b/CS106x类(class),但在Qt中成功运行C++示例项目时遇到问题。到目前为止,我可以构建项目,但是当我尝试运行它时,始终显示以下错误消息:******STANFORDC++LIBRARYERROR:***Unabletofindthefile'spl.jar'fortheStanford***C++library'sJavaback-endprocess.***Pleasemakesurethatspl.jarisproperlyattachedtoyourproject.***Ifyouaretryingtorunastand-aloneex

斯坦福 Mobile Aloha 开源ACT代码复现教程

0.项目地址:MobileALOHAGitHub-MarkFzp/act-plus-plus:ImitationlearningalgorithmswithCo-trainingforMobileALOHA:ACT,DiffusionPolicy,VINNhttps://github.com/MarkFzp/act-plus-plus1.环境配置新建Pycharm工程,从github上下载项目拷贝过去,在termina里进行环境配置:1.1安装部分依赖项condacreate-nalohapython=3.8.10condaactivatealohapipinstallpyquaternion

大翻车!斯坦福超火机器人自曝内幕,研究者救场还受伤了,网友:放心了

来源|量子位|公众号QbitAI爆火的斯坦福全能家务机器人MobileALOHA,大!翻!!车!!!你以为它擦个红酒轻而易举,但实际上却是这样的:全给你弄撒喽,顺带碎个杯子……你以为它能化身大厨娴熟烹炒,结果给你上演一个炒锅底:MobileALOHA的翻车大合集还不止这些。例如刚才炒完虾的锅,哎呦喂,一不小心没拿住:即使小哥一个箭步冲上去也没阻止“悲剧”的发生(好像还烫到手了)。这画面,真是像极了庄嫂摔碗……昨天还在“神坛”上的MobileALOHA,一夜之间便被曝出了这么多“笨手笨脚”的样子,也是引来不少网友的围观。然而,这次即使面对翻车铁证,网友们的画风却是一反常态:它并不完美,不过很可爱

GPT-4准确率最高飙升64%!斯坦福OpenAI重磅研究:全新Meta-Prompting方法让LLM当老板

当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABABCDCDEFEFGG」执行。同时,诗中还要包含提供的3个词。对于这么高难度的创作题,LLM在收到指令后,并不一定能够按要求做出这首诗。正所谓,人各有所长,LLM也是如此,仅凭单一模型有时是无法完成一项任务的。那该如何解?最近,来自斯坦福和OpenAI的两位研究员,设计了一种提升LLM性能的全新方法——元提示(meta-prompting)。「元提示」能够把单一的LLM变身为全能的「指挥家」。论文地址:https://arxiv.org/abs/2401.12954通过使用高层「元提示」指令,让大模型把复杂任务拆成子任务,然后再将这

CMU华人18万打造高能机器人,完爆斯坦福炒虾机器人!全自主操作,1小时学会开12种门

比斯坦福炒虾机器人还厉害的机器人来了!最近,CMU的研究者只花费2.5万美元,就打造出一个在开放世界中可以自适应移动操作铰接对象的机器人。论文地址:https://arxiv.org/abs/2401.14403厉害之处就在于,它是完全自主完成操作的。看,这个机器人能自己打开各式各样的门。无论是需要按一下把手才能打开的门。需要推开的门。透明的弹簧门。甚至是昏暗环境中的门。它还能自己打开橱柜。打开抽屉。自己打开冰箱。甚至,它的技能推广到训练以外的场景。结果发现,一个小时内,机器人学会打开20个从未见过的门,成功率从行为克隆预训练的50%,飙升到在线自适应的95%。即使眼前是一个它从未见过的门,这

【斯坦福计网CS144项目】Lab2 实现一个简单的 TCP 接收类

🕺作者:主页我的专栏C语言从0到1探秘C++数据结构从0到1探秘Linux😘欢迎关注:👍点赞🙌收藏✍️留言🏇码字不易,你的👍点赞🙌收藏❤️关注对我真的很重要,有问题可在评论区提出,感谢支持!!!文章目录一、实验目的二、实验说明三、实验内容四、实验体会五、代码附录一、实验目的1实现一个简单的TCP接收类2对TCP数据传输有更深的理解二、实验说明我们在lab0中实现了字节流(ByteStream)的流控制抽象化。随后,在lab1中,我们创建了一个名为StreamReassembler的结构体,它可以接收同一字节流的子字符串序列,并将它们重新组装到原始流中。尽管这些模块已经能够满足实验要求,但它们并

扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力

Pika北大斯坦福联手,开源最新文本-图像生成/编辑框架!无需额外训练,即可让扩散模型拥有更强提示词理解能力。面对超长、超复杂提示词,准确性更高、细节把控更强,而且生成图片更加自然。效果超越最强图像生成模型Dall·E3和SDXL。比如要求图片左右冰火两重天,左边有冰山、右边有火山。SDXL完全没有符合提示词要求,Dall·E3没有生成出来火山这一细节。还能通过提示词对生成图像二次编辑。这就是文本-图像生成/编辑框架RPG(Recaption,PlanandGenerate),已经在网上引起热议。它由北大、斯坦福、Pika联合开发。作者包括北大计算机学院崔斌教授、Pika联合创始人兼CTOCh

大模型+强化学习+物理仿真,3D动作生成PHASIG算法打造3D版斯坦福小镇

2023年4月,谷歌和斯坦福大学创造的虚拟小镇smallville。在这个开放世界中,25个由GPT驱动的智能体拥有独特人设和记忆,生活在小镇中,产生了错综复杂的行动,甚至自发组织了一场情人节派对,从邀请、装饰场地到成功举办,像是真实世界的“镜像”仿真。可惜的是,小镇中多智能体的交互过程,仅通过2D画面和对话气泡展示,无法呈现“西部世界”中3D真人用生动神态、身体动作和反应创造的身临其境感。如何让虚拟小镇“生动”起来?演示视频:https://www.bilibili.com/video/BV1bb4y1V72a/#reply622506930元象XVERSE专门研发3D动作生成PHASIG算