大数据文摘出品家人们,继人工智能(AI)攻占象棋、围棋、Dota之后,转笔这一技能也被AI机器人学会了。上面这个笔转的贼溜的机器人,得益于名叫Eureka的智能体(Agent),是来自英伟达、宾夕法尼亚大学、加州理工学院和得克萨斯大学奥斯汀分校的一项研究。得Eureka“指点”后的机器人还可以打开抽屉和柜子、扔球和接球,或者使用剪刀。据英伟达介绍,Eureka有10种不同的类型,可执行29种不同的任务。要知道在之前,单就转笔这一功能,仅靠人类专家手工编程,是无法如此顺滑的实现的。机器人盘核桃而Eureka能够自主编写奖励算法来训练机器人,且码力强劲:自编的奖励程序在83%的任务中超越了人类专家
在学习方面,GPT-4是一个厉害的学生。在消化了大量人类数据后,它掌握了各门知识,甚至在聊天中能给数学家陶哲轩带来启发。与此同时,它也成为了一名优秀的老师,而且不光是教书本知识,还能教机器人转笔。这个机器人名叫Eureka,是来自英伟达、宾夕法尼亚大学、加州理工学院和得克萨斯大学奥斯汀分校的一项研究。这项研究结合了大型语言模型和强化学习的研究成果:用GPT-4来完善奖励函数,用强化学习来训练机器人控制器。借助GPT-4写代码的能力,Eureka拥有了出色的奖励函数设计能力,它自主生成的奖励在83%的任务中优于人类专家的奖励。这种能力可以让机器人完成很多之前不容易完成的任务,比如转笔、打开抽屉和
GPT-4V来做目标检测?网友实测:还没有准备好。虽然检测到的类别没问题,但大多数边界框都错放了。没关系,有人会出手!那个抢跑GPT-4看图能力几个月的迷你GPT-4升级啦——MiniGPT-v2。△(左边为GPT-4V生成,右边为MiniGPT-v2生成)而且只是一句简单指令:[grounding]describethisimageindetail就实现的结果。不仅如此,还轻松处理各类视觉任务。圈出一个物体,提示词前面加个[identify]可让模型直接识别出来物体的名字。当然也可以什么都不加,直接问~MiniGPT-v2由来自MiniGPT-4的原班人马(KAUST沙特阿卜杜拉国王科技大学
10月17日,李彦宏在百度世界2023上表示。当天,李彦宏以《手把手教你做AI原生应用》为主题发表演讲,发布文心大模型4.0版本。今天,咱们就开门见山啊。这一回要测一测,昨天才发布的文心一言大模型4.0。之所以要测它,是因为李彦宏昨天在会上说的那句:“综合能力比GPT-4毫不逊色!” 这话一出,很多人就沸腾了。据李彦宏这边的说法,文心4.0在记忆、理解、逻辑和生成四块,进步神速。尽管他也在现场亲自演示了很多案例,但很多用户是压根不买账的。不少人调侃说:“骗骗兄弟就可以了,别把自己也骗了啊。” 这回,业内人员世超也是很幸运地拿到了抢先内测的资格。既然他吹自己和GPT-4比毫不逊色,那我们就让这
文章目录📌提炼❓什么是AlpacaEval🔎AlpacaEval排行榜包含的测试模型和数据💯在不同的测试集上各个大模型的能力评分🚀AlpacaEvalLeaderboard大模型的能力综合评分💼普遍国内白领如何快速应用大模型👑TomChat(https://www.tomchat.fun)🤖支持gpt4/gpt-3.5/claude/code-llm🎨支持AI绘画🆓每天十次免费使用机会🪄无需魔法🤖️在这个AI爆发的元年🎨🤖️AI不能取代我们不会用AI的人才会被取代🎨📌提炼GPT-4登顶商用模型微软WizardLM登顶开源模型❓什么是AlpacaEvalAlpacaEva是来自斯坦福的团队发布的
LMM将会全面替代大语言模型?人工智能新里程碑GPT-V美国预先公测,医疗领域/OCR实践+166页GPT-V试用报告首发解读ChatGPTVision,亦被广泛称为GPT-V或GPT-4V,代表了人工智能技术的新里程碑。作为LMM(LargeMultimodalModel)的代表,它不仅继承了LLM(LargeLanguageModel)的文本处理能力,还加入了图像处理的功能,实现了文本与图像的多模态交互。与传统的LLM相比,GPT-V更加强大和灵活,能够更深入地理解和生成与图像相关的内容。这种进化打开了无数新的应用可能性,从图像描述、创意设计到复杂的图文结合任务,GPT-4V都展现出了卓越
公众号关注 “GitHubDaily”设为“星标”,每天带你逛GitHub!今年3月,GitHub对外正式发布了新一代编程神器GitHubCopilotX,其中的CopilotVoice功能,可直接通过语音向AI描述需求,然后批量生成项目代码,让一众开发者直呼「牛X」。除此之外,还能让AI自动撰写测试代码、PullRequest、自动补全项目文档等功能。在该工具发布之初,我还为此写了一篇文章《动动嘴,就能帮你生成代码!焕然一新的代码编辑器:GitHubCopilotX,来了!》,详细介绍了它的各项特性,感兴趣的同学可前往查看。现如今半年过去了,AI在计算机编程领域的发展并未止步不前,在诸多业内
GPT-4近日开放了视觉模态(GPT-4V)。以GPT-4V、谷歌Bard为代表的多模态大语言模型(MultimodalLargeLanguageModels,MLLMs)将文本和视觉等模态相结合,在图像描述、视觉推理等各种多模态任务中展现出了优异的性能。然而,视觉模型长久以来存在对抗鲁棒性差的问题,而引入视觉模态的MLLMs在实际应用中仍然存在这一安全风险。最近一些针对开源MLLMs的研究已经证明了该漏洞的存在,但更具挑战性的非开源商用MLLMs的对抗鲁棒性还少有人探索。为了更好地理解商用MLLMs的漏洞,清华朱军教授领衔的人工智能基础理论创新团队围绕商用MLLM的对抗鲁棒性展开了研究。尽管