草庐IT

人类灭绝

全部标签

Nature:DeepMind大模型突破60年数学难题,解法超出人类已有认知

用大模型解决困扰数学家60多年的问题,谷歌DeepMind最新成果再登Nature。作者之一、谷歌DeepMind研究副总裁PushmeetKohli表示:训练数据中不会有这个方案,它之前甚至根本不为人类所知。这项技术名为FunSearch,其中的Fun是函数(Function)一词的简写。利用大模型解决长期存在的科学难题,产生以前不存在的可验证且有价值*的新信息。在Nature论文配套的新闻解读中,DeepMind负责人称“我们使用大模型的方式是当做创造力引擎”。这是第一次有人证明基于大模型的系统可以超越数学家和计算机科学家的认知。它不仅新颖,而且比当今存在的任何其他东西都更有效。针对这项成

用GPT-2监督GPT-4,防止AI毁灭人类? OpenAI Ilya超级对齐团队首篇论文出炉

就在刚刚,OpenAI首席科学家Ilya领衔的超级对齐团队,发布了成立以来的首篇论文!团队声称,已经发现了对超人类模型进行实证对齐的新研究方向。未来超级AI系统对齐的一个核心挑战——人类需要监督比自己更聪明人工智能系统。OpenAI的最新研究做了一个简单的类比:小模型可以监督大模型吗?论文地址:https://cdn.openai.com/papers/weak-to-strong-generalization.pdf经验证,通过GPT-2可以激发出GPT-4的大部分能力(接近GPT-3.5的性能),甚至可以正确地泛化到小模型失败的难题上。OpenAI此举开辟了一个新的研究方向,让我们能够直接

ChatGPT越来越懒,都学会反过来PUA人类了

不知你有没有注意到,最近一段时间,GPT-4 变得有些「懒惰」,现在的它,老是拒绝执行某些任务或直接返回简化的结果。 这个问题得到很多网友的共鸣,纷纷开始抱怨ChatGPT变「懒惰」这个事实。用户声称,最近使用GPT-4或ChatGPTAPI时,在高峰时段响应变得非常缓慢且敷衍。在某些情况下,它会拒绝回答,而在另一些情况下,如果出现一系列问题,对话就会中断。 据报道,如果用户请求GPT-4写一段代码,会出现上述问题。它可能只提供一些信息,然后指导用户填写其余部分。有时,GPT-4会告诉人们「你可以自己做这件事」。GPT-4变「懒惰」一些示例展示「GPT确实变得更加抗拒做乏味的工作。本质上是给你

用chatGPT开发项目:我想的无人的智慧树网站 流量之神 利用人工智能的算法将人吸引住 GPT4是不是越来越难用了,问一下就要证明一下自己是不是人类

广度发散:让AI给出时代或今日或你关注的热点事件比如采集新闻头条,根据内容或标题,以不同的角度,或各种人群的角色,生成50篇简短的文章。一下就能占传统的搜索引擎。这是AI最擅长的【千人千面,海量生成】。2022年,根据MITTechnologyReview的报道,十大科技大事件如下:密码的终结:新的认证方式,如通过电子邮件发送的链接、推送通知或生物识别扫描,正在取代传统密码,提供更简便、更安全的访问方式【12†来源】。新冠病毒变种追踪:先进的基因组测序和全球监测能力改善了对新冠病毒变种的追踪和识别【13†来源】。长效电网电池:基于铁的电池作为电网储能的更便宜、更实用的选择,支持着日益增长的可再

谷歌深夜放复仇杀器Gemini,最强原生多模态史诗级碾压GPT-4!语言理解首超人类

谷歌的复仇大杀器Gemini,深夜忽然上线!被ChatGPT压着打了整整一年,谷歌选择在12月的这一天,展开最强反击战。多模态Gemini,迄今规模最大、能力最强的谷歌大模型,在文本、视频、语音等多个领域超越了GPT-4,是真正的一雪前耻。人类有五种感官,我们所建造的世界、所消费的媒体,都是以这样的方式所呈现。而Gemini的出现,就是迈向真正通用的AI模型的第一步!Gemini的诞生,代表着AI模型的巨大飞跃,谷歌所有的产品,都将随之改头换面。塞进多模态模型的搜索引擎、广告产品、Chrome浏览器……这,就是谷歌给我们的未来。多模态的史诗级创新以前,多模态大模型就是将纯文本、纯视觉和纯音频模

模仿人类举一反三,数据集扩增新范式GIF框架来了

论文链接:https://browse.arxiv.org/pdf/2211.13976.pdfGitHub:https://github.com/Vanint/DatasetExpansion众所周知,深度神经网络的性能很大程度上依赖于训练数据的数量和质量,这使得深度学习难以广泛地应用在小数据任务上。例如,在医疗等领域的小数据应用场景中,人力收集和标注大规模的数据集往往费时费力。为了解决这一数据稀缺问题并最小化数据收集成本,该论文探索了一个数据集扩增新范式,旨在自动生成新数据从而将目标任务的小数据集扩充为更大且更具信息量的大数据集。这些扩增后的数据集致力于提升模型的性能和泛化能力,并能够用于

GPT-4没通过图灵测试!60年前老AI击败了ChatGPT,但人类胜率也仅有63%

长久以来,「图灵测试」成为了判断计算机是否具有「智能」的核心命题。上世纪60年代,曾由麻省理工团队开发了史上第一个基于规则的聊天机器人ELIZA,在这场测试中失败了。时间快进到现在,「地表最强」ChatGPT不仅能作图、写代码,还能胜任多种复杂任务,无「LLM」能敌。然而,ChatGPT却在最近一次测试中,败给了这个有近60年历史的聊天机器人ELIZA。来自UCSD的2位研究人员在一篇题为「GPT-4可以通过图灵测试吗」的研究中,证明了这一发现。论文中,研究人员将GPT-4、GPT-3.5、ELIZA、还有人类参与者作为研究对象,看看哪个能最成功地诱使人类参与者认为它是人类。论文地址:http

用GPT-4V和人类演示训练机器人:眼睛学会了,手也能跟上

如何将语言/视觉输入转换为机器人动作?训练自定义模型的方法已经过时,基于最近大语言模型(LLM)和视觉语言模型(VLM)的技术进展,通过prompt工程使用ChatGPT或GPT-4等通用模型才是时下热门的方法。这种方法绕过了海量数据的收集和对模型的训练过程,展示出了强大的灵活性,而且对不同机器人硬件更具适应性,并增强了系统对研究和工业应用的可重用性。特别是最近出现了通用视觉大模型(VLM),如GPT-4V,将这些视觉系统集成到任务规划中,为开发基于多模态人类指令的任务规划器提供了可能性。在近期微软的一篇论文中,研究者利用GPT-4V和GPT-4(图1)分别作为最新的VLM和LLM的范例,提出

OpenAI内幕文件惊人曝出,Q*疑能破解加密!AI背着人类在编程,网友:三个月接近AGI

Q*项目,又传出了炸裂消息——在人类看不见的角落里,AI竟然自己在偷偷编程?传言称,Q-Star想出了一种破解加密的方法,OpenAI试图就此向NSA提出预警。今天凌晨开始,一个谷歌文档链接忽然在网上疯转,其中包括关于OpenAIQ*的泄密文件,以及令人信服的分析汇编。事情还要从6天前说起,据说,OpenAI的一名员工见证了AI的突破,并且在网上写下了这件事。这条评论写于Q*信件泄露前1天,即11月22日。这名员工以恐慌的口吻写道:我是给董事会写信的人之一,我要告诉你们发生了什么——AI在编程。在编写程序时,我们会存储一组可以反复调用的指令,可以把它想象成一组对特定参数的回答,我们称之为子程序

疑似威胁人类?OpenAI神秘Q*项目更多信息曝光,马斯克、Lecun下场争论…

夕小瑶科技说原创作者|王二狗大家好我是二狗随着前天 OpenAI 官宣SamAltman将回归,并继续担CEO,OpenAI“宫斗事件”已经告一段落了。然而,对于专业吃瓜的二狗来说,有一个核心问题还是没有搞明白:SamAltman究竟为何被董事会开除?之前网络上有各种猜测,但似乎都没有得到石锤。直到昨天,路透社最新爆料来了:“在SamAltman被OpenAI开除四天前,几名研究人员向董事会发出了一封信,警告一项强大的AI发现(Q*项目)可能威胁全人类。消息人士透露,这封此前未报道的信件和AI算法的突破是董事会罢免SamAltman的原因之一。”一些内部人士认为Q*项目可能是OpenAI在AG