草庐IT

疑似威胁人类?OpenAI神秘Q*项目更多信息曝光,马斯克、Lecun下场争论…

夕小瑶科技说原创作者|王二狗大家好我是二狗随着前天 OpenAI 官宣SamAltman将回归,并继续担CEO,OpenAI“宫斗事件”已经告一段落了。然而,对于专业吃瓜的二狗来说,有一个核心问题还是没有搞明白:SamAltman究竟为何被董事会开除?之前网络上有各种猜测,但似乎都没有得到石锤。直到昨天,路透社最新爆料来了:“在SamAltman被OpenAI开除四天前,几名研究人员向董事会发出了一封信,警告一项强大的AI发现(Q*项目)可能威胁全人类。消息人士透露,这封此前未报道的信件和AI算法的突破是董事会罢免SamAltman的原因之一。”一些内部人士认为Q*项目可能是OpenAI在AG

超级AI不会主宰人类,但人工智能必须开源!LeCun最新采访引全网300万人围观

LeCun一段近5分的视频,引起了全网300+万人的关注。视频中,他再次重提对开源人工智能的几点看法:-未来将出现超越人类智能的人工智能-这些人工智能将受到我们的控制-它们不会成为我们的主宰,也不会对我们构成威胁-它们将成为我们与数字世界互动的中介-因此,这些人工智能需要是开放的平台,这样每个人都能参与进来,帮助它们学习和优化。对此,马斯克表示,我们的数字上帝将以csv文件的形式出现。LeCun回应道,如果它是开源的,无论你选择什么格式,都会有导入过滤器。COSS创始人JosephJack调侃道,我们能不能直接让LeCun担任AI总统,然后就此结束今天的讨论。以下是视频中,LeCun个人提出的

Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4

AI大佬的激战再次掀起。Hinton在线直接点名LeCun,说他对AI接管风险的看法对人类的影响微乎其微。这意味着,他把自己的意见看得很重,而把许多其他同样有资格的专家的意见看得很轻。在Hinton看来,他们之间意见分歧的核心论点是「LLM是真正理解自己说什么」。当然了,一直站在末日派中的Hinton认为大模型有了意识,而LeCun、吴恩达等人却认为LLM不明白自己所说。对此,LeCun反驳道,大模型显然对其阅读和生成的内容有「一些」理解,但这种理解是非常有限和肤浅的。总的来说,目前自回归大模型没有对推理和规划能力,远未及人类水平的智能。恰在近日,LeCun发表了一篇新论文,再提自回归LLM做

LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习

大语言模型到底会不会推理?涌现出来的各种能力到底来源是什么?前段时间,LeCun在自己推特上转发了好几篇文章,集中讨论了这个问题:「自回归LLM无法制定计划(并且无法真正推理)」。而LeCun转发第二篇论文,则讨论了LLM涌现能力。原推表示,不管大伙相不相信LLM的涌现能力,这篇文章都值得一读:「经过了超过1000次的系列实验,我们证明了大语言模型所谓的涌现能力,其实仅仅是上下文学习而已。」LLM真的能推理和规划吗?SubbaraoKambhampat的文章认为,网上对于LLM能够推理和规划的说法,本身不太站得住脚,但是学界对于这个问题,也开始进行了很严肃地研究。至少以他之前针对GPT-3的研

LeCun与微软总裁开呛!曝出OpenAI六大金刚掌握AGI命运,一旦实现微软收益为0

最近,微软总裁BradSmith在和LeCun的一次线下座谈中起了争执,随后在网上引发了网友大量的讨论。在面对LeCun关于大模型开源问题时,微软总裁抛出:「OpenAI是一个非盈利组织,Meta是一个由股东控制的上市公司,大家更希望AI技术被哪家掌握?」大量网友对微软总裁指出的「GPT-4的开放性,以及OpenAI是非盈利组织」的观点猛烈输出:认为「天下苦微软久矣」的网友把针对微软的怒火也发到了OpenAI身上,逼得OpenAI的公关负责人连忙发帖,再次重申:OpenAI不是微软投资的公司,是一家完全独立的非盈利组织!他一再强调,微软投资的「OpenAI」,其实只是「OpenAI子公司」。换

比ChatGPT早发两周,被喷下线的Galactica成了LeCun最大的意难平

今天我们提到大型语言模型(LLM),第一个想到的就是OpenAI的ChatGPT。一年来,ChatGPT因其强大的性能,广泛的应用前景而爆火出圈。但谈到大型语言模型,ChatGPT并不是第一个。一年前,也就是OpenAI发布ChatGPT的前两周,Meta发布了一个名为Galactica的试用版模型。作为一个大型语言模型,Galactica是在大量的论文、参考资料、知识库和许多其他来源的科学语料库上进行训练的,包括超过4800万篇论文、教科书和讲义、数百万种化合物和蛋白质知识、科学网站、百科全书等。彼时,Meta声称Galactica能够总结学术文献、解决数学问题、生成Wiki文章、编写科学代

UNC斯坦福等曝光GPT-4V意外漏洞,被人类哄骗数出8个葫芦娃!LeCun和Jim Fan震惊了

GPT-4V诞生后,惊艳的多模态能力让网友惊呼连连,连OpenAI总裁GregBrockman都不断在X上安利。不过,最近大家发现,只要打乱布局,GPT-4V就会被曾经解决的著名计算机视觉难题——「吉娃娃还是松饼」,再次难倒……UCSC教授XinEricWang表示,如果将经典的4x4网格构图重新布局,GPT-4V就会给出错误的描述——「共有8张特写图片,分两排排列,每排4张图」。图片如果问它第一行第三个图是什么,它会说是松饼……吉娃娃:你礼貌吗?此外,UCSB教授WilliamWang也发现,当一堆图片糊到脸上时,GPT-4V就懵了,无法分清到底哪张图是「贵宾犬」,哪张图是「炸鸡腿」。图片学

LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药

近几日,关于如何监督AI的讨论越来越热烈,各位大佬们意见非常不统一。比如图灵奖三巨头GeoffreyHinton、YoshuaBengio、YannLeCun就出现了两种观点。Hinton、Bengio为一队,他们强烈呼吁加强对AI的监管,否则可能引发「AI灭绝人类」的风险。LeCun与他们的观点并不相同,他认为AI强监管必将带来巨头垄断,结果是只有少数公司控制AI的研发。为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,Bengio、Hinton等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发AI系统之前,研究者应该采取紧急治理措施。与此同时,近日一

活久见!AI巨佬为“人类灭绝论”正面开撕,Hinton吴恩达LeCun下场,马斯克强势围观

活久见,AI巨佬们撸起袖子线上“对喷”,一“架”直接干上热搜了。Bigname一个接一个出现不说:吴恩达、Hinton、LeCun、哈萨比斯……甚至吵到稳如Hinton,都开麦阴阳怪气起来:是是是,好人力量大,我们应该把核武器也给开源了。搞得如此面红耳赤,为的还是“大模型会不会毁灭人类”这个热点话题。反方一派,矛头直指科技巨头搞垄断。吴恩达就言辞犀利地指出:某些人传播(AI灭绝人类的)恐惧,只是为了搞钱。正方这边也不甘示弱,最新消息是,被指“搞钱派”代表人物的DeepMindCEO哈萨比斯正面回怼:这不是恐吓。AGI的风险如果不从现在就开始讨论,后果可能会很严重。我不认为我们会想在危险爆发之前

吴恩达加入图灵三巨头混战,炮轰Sam Altman:AI监管「不会管不如不管」,LeCun转赞

就在前几天,Benjio等一批大佬针对人工智能可能危及人类命运的议题,又一次公开签署了一封联名信。Hinton,Benjio在信中继续呼吁加强对于AI技术发展的监管。然而,以LeCun为首的「LLM成不了气候」派公开表态,AI监管弊大于利!他们认为,相比于去担心「AI将引发世界末日」这种虚无缥缈风险,AI强监管所带来的「巨头垄断」,才是需要从业人员和政策制定者关心的紧迫问题。LeCun直接在推上点名了SamAltman和DeepMind的Hassabis等人,认为他们试图通过游说监管来巩固自己的行业地位,阻碍AI开源的推进。而且最近外媒爆出,吴恩达虽然在「LLM潜力」问题上,与LeCun有所分