近几日,关于如何监督AI的讨论越来越热烈,各位大佬们意见非常不统一。比如图灵奖三巨头GeoffreyHinton、YoshuaBengio、YannLeCun就出现了两种观点。Hinton、Bengio为一队,他们强烈呼吁加强对AI的监管,否则可能引发「AI灭绝人类」的风险。LeCun与他们的观点并不相同,他认为AI强监管必将带来巨头垄断,结果是只有少数公司控制AI的研发。为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,Bengio、Hinton等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发AI系统之前,研究者应该采取紧急治理措施。与此同时,近日一
活久见,AI巨佬们撸起袖子线上“对喷”,一“架”直接干上热搜了。Bigname一个接一个出现不说:吴恩达、Hinton、LeCun、哈萨比斯……甚至吵到稳如Hinton,都开麦阴阳怪气起来:是是是,好人力量大,我们应该把核武器也给开源了。搞得如此面红耳赤,为的还是“大模型会不会毁灭人类”这个热点话题。反方一派,矛头直指科技巨头搞垄断。吴恩达就言辞犀利地指出:某些人传播(AI灭绝人类的)恐惧,只是为了搞钱。正方这边也不甘示弱,最新消息是,被指“搞钱派”代表人物的DeepMindCEO哈萨比斯正面回怼:这不是恐吓。AGI的风险如果不从现在就开始讨论,后果可能会很严重。我不认为我们会想在危险爆发之前
就在前几天,Benjio等一批大佬针对人工智能可能危及人类命运的议题,又一次公开签署了一封联名信。Hinton,Benjio在信中继续呼吁加强对于AI技术发展的监管。然而,以LeCun为首的「LLM成不了气候」派公开表态,AI监管弊大于利!他们认为,相比于去担心「AI将引发世界末日」这种虚无缥缈风险,AI强监管所带来的「巨头垄断」,才是需要从业人员和政策制定者关心的紧迫问题。LeCun直接在推上点名了SamAltman和DeepMind的Hassabis等人,认为他们试图通过游说监管来巩固自己的行业地位,阻碍AI开源的推进。而且最近外媒爆出,吴恩达虽然在「LLM潜力」问题上,与LeCun有所分
吴恩达是大师。这一点没有错。吴恩达的AI视频也确实是干货满满。但是,看他的视频时常还是有种抓狂的感觉。我看过他的《机器学习》(2遍+)和《深度学习》(1遍),一开始还好,但是到了涉及公式的部分的时候,会忽然变得吃力。为什么呢?我觉得也许要同步看中文翻译(也不算翻译的太好)的同时,还要再去理解,注意力容易分散,然后那些公式本来就晦涩难懂,就GG了。当然这也可能是我的问题。我也曾经尝试过多遍听课学习,但是效果仍然比较有限,花费的时间却是不少的。相比之下呢,我推荐如下两种学习资料。如果喜欢看视频,那我推荐李宏毅的课程。可以说听起来是真的算是通俗易懂,举例也很风趣。而且,他讲解的过程中给我们解释了很多
目录01-linearregression线性回归预备知识单变量线性回归(一个特征值)单变量线性回归(多个特征值)单变量线性回归(正规方程)01-linearregression线性回归预备知识假设函数与损失函数:梯度下降函数为了方便运算,我们需要将各个函数计算转为矩阵计算(一)假设函数向量化(二)损失函数向量化(三)梯度下降函数向量化综上单变量线性回归(一个特征值)入口利润#开发人员:肖本杰#阶段:学习#开发时间:2022/8/117:02#单变量线性回归一个特征值importnumpyasnpimportpandasaspdimportmatplotlib.pyplotasplt'''nu
2023年9月9日星期六癸卯年七月廿五第000007号本文收录于IT资讯速递专栏,本专栏主要用于发布各种IT资讯,为大家可以省时省力的就能阅读和了解到行业的一些新资讯IT资讯领导者(Leaders)李彦宏(百度CEO、董事长兼联合创始人)吴恩达(深度学习创始人)SamAltman(CEO,OpenAI)马斯克(xAI创始人)思想家(Thinkers)李飞飞(斯坦福大学教授)曾毅(中国科学院教授)IlyaSutskever(OpenAI联合创始人兼首席科学家)Time100AI的名单北京时间9月7日晚,《时代》周刊发布了首届全球百大AI人物,榜单分为领导者(Leaders)、创新者(Innova
一、机器学习1.1机器学习定义计算机程序从经验E中学习,解决某一任务T,进行某一性能P,通过P测定在T上的表现因经验E而提高eg:跳棋程序E:程序自身下的上万盘棋局T:下跳棋P:与新对手下跳棋时赢的概率1.2监督学习supervisedlearning1.2.1监督学习定义给算法一个数据集,其中包含了正确答案,算法的目的是给出更多的正确答案如预测房价(回归问题)、肿瘤良性恶性分类(分类问题)1.3无监督学习unsupervisedlearning1.3.1无监督学习定义只给算法一个数据集,但是不给数据集的正确答案,由算法自行分类。如聚类1.谷歌新闻每天收集几十万条新闻,并按主题分好类2.市场通
2021年,华盛顿大学语言学家EmilyM.Bender发表了一篇论文,认为大型语言模型不过是「随机鹦鹉」(stochasticparrots)而已,它们并不理解真实世界,只是统计某个词语出现的概率,然后像鹦鹉一样随机产生看起来合理的字句。由于神经网络的不可解释性,学术界也弄不清楚语言模型到底是不是随机鹦鹉,各方观点差异分歧极大。由于缺乏广泛认可的测试,模型是否能「理解世界」也成为了哲学问题而非科学问题。最近,来自哈佛大学、麻省理工学院的研究人员共同发表了一项新研究Othello-GPT,在简单的棋盘游戏中验证了内部表征的有效性,他们认为语言模型的内部确实建立了一个世界模型,而不只是单纯的记忆
1.下载下载yad2k:gitclonehttps://github.com/allanzelener/yad2k.git这里面顺便有yad2k.py文件2.下载yolov2.cfghttps://github.com/pjreddie/darknet/tree/master/cfg3.下载yolov2.weightshttp://pjreddie.com/media/files/yolo.weights需要这三个文件自己去githup下载这个是我的项目路径把那些文件都放在这个路径里面图片的顺序有点反了然后进行TensorFlow里面运行代码然后就会重新生成一个yolo.v5文件在pychar
1.IntroductionMidjourney,StableDiffusion,DALL-E等产品能够仅通过Prompt就能够生成图像。本课程将介绍这些应用背后算法的原理。课程地址:https://learn.deeplearning.ai/diffusion-models/2.Intuition本小节将介绍扩散模型的基础知识,探讨扩散模型的目标,如何利用各种游戏角色图片训练数据来增强模型的能力。假设下面是你的数据集,你想要更多的在这些数据集中没有的角色图片,如何做到?可以使用扩散模型生成这样的角色图片。扩散模型应该是这样的一个神经网络:它能够学习到游戏角色的一般概念,例如游戏角色是什么,游