草庐IT

AI 史话

堆码志 2023-04-12 原文

达特茅斯会议

1956 年,美国新罕布什尔州达特茅斯学院开了个学术讨论会,与会者包括 John McCarthy、Marvin Minsky 等,来自计算机科学、数学、物理学等不同领域的科学家,目的是共同探索人为制造智慧能力的可能性。这可以认为是人工智能历史上的一个开创性事件。因为当前 AI 的很多概念,此次会议都讨论到了。例如自然语言处理、机器学习等等。并且提出了人工智能的愿景,其中包括创建可以像人类一样推理、学习和交流的智能机器。这一愿景引发了该领域的研究和创新浪潮。

会议前后,John McCarthy 和他的同事开发了第一种 AI 编程语言 LISP。这种语言成为人工智能研究的基础,并一直存在到今天。神之编辑器 Emacs 就是用它开发的。

这次会议还促成了几所大学和研究机构的人工智能研究实验室的建立,包括麻省理工学院、卡内基梅隆大学和斯坦福大学。

除此之外,达特茅斯会议还促进了图灵测试的发展。图灵测试是英国数学家艾伦·图灵提出来的,用以确定机器是否可以表现出与人类相同的智能行为。这个概念在会议上进行了深入讨论,并成为人工智能研究领域的中心思想。直到今天为止,图灵测试仍然是衡量人工智能研究进展的重要基准。

感知器

感知器是由心理学家弗兰克·罗森布拉特于 1958 年设计的人工神经网络架构,它极大的促进了对人工大脑、即用人工智能来模仿人类大脑的发展。

技术上讲,感知器是一个二元分类器,可以学习将输入模式分为两类。它的工作原理是依据一个阈值函数,获取一组输入值,然后计算这些值的加权和,用于确定输出是 1 还是 0。在训练过程中,可以调整权重以优化分类器的性能。

感知器被视为人工智能的一个重要里程碑,因为它展示了机器学习算法模仿人类智能的潜力。它表明,机器可以从经验中学习,并随着时间的推移提高它们的性能,就像人类一样。

达特茅斯会议从理论上引起了人们对人工智能潜力的极大兴奋,但是感知器是人工智能的实际实现,表明该概念可以变成一个工作系统。

感知器最初被吹捧为人工智能的突破,并受到媒体的广泛关注。然而,后来发现该算法有局限性,特别是在对复杂数据进行分类时。这导致在 1960 年代末和 1970 年代对感知器和人工智能研究的兴趣下降。

然而,感知器后来被复兴并整合到更复杂的神经网络中,促成了深度学习和其他形式的现代机器学习的发展。今天,感知器被视为人工智能历史上的一个重要里程碑,并继续被研究和用于开发新的人工智能技术。

六十年代人工智能热潮

上世纪 60 年代的 AI 热潮是人工智能发展取得重大进展和兴趣的时期。这是因为当时计算机科学家和研究人员正在探索创造智能机器的新方法,并对它们进行编程,以执行传统上认为需要人类智能的任务。在 20 世纪 60 年代,感知器的明显缺陷被发现,因此研究人员开始探索感知器以外的其他人工智能方法。他们专注于符号推理、自然语言处理和机器等领域。

这些研究引导了新的编程语言和工具的开发,如 LISP 和 Prolog,它们是专门为人工智能应用程序设计的。这些新工具使研究人员更容易试验新的人工智能技术并开发更复杂的人工智能系统,在此期间,美国政府也对人工智能产生了兴趣,并开始通过国防高级研究计划局(DARPA)等机构资助研究项目。这笔资金加速了人工智能的发展,并为研究人员提供了他们需要的资源,以解决越来越多的问题

六十年代的人工智能热潮最终产生了几个具有里程碑意义的人工智能系统的发展。一个例子是由 Herbert Simon,J.C. Shaw 和 Allen Newell 创建的通用问题解决器(GPS)。GPS 是一种早期的人工智能系统,可以通过搜索可能的解决方案来解决问题。另一个例子是由 Joseph Weizenbaum 创建的 ELIZA 程序,这是一个模拟心理治疗师的自然语言处理程序。

总的来说,上世纪六十年代的人工智能热潮是人工智能研发取得重大进展的时期。当时,研究人员探索了新的人工智能方法,并开发了专门为人工智能应用程序设计的新编程语言和工具,为未来的人工智能发展铺平了道路。

八十年代的 AI 寒冬

20 世纪 80 年代的 AI 寒冬是指人工智能(AI)领域的研究和开发经历了显著放缓的一段时间。这一停滞期大约从 1974 年开始,到 1993 年结束。

正如上一节所讨论的,20 世纪 60 年代的人工智能热潮的特点是人工智能研究和应用的爆炸式增长,但紧接着发生在 20 世纪 80 年代的人工智能寒冬,这是由于在人工智能热潮期间开发的许多人工智能项目未能兑现他们的承诺,人工智能研究社区对该领域缺乏进展越来越失望。这导致了资金削减,许多人工智能研究人员被迫放弃他们的项目,彻底离开这个领域。

上世纪 80 年代 AI 寒冬的特点是,用于 AI 研究的资金大幅下降,投资者和公众对该领域普遍缺乏兴趣。这导致正在开发的 AI 项目数量显著下降,许多仍然活跃的研究项目由于缺乏资源而无法取得重大进展。

尽管人工智能之冬充满挑战,但人工智能领域并没有完全消失。一些研究人员继续致力于人工智能项目,并在此期间取得了重要进展,包括神经网络的发展和机器学习的开始。然而,该领域的进展缓慢,直到 20 世纪 90 年代,人们对人工智能的兴趣才开始重新升温。

尽管如此,20 世纪 80 年代的 AI 寒冬是人工智能历史上的一个重要里程碑,因为它展示了人工智能研发的挑战和局限性。对于投资者和政策制定者来说,这也是一个警世故事,他们意识到围绕人工智能的炒作有时可能被夸大了,该领域的进步需要持续的投资和承诺。

专家系统

专家系统是 20 世纪 80 年代发展起来的一种人工智能(AI)技术。专家系统被设计用来模拟特定领域(如医学、金融或工程)的人类专家的决策能力。在 20 世纪 60 年代和 70 年代初,人们对人工智能及其改变各个行业的潜力充满了乐观和兴奋。然而,正如我们在上一节中所讨论的,这种热情受到了一段被称为 AI 冬天的时期的抑制,这段时期的特点是 AI 研究缺乏进展和资金。

专家系统的发展标志着人工智能历史上的一个转折点,因为人工智能社区面临着提供实用的、可扩展的、健壮的和可量化的人工智能应用程序的压力,专家系统证明了人工智能系统可以用于现实生活系统,并有潜力为企业和行业提供极大便利。专家系统被用于各个领域的自动化决策过程,从诊断医疗状况到预测股票价格等等。
技术上讲,专家系统通常由一个知识库和一个推理引擎组成,知识库包含关于特定领域的信息,推理引擎使用这些信息来推理新的输入并做出决策。专家系统还包含各种形式的推理,如演绎、归纳和推断,以模拟人类专家的决策过程。

专家系统是人工智能历史上的一个重要里程碑,它展示了人工智能技术在实际生活场景中的应用。今天,专家系统继续在各个行业中使用,它们的发展导致了其他人工智能技术的诞生,如机器学习和自然语言处理。

NLP 和计算机视觉

这一时期是人工智能研究和全球化开始提速的时期,也是人工智能进入现代化的时期。正如上一节所讨论的,专家系统大约在 20 世纪 80 年代末和 90 年代初开始发挥作用。然而,专家系统依赖于结构化数据和基于规则的逻辑,这一事实受到了限制。他们很难处理非结构化数据,例如自然语言文本或图像,这些数据本质上是模糊的,并且依赖于上下文。

为了解决这一限制,研究人员开始开发处理自然语言和视觉信息的技术。上世纪七八十年代,NLP 和计算机视觉在基于规则的系统方向上已经取得了一些进展。然而,受限于预定义的规则,它们有无法从数据中学习的缺陷。

到了九十年代,机器学习算法和计算能力的进步导致了更复杂的 NLP 和计算机视觉系统的发展。研究人员开始使用统计方法直接从数据中学习模式和特征,而不是依赖预定义的规则。这种方法被称为机器学习,允许使用更准确和灵活的模型来处理自然语言和视觉信息。

这一时期最重要的里程碑之一是隐马尔可夫模型(HMM)的发展,它允许对自然语言文本进行概率建模。这促成了语音识别、语言翻译和文本分类的重大进步,同样,在计算机视觉领域,卷积神经网络 (CNN) 的出现允许更准确的对象识别和图像分类。这些技术现在被广泛应用自动驾驶、医学成像等领域。

NLP 和计算机视觉的出现代表了人工智能历史上的另一个重要里程碑,因为它允许对非结构化数据进行更复杂和灵活的处理。这些技术仍然是当今人工智能研究和开发的重点,对各行各业的应用都具有重大意义。

大数据的兴起

大数据的概念已经存在了几十年,但它在人工智能(AI)背景下的崛起可以追溯到 21 世纪初。为了给人一种完整的感觉,让我们简单地讨论一下大数据这个术语。

所谓大数据,需要满足 3 个核心属性:体积、速度和多样性。体积指的是数据集的大小,从 tb 到 pb 甚至更大。速度是指数据生成和需要处理的速度。例如,来自社交媒体或物联网设备的数据可以实时生成,需要快速处理。多样性是指生成的数据类型的多样性,包括结构化、非结构化和半结构化数据。

在大数据出现之前,AI 受到用于训练和测试机器学习算法的数据数量和质量的限制。自然语言处理(NLP)和计算机视觉是人工智能的两个领域,在 20 世纪 90 年代取得了重大进展,但它们仍然受到可用数据量的限制。例如,早期的 NLP 系统是基于手工制作的规则,在处理自然语言的复杂性和可变性方面能力有限。大数据的兴起改变了这一点,它提供了从各种来源获取大量数据的途径,包括社交媒体、传感器和其他连接设备。这使得机器学习算法可以在更大的数据集上进行训练,从而使它们能够学习更复杂的模式,并做出更准确的预测。

与此同时,Hadoop 和 Spark 等数据存储和处理技术的进步使得快速有效地处理和分析这些大型数据集成为可能。这导致了新的机器学习算法的发展,例如深度学习,它能够从大量数据中学习并做出高度准确的预测。

现在,大数据仍然是人工智能许多最新进展背后的驱动力,从自动驾驶汽车和个性化医疗到自然语言理解和推荐系统。随着生成的数据量继续呈指数级增长,大数据在人工智能中的作用在未来几年只会变得更加重要。

深度学习

深度学习的出现是现代人工智能全球化的一个重要里程碑,自 20 世纪 50 年代达特茅斯会议以来,人工智能已经被认为是一个合法的研究领域,早期的人工智能研究专注于符号逻辑和基于规则的系统,其中涉及手动编程机器根据一套预定规则做出决策。虽然这些系统在某些应用中很有用,但它们学习和适应新数据的能力有限。

直到大数据兴起之后,深度学习才成为 AI 历史上的一个重要里程碑。随着数据的指数级增长,研究人员需要新的方法来处理并从大量信息中提取见解。深度学习算法为这个问题提供了一个解决方案,它使机器能够自动从大型数据集中学习,并根据这种学习做出预测或决策。

深度学习是一种使用人工神经网络的机器学习,人工神经网络模仿人脑的结构和功能,由相互连接的节点层组成,每个节点对输入数据执行特定的数学功能。一层的输出作为下一层的输入,允许网络从数据中提取越来越复杂的特征。

深度学习的主要优势之一是它能够学习数据的分层表示。这意味着网络可以自动学习识别不同抽象级别的模式和特征。例如,深度学习网络可能会学习识别单个字母的形状,然后是单词的结构,最后是句子的含义。

深度学习的发展在计算机视觉、语音识别和自然语言处理等领域取得了重大突破,如你所见,该算法现在能够准确地对图像进行分类,识别语音,甚至生成逼真的类人语言。

深度学习代表了人工智能历史上的一个重要里程碑,大数据的兴起使之成为可能。它从大量信息中自动学习的能力已经在广泛的应用中取得了重大进展,并且很可能在未来几年继续成为研发的关键领域。

生成式人工智能

我们目前正处于人工智能历史的这个阶段。生成式 AI 是人工智能的一个子领域,涉及创建能够生成与其训练数据相似的新数据或内容的 AI 系统。这可能包括生成图像、文本、音乐甚至视频。

在人工智能历史的背景下,生成式人工智能可以被视为深度学习兴起后的一个重要里程碑。深度学习是机器学习的一个子集,涉及使用具有多层的神经网络来分析和学习大量数据。它在图像和语音识别、自然语言处理甚至玩围棋等复杂游戏等任务中都取得了令人难以置信的成功。

Transformers 是一种神经网络架构,它彻底改变了生成式人工智能。Vaswani 等人在 2017 年的一篇论文中介绍了它们,并已用于各种任务,包括自然语言处理、图像识别和语音合成。Transformers 使用自我注意机制来分析序列中不同元素之间的关系,使它们产生更连贯和细致的输出。这导致了大型语言模型的发展,如 GPT-4,它可以在广泛的主题上生成类似人类的文本。

AI 艺术是生成式人工智能产生重大影响的另一个领域。通过在大型艺术品数据集上训练深度学习模型,生成式 AI 可以创建新的独特艺术品。生成式人工智能在艺术中的使用引发了关于创造力和作者身份的本质以及使用人工智能创作艺术的伦理的争论。一些人认为,人工智能生成的艺术并不是真正的创造性,因为它缺乏人造艺术的意向性和情感共鸣。其他人则认为,人工智能艺术有其自身的价值,可以用来探索新的创造力形式。

GPT-4 等大型语言模型也被用于创意写作领域,一些作者使用它们来生成新文本或作为灵感工具。这引发了关于写作的未来以及人工智能在创作过程中的作用的质疑。虽然有些人认为人工智能生成的文本缺乏人类写作的深度和细节,但其他人则认为它是一种工具,可以通过提供新的想法和观点来增强人类的创造力。

总之,生成式人工智能,特别是在 Transformers 和大型语言模型的帮助下,有可能彻底改变许多领域,从艺术到写作再到模拟。虽然关于创造力的本质和在这些领域使用人工智能的道德规范仍然存在争议,但很明显,生成人工智能是一个强大的工具,将继续塑造技术和艺术的未来。

尾声

正如我们所讨论的,人工智能的历史相当有趣,充满了潜在的、反高潮和惊人的突破。从某种意义上说,诸如 ChatGPT、Dalle.E 等应用程序,带给我们的挑战才刚刚开始,未来一定还有更多突破,挑战我们的神经以及工作和生活。我想我们所有人可以保持开放的心态,在无限悲观的同时,也可以保持相应的乐观,来迎接人工智能的未来时代。

作者:袁首京

原创文章,转载时请保留此声明,并给出原文连接。

有关AI 史话的更多相关文章

  1. 未来的趋势————以ChatGPT为标杆的AI对生活的影响是巨大的 - 2

    文章目录前言1.AI的发展历程2.我是如何接触到人工智能的概念和产品的3.对于ChatGPT的一点看法4.AI对大学毕业生的职业发展的利与弊5.对于AI的思考和问题前言随着ChatGPT的爆火,生成式AI,大模型的人工智能被越来越多的人注意到,同时他也带来了许多问题。本文将对几方面进行探讨。1.AI的发展历程远古时期在公元前第一个千禧年,中国,印度和希腊哲学家都提出了一些推理的研究理论,比如亚里士多德(Aristotle)进行了演绎推理三段论的完整分析,欧几里得(Euclid)所著Elements是一种形式推理的模型,MuḥammadibnMūsāal-Khwārizmī,发明了代数学,即我们

  2. 焕新古文化传承之路,AI为古彝文识别赋能 - 2

    目录1古彝文与古典保护2古文识别的挑战2.1西文与汉文OCR2.2古彝文识别难点3合合信息:古彝文保护新思路3.1图像矫正3.2图像增强3.3语义理解3.4工程技巧4总结1古彝文与古典保护彝文指的是云南、贵州、四川等地的彝族人使用的文字,区别于现代意义上的彝文,古彝文指的是在民间流通使用的原生态彝文,多达87046字。古彝文的起源距今至少数千年,是世界上最古老的文字之一。对古彝文字集研究有助于理解尚未被翻译成汉文、用字尚未规范化的古籍,更深层、透彻地作用于传统文化保护。古彝文字义对照图(网络资料+邵文苑供图)古籍是不可再生的宝贵资源,应当得到妥善保护。中国的古籍在历史上迭经水火兵燹等自然灾害、

  3. 「认识AI:人工智能如何赋能商业」【04】机器学习的商业应用 - 2

    作者|Harper审核 |gongyouliu编辑|auroral-L机器学习的商业应用上期给大家介绍了机器学习的概念,但是理解机器学习最好方法之一,就是了解其在具体商业世界中的各种应用。在道格’罗斯的这本《认识AI,人工智能赋能商业》中,介绍了几类机器学习的商业应用,在这里我给大家归纳一下。第一,数据安全,为了避免被发现,制造恶意软件的人会不断更改代码,通常为2%~10%的修改,但是通过机器学习,安全软件可以适应这一小部分变化,并准确识别新创建的恶意软件。它还可以寻找访问方式的模式,以识别可能的安全威胁。第二,投资。机器学习使得计算机能够处理大量的财务数据,并利用其发现的规律预测市场及每只股

  4. 基于ChatGPT的智能问答、ai绘图微信小程序思路 - 2

    ChatGPT![在这里插入图片描述](https://img-blog.csdnimg.cn/186d9ecc453b48be9f19c467da7c3f07.jpegChatGPT是openai公司的一个人工智能机器人产品,目前已经升级到4.0版本。其因便捷高效,已经在大学生、IT届、科研界等领域广为流传。但是直接进入其官网使用有时候并不是那么方便,毕竟他不开放给中国用户使用,我们需要一些魔法才能用上。如果做成一个微信小程序随时随地打开就能用的话,会方便很多。正好openai官方也开放了api供开发者使用。我们可以进入openai官网https://platform.openai.com/

  5. AI 芯片的简要发展历史 - 2

    随着人工智能领域不断取得突破性进展。作为实现人工智能技术的重要基石,AI芯片拥有巨大的产业价值和战略地位。作为人工智能产业链的关键环节和硬件基础,AI芯片有着极高的技术研发和创新的壁垒。从芯片发展的趋势来看,现在仍处于AI芯片发展的初级阶段。未来将是AI芯片发展的重要阶段,无论是架构还是设计理念都存在着巨大的创新空间。一、芯片的发展历史1956年达特茅斯会议上,科学家约翰·麦卡锡,克劳德·香农和马文·明斯基提出了"人工智能"一词。50年代末,阿瑟·萨缪尔(ArthurSamuel)提出了"机器学习"这个术语,他开发了一个西洋跳棋程序,可以从错误中吸取教训,经过学习后,甚至比编写程序的人棋力更强

  6. Javascript 和 AI,事实还是虚构? - 2

    很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visitthehelpcenter.关闭11年前。在电视上我看到了一些有趣的机器人。这些有一些二极管、太阳能收集器和一些马达。二极管决定光的位置,因此它们将机器人转向为它提供光的方向。它有点跟随光。现在,基于此,我想知道一些简单的AI。有没有办法编写一个可以从用户交互中学习的引擎?作为初学者,只学习和记住用户在页面上的session就足够了。感谢任何帮助。

  7. Unity2d自动寻路(AI插件) - 2

    插件网址指路:A*PathfindingProjecthttps://arongranberg.com/astar/download3D如何简单的使用参见:A*Pathfinding插件(3D)_作孽就得先起床的博客-CSDN博客将下载好的插件导入后如何进行操作?新建一个空的CreatEmpty给它另取个名字接着添加组件接着输"path"选择第一个“Pathfinder” 选择后点击“Graphs”(图)选择第一个在打开时可能会发生折叠,点开“GridGraph”就好下面开始操作:1、勾选‘2D’2、到场景中调整覆盖区域大小,限制Ai追踪的范围 也可用边框的这里进行调整3、勾选“Use2DPh

  8. VideoMAE:南大MCG&腾讯AI Lab 提出第一个视频版MAE框架,使用90%甚至95%遮挡,性能SOTA!... - 2

    关注公众号,发现CV技术之美本文分享论文『VideoMAE:MaskedAutoencodersareData-EfficientLearnersforSelf-SupervisedVideoPre-Training』,由南大王利民团队提出第一个VideoMAE框架,使用超高maskingratio(90%-95%),性能SOTA,代码已开源!详细信息如下:论文链接:https://arxiv.org/abs/2203.12602项目链接:https://github.com/MCG-NJU/VideoMAE    01     摘要为了在相对较小的数据集上实现卓越的性能,通常需要在超大规模数据

  9. 哪个AI绘画软件好用?接着看下去吧我告诉你 - 2

    这几年AI绘画非常的流行,相信大家平时在浏览社交平台时,也经常看见别人发布出来的绘图作品。AI绘画不仅可以帮助许多没有绘画基础的朋友可以画出自己的作品,而且可玩性也非常的高。那大家想体验一下AI绘画的乐趣吗?如果想的话就接着看下去吧,我来告诉你智能AI绘画免费软件有哪些。推荐软件一:Styler手机端推荐理由:Styler是我个人比较喜欢使用的软件,它拥有漫画脸、卡通艺术滤镜、视频变漫画等多种特效可以使用,而且软件的AI绘图功能使用了前沿的技术,绘画出来的内容符合逻辑,不会产生太大的违和感。使用体验感:①它支持上传参考图给AI学习模仿,可以帮助大家绘画出自己想要的图案。②这个软件使用了前沿的技

  10. AI自主图像生成 之 stable-diffusion—运行效果展示 - 2

    stable-diffusion用途:输入文字描述,输出对应图片Thechickenwiththehairpartedinthemiddleandthesuspendersisplayingbasketball(梳着中分头,穿着吊带裤的鸡,打篮球.。)1.环境与感受介绍这几天跑省外出差被隔离,不过随身带了个主机和显示器(笔记本太差跑不了项目程序,只能随身带主机,一言难尽…),正巧又刷到stable-diffusion开源的消息,现在就来试试搭建这个试试水硬件环境:显卡306012G显存,内存32G主要就这两,cpu没太大要求,除非你想用cpu跑深度学习…软件环境:基于Anaconda的pyth

随机推荐