译者 | 李睿
审校 | 孙淑娟
OpenAI又火了!近期许多人的朋友圈里都混进了一个让人既爱又怕的狠角色,以至于StackOverflow不得不急忙下架。
近日,OpenAI发布了聊天AI ChatGPT,短短几天,其用户量直冲百万级,甚至服务器一度被注册用户挤爆了。
这种被网友惊叹“超越谷歌搜索”的神器究竟怎么做到的?到底靠谱吗?
OpenAI公司日前发布了ChatGPT,这是另一个基于旗舰GPT系列的大型语言模型(LLM),是一个专门用于对话交互的模型。用户可以下载该公司的免费演示版本。
与发布的大多数大型语言模型(LLM)一样,ChatGPT的发布也引发了一些争议。在发布之后的短短几个小时内,这个新的语言模型就在Twitter上引起了轰动,用户纷纷上传ChatGPT令人印象深刻的成就或者遭遇灾难性失败的截图。
然而,从大型语言模型的广泛角度来看,ChatGPT反映了该领域短暂而丰富的历史,代表了在短短几年内取得了多大的进展,以及还有哪些基本问题有待解决。
无监督学习仍然是人工智能社区追求的目标之一,而互联网上有大量宝贵的知识和信息。但直到最近,其中大部分的信息都无法用于机器学习系统。大多数机器学习和深度学习应用程序都是被监督的,这意味着人类必须采集大量数据样本并对每个样本进行注释,以训练机器学习系统。
随着Transformer架构(大型语言模型的关键组件)的出现,这种情况发生了变化。可以使用大量的无标记文本语料库来训练Transformer模型。它们随机屏蔽文本的部分,并试图预测缺失的部分。通过反复执行这一操作,Transformer调整其参数,以表示大序列中不同单词之间的关系。
这已被证明是一种非常有效和可扩展的策略。不需要人工标记,就可以收集非常大的训练语料库,从而允许创建和训练越来越大的Transformer模型。研究和实验表明,随着Transformer模型和大型语言模型(LLM)的规模增大,它们可以生成更长的连贯文本序列。大型语言模型(LLM)还展示了大规模的应急能力。
大型语言模型(LLM)通常只有文本,这意味着它们缺乏试图模仿的人类丰富的多感官体验。尽管GPT-3等大型语言模型(LLM)取得了令人印象深刻的成果,但它们存在一些基本缺陷,使得它们在需要常识、逻辑、规划、推理和其他知识的任务中无法预测,而这些知识通常在文本中被省略。大型语言模型(LLM)以产生幻觉反应、生成连贯但事实上虚假的文本以及经常误解用户提示的明显意图而闻名。
通过加大模型及其训练语料库的规模,科学家们已经能够减少大型语言模型中明显错误的频率。但根本的问题并没有消失,即使是最大的大型语言模型(LLM)也会在很小的推动下犯愚蠢的错误。
如果大型语言模型(LLM)只在科学研究实验室中用于跟踪基准测试的表现,这可能不会是一个大问题。然而,随着人们对在现实应用中使用大型语言模型(LLM)越来越感兴趣,解决这些问题和其他问题变得更加重要。工程师必须确保他们的机器学习模型在不同的条件下保持健壮,并满足用户的需求和要求。
为了解决这一问题,OpenAI使用了来自人类反馈强化学习(RLHF)技术,该技术此前开发用于优化强化学习模型。人类反馈强化学习(RLHF)不是让强化学习模型随机探索其环境和行为,而是使用来自人类主管的偶尔反馈来引导代理朝正确的方向前进。人类反馈的强化学习(RLHF)的好处是,它能够以极小的人为反馈改善强化学习代理的训练。
OpenAI后来将人类反馈强化学习(RLHF)应用于InstructGPT,这是一个大型语言模型(LLM)系列,旨在更好地理解和响应用户提示中的指令。InstructGPT是一个GPT-3模型,它根据人类反馈进行了微调。
这显然是一种权衡。人工注释可能成为可扩展训练过程中的瓶颈。但通过在无监督学习和有监督学习之间找到正确的平衡,OpenAI能够获得重要的好处,包括更好地响应指令、减少有害输出和资源优化。根据OpenAI的研究结果,13亿个参数的InstructionGPT在指令跟随方面通常优于1750亿个参数GPT-3模型。

ChatGPT的训练过程
ChatGPT建立在从InstructGPT模型中获得的经验之上。人工注释器创建一组示例对话,其中包括用户提示和模型响应。这些数据用于微调构建ChatGPT所基于的GPT-3.5模型。在下一步中,将为经过微调的模型提供新的提示,并为其提供若干响应。标注人员对这些反应进行排名。然后,从这些交互中生成的数据被用于训练奖励模型,这有助于在强化学习管道中进一步微调大型语言模型(LLM)。
OpenAI尚未披露强化学习过程的全部细节,但人们很想知道这个过程的“不可扩展的成本”,也就是需要多少人力。
ChatGPT的结果令人印象深刻。该模型已经完成了各种各样的任务,包括提供代码反馈、写诗、用不同的音调解释技术概念、为生成人工智能模型生成提示。
然而,该模型也容易出现类似大型语言模型(LLM)所犯的那种错误,例如引用不存在的论文和书籍,误解直观的物理学,以及在组合性方面失败。
人们对这些失败并不感到惊讶。ChatGPT并没有发挥什么神奇的作用,它应该遇到与它的前一代同样的问题。然而,在现实世界的应用中,可以在哪里以及在多大程度上信任它?显然,这里有一些有价值的内容,正如人们在Codex和GitHubCopilot中所看到的,大型语言模型(LLM)可以被非常有效地使用。
在这里,决定ChatGPT是否有用的是与它一起实现的工具和保护的种类。例如,ChatGPT可能成为为企业创建聊天机器人的一个非常好的平台,例如编码和图形设计的数字伴侣。首先,如果它遵循InstructGPT的示例,那么应该能够以更少的参数获得复杂模型的性能,这将使它具有成本效益。此外,如果OpenAI提供了工具,使企业能够实现自己的人类反馈强化学习(RLHF)的微调,那么它可以进一步针对特定应用程序进行优化,在大多数情况下,这比聊天机器人更有用,聊天机器人可以随意谈论任何事情。最后,如果为应用程序开发人员提供了将ChatGPT与应用程序场景集成,并将其输入和输出映射到特定应用程序事件和操作的工具,他们将能够设置正确的护栏,以防止模型采取不稳定的操作。
基本上,OpenAI创造了一个强大的人工智能工具,但具有明显的缺陷。它现在需要创建正确的开发工具生态系统,以确保产品团队能够利用ChatGPT的力量。GPT-3为许多不可预测的应用开辟了道路,因此了解ChatGPT的库存会很有趣。
原文链接:https://bdtechtalks.com/2022/12/05/openai-chatgpt/
我将应用程序升级到Rails4,一切正常。我可以登录并转到我的编辑页面。也更新了观点。使用标准View时,用户会更新。但是当我添加例如字段:name时,它不会在表单中更新。使用devise3.1.1和gem'protected_attributes'我需要在设备或数据库上运行某种更新命令吗?我也搜索过这个地方,找到了许多不同的解决方案,但没有一个会更新我的用户字段。我没有添加任何自定义字段。 最佳答案 如果您想允许额外的参数,您可以在ApplicationController中使用beforefilter,因为Rails4将参数
我意识到这可能是一个非常基本的问题,但我现在已经花了几天时间回过头来解决这个问题,但出于某种原因,Google就是没有帮助我。(我认为部分问题在于我是一个初学者,我不知道该问什么......)我也看过O'Reilly的RubyCookbook和RailsAPI,但我仍然停留在这个问题上.我找到了一些关于多态关系的信息,但它似乎不是我需要的(尽管如果我错了请告诉我)。我正在尝试调整MichaelHartl'stutorial创建一个包含用户、文章和评论的博客应用程序(不使用脚手架)。我希望评论既属于用户又属于文章。我的主要问题是:我不知道如何将当前文章的ID放入评论Controller。
我在新的Debian6VirtualBoxVM上安装RVM时遇到问题。我已经安装了所有需要的包并使用下载了安装脚本(curl-shttps://rvm.beginrescueend.com/install/rvm)>rvm,但以单个用户身份运行时bashrvm我收到以下错误消息:ERROR:Unabletocheckoutbranch.安装在这里停止,并且(据我所知)没有安装RVM的任何文件。如果我以root身份运行脚本(对于多用户安装),我会收到另一条消息:Successfullycheckedoutbranch''安装程序继续并指示成功,但未添加.rvm目录,甚至在修改我的.bas
英文版英文链接关注公众号在“亚特兰蒂斯的回声”中踏上一段难忘的冒险之旅,深入未知的海洋深处。足智多谋的考古学家AriaSeaborne偶然发现了一件古代神器,揭示了一张通往失落之城亚特兰蒂斯的隐藏地图。在她神秘的导师内森·兰登教授的指导和勇敢的冒险家亚历克斯·默瑟的帮助下,阿丽亚开始了一段危险的旅程,以揭开这座传说中城市的真相。他们的冒险之旅带领他们穿越险恶的大海、神秘的岛屿和充满陷阱和谜语的致命迷宫。随着Aria潜在的魔法能力的觉醒,她被睿智勇敢的QueenNeria的幻象所指引,她让她为即将到来的挑战做好准备。三人组揭开亚特兰蒂斯令人惊叹的隐藏文明,并了解到邪恶的巫师马拉卡勋爵试图利用其古
因为我现在正在做一些时间测量,我想知道是否可以在不使用Benchmark类或命令行实用程序time的情况下测量用户时间或系统时间。使用Time类只显示挂钟时间,而不显示系统和用户时间,但是我正在寻找具有相同灵active的解决方案,例如time=TimeUtility.now#somecodeuser,system,real=TimeUtility.now-time原因是我有点不喜欢Benchmark,因为它不能只返回数字(编辑:我错了-它可以。请参阅下面的答案。)。当然,我可以解析输出,但感觉不对。*NIX系统的time实用程序也应该可以解决我的问题,但我想知道是否已经在Ruby中实
我遇到了一个非常奇怪的问题,我很难解决。在我看来,我有一个与data-remote="true"和data-method="delete"的链接。当我单击该链接时,我可以看到对我的Rails服务器的DELETE请求。返回的JS代码会更改此链接的属性,其中包括href和data-method。再次单击此链接后,我的服务器收到了对新href的请求,但使用的是旧的data-method,即使我已将其从DELETE到POST(它仍然发送一个DELETE请求)。但是,如果我刷新页面,HTML与"new"HTML相同(随返回的JS发生变化),但它实际上发送了正确的请求类型。这就是这个问题令我困惑的
我是Ruby的新手。我试过查看在线文档,但没有找到任何有效的方法。我想在以下HTTP请求botget_response()和get()中包含一个用户代理。有人可以指出我正确的方向吗?#PreliminarycheckthatProggitisupcheck=Net::HTTP.get_response(URI.parse(proggit_url))ifcheck.code!="200"puts"ErrorcontactingProggit"returnend#Attempttogetthejsonresponse=Net::HTTP.get(URI.parse(proggit_url)
有人知道如何将capybarapoltergeist的用户代理覆盖到移动用户代理以进行测试吗?我发现了一些有关为seleniumwebdriver配置它的信息:http://blog.plataformatec.com.br/2011/03/configuring-user-agents-with-capybara-selenium-webdriver/这在capybara闹鬼中怎么可能? 最佳答案 请参阅poltergeistgithub页面上的链接:https://github.com/teampoltergeist/polte
A/ctohttp://wiki.nginx.org/CoreModule#usermaster进程曾经以root用户运行,是否可以以不同的用户运行nginxmaster进程? 最佳答案 只需以非root身份运行init脚本(即/etc/init.d/nginxstart),就可以用不同的用户运行nginxmaster进程。如果这真的是你想要做的,你将需要确保日志和pid目录(通常是/var/log/nginx&/var/run/nginx.pid)对该用户是可写的,并且您所有的listen调用都是针对大于1024的端口(因为绑定(
我想验证一个电子邮件地址是否是PayPal用户。是否有API调用来执行此操作?是否有执行此操作的ruby库?谢谢 最佳答案 GetVerifiedStatus来自PayPal'sAdaptiveAccounts平台会为您做这件事。PayPal没有任何codesamples或SDKs用于Ruby中的自适应帐户,但我确实找到了编写codeforGetVerifiedStatusinRuby的人.您需要更改该代码以检查他们拥有的帐户类型的唯一更改是更改if@xml['accountStatus']!=nilaccount_status