近日,ChatGPT持续火爆,用户在短短两个月内迅速破亿,大量用户涌入导致ChatGPT访问和数据规模指数级增加。与数月前发布的版本相比,新的ChatGPT“智能”了许多,不仅可以像人类一样聊天交流,甚至能够完成一定程度的稿件撰写、视频脚本创作、翻译、代码,答题等操作。
毫无疑问,ChatGPT将人工智能(AI)的用户交互体验、生产力水平提升到了新的高度。而众多国内外知名互联网公司的纷纷入局,也让这场“人工智能竞赛”盛况空前,对算力水平、存储容量、存储性能的需求空前高涨。


语音识别、语意处理与交互,一直以来都是人工智能的重点应用领域。ChatGPT主要涉及到自然语言处理相关技术,属于认知智能领域的应用之一。
ChatGPT起初基于OpenAI GPT-3语言模型训练开发,用以完成自然语言处理的绝大部分任务。但由于GPT-3自身无监督模型的属性,使得在早先版本的对话中,会存在一些生硬、甚至不恰当的文本响应,交互体验并不理想。
全新上线的ChatGPT由GPT-3.5训练模型微调而来——通过加入RLHF(人类反馈强化学习训练,Reinforcement Learning from Human Feedback)来指导机器学习过程,生成更加符合人类偏好的对话结果。
Step1:收集示范数据并训练监督策略模型
选择一个提示列表(Prompt),标注人员按照一定要求写下符合预期的输出,同时结合API过往请求获得的高质量结果,形成一个相对较小,但质量很高的数据集;基于该数据集对GPT-3.5进行调优训练。
Step2:收集比对数据,训练奖励模型(RM)
由于示范数据规模较小,调优后的模型仍然会产生多个回复内容,且其中一些并不理想。在Step2中,通过对这些输出结果进行人为打分,标记这些结果的可用度,使得模型能够模仿人类的偏好,即,生成奖励模型Reward Model。
Step3:使用奖励模型和PPO算法继续优化
将奖励模型作为奖励函数,使用PPO(近端策略优化,Proximal Policy Optimization)算法继续微调模型实现奖励最大化,通过对过程的多次重复与迭代,实现模型的不断完善。

数据的调优,算法的优化与迭代,让ChatGPT的交互体验得到显著提升。对ChatGPT原理更加深入的解读,相关文章报道已经有不少了,在此不做赘述。接下来,我们回归“本行”,重点聊聊NVMe在以ChatGPT为代表的人工智能应用中的作用。
数据、算法、算力,共同构成了驱动人工智能技术前进的三驾马车。和我们每天使用的语音输入、语音交互、人脸识别、影像识别、内容翻译,乃至辅助驾驶(最终目标为全自动驾驶)等技术相同,ChatGPT同样也是基于机器学习,通过神经网络训练,模仿人类学习过程并学以致用的人工智能应用,它同样需要海量的数据(尽可能多的应用案例)与强大的算力加以支撑。只有积攒了足够多的经验,方可做到“熟能生巧,临危不乱”。
ChatGPT早期使用的GPT-3数据规模约为45TB,主要来自于互联网,每天产生的数据内容约为45亿字。随着ChatGPT的开放体验,以及如今ChatGPT的再度火热,将不断有新的高质量对话案例产生,甚至呈现几何级增长。这些新增数据将有效推动训练模型的继续迭代,实现ChatGPT应用体验越来越好。
算力方面,ChatGPT由Microsoft为OpenAI开放的Azure AI超算平台提供性能支撑。该平台由NVIDIA、Microsoft联合打造,可以为OpenAI提供超过258000个CPU核心和超过1000颗GPU。强大的计算性能结合GPT-3高达1750亿的训练参数,也让不少行业从业人员称“ChatGPT是大力出奇迹”的结果。
根据Microsoft、NVIDIA的相关报道,未来,Azure AI超算平台还将升级至400Gb/s InfiniBand网络和性能更强的NVIDIA H100 GPU,结合Azure先进的云计算架构与下一代NVMe高性能SSD,将可为任意规模的AI训练和深度学习推理工作负载提供可扩展的峰值性能,Azure AI超级计算机也将有望跻身Top500榜单前5名。
NVMe SSD作为存储IO设备,在AI训练等高性能应用场景正全面取代传统SAS、SATA硬盘,其读写性能已经达到7GB/s水平,并向速度更快的14GB/s快速进发,容量方面更是在短短数年间提高了数十倍,让更大规模的训练数据可以保存其中。
GPU是当前AI训练、AI推理普遍使用的算力芯片。相较于数年前行业使用的Tesla、TITAN等GPU,最新的A100、H100算力水平(FP16、FP8)已经提升了数百倍,结合DPU、IB网卡、Magnum IO等软硬件的支持与优化,为AI训练、专业渲染、自动驾驶、科学计算、医疗、视频分析等前沿应用全面加速。
为验证高性能NVMe SSD在AI应用中的价值,我们联合某AI行业合作伙伴,基于GPU训练平台和Magnum IO中的GPUDirect Storage(简称“GDS”)技术,使用8片容量为7.68TB的PBlaze6 6930系列PCIe 4.0企业级NVMe SSD进行了相关测试,结果如下。
GDS——通过利用GPU和NVMe SSD中的DMA(Direct Memory Access)引擎,让NVMe SSD可以直接读写GPU专用内存(通常我们更习惯称之为“显存”),而不再需要经过CPU和系统内存中的反弹缓冲区(Bounce Buffer),借此缩短IO路径,提高GPU的执行效率,降低系统内存消耗以及CPU占用。




如果说,GPUDirect Storage为AI工作负载提供了性能和响应时间优势,那么,PBlaze6 6930系列PCIe 4.0高性能企业级NVMe SSD则凭借其大压力下的出色性能,将GPUDirect Storage的存储性能提升到了新的高度,在极端应用情况下依旧可以为最为复杂的AI模型训练保驾护航。
PBlaze6 6930系列企业级SSD针对人工智能等IO密集型应用开发,有着高达1600K/680K IOPS的4K随机读/写性能,7.1GB/s和7.0GB/s的128K顺序读/写带宽,在多核计算、动态平滑技术、硬件多队列引擎、IO智能调度等算法深度优化下,无论负载压力如何,始终提供稳定出色的数据读写表现。结合高达30.72TB的单盘容量,为AI训练数据的收集、预处理、训练等任务提供充沛的存储性能与容量支撑。

如今,面向AI等高性能数字技术应用的全新一代GPU、CPU、InfiniBand网络均已悉数亮相,Memblaze的PCIe 5.0产品——PBlaze7 7940也是呼之欲出,以近乎翻倍的性能和更加丰富的企业级功能,继续为下一代计算平台与高性能业务应用加速!
参考材料:
导读语言模型给我们的生产生活带来了极大便利,但同时不少人也利用他们从事作弊工作。如何规避这些难辨真伪的文字所产生的负面影响也成为一大难题。在3月9日智源Live第33期活动「DetectGPT:判断文本是否为机器生成的工具」中,主讲人Eric为我们讲解了DetectGPT工作背后的思路——一种基于概率曲率检测的用于检测模型生成文本的工具,它可以帮助我们更好地分辨文章的来源和可信度,对保护信息真实、防止欺诈等方面具有重要意义。本次报告主要围绕其功能,实现和效果等展开。(文末点击“阅读原文”,查看活动回放。)Ericmitchell斯坦福大学计算机系四年级博士生,由ChelseaFinn和Chri
英文版英文链接关注公众号在“亚特兰蒂斯的回声”中踏上一段难忘的冒险之旅,深入未知的海洋深处。足智多谋的考古学家AriaSeaborne偶然发现了一件古代神器,揭示了一张通往失落之城亚特兰蒂斯的隐藏地图。在她神秘的导师内森·兰登教授的指导和勇敢的冒险家亚历克斯·默瑟的帮助下,阿丽亚开始了一段危险的旅程,以揭开这座传说中城市的真相。他们的冒险之旅带领他们穿越险恶的大海、神秘的岛屿和充满陷阱和谜语的致命迷宫。随着Aria潜在的魔法能力的觉醒,她被睿智勇敢的QueenNeria的幻象所指引,她让她为即将到来的挑战做好准备。三人组揭开亚特兰蒂斯令人惊叹的隐藏文明,并了解到邪恶的巫师马拉卡勋爵试图利用其古
我正在使用Ruby解决一些ProjectEuler问题,特别是这里我要讨论的问题25(Fibonacci数列中包含1000位数字的第一项的索引是多少?)。起初,我使用的是Ruby2.2.3,我将问题编码为:number=3a=1b=2whileb.to_s.length但后来我发现2.4.2版本有一个名为digits的方法,这正是我需要的。我转换为代码:whileb.digits.length当我比较这两种方法时,digits慢得多。时间./025/problem025.rb0.13s用户0.02s系统80%cpu0.190总计./025/problem025.rb2.19s用户0.0
我正在寻找一个用ruby演示计时器的在线示例,并发现了下面的代码。它按预期工作,但这个简单的程序使用30Mo内存(如Windows任务管理器中所示)和太多CPU有意义吗?非常感谢deftime_blockstart_time=Time.nowThread.new{yield}Time.now-start_timeenddefrepeat_every(seconds)whiletruedotime_spent=time_block{yield}#Tohandle-vesleepinteravalsleep(seconds-time_spent)iftime_spent
如果用户是所有者,我有一个条件来检查说删除和文章。delete_articleifuser.owner?另一种方式是user.owner?&&delete_article选择它有什么好处还是它只是一种写作风格 最佳答案 性能不太可能成为该声明的问题。第一个要好得多-它更容易阅读。您future的自己和其他将开始编写代码的人会为此感谢您。 关于ruby-on-rails-如果条件与&&,是否有任何性能提升,我们在StackOverflow上找到一个类似的问题:
我编写了一个Ruby应用程序,它可以解析来自不同格式html、xml和csv文件的源中的大量数据。我如何找出代码的哪些区域花费的时间最长?有没有关于如何提高Ruby应用程序性能的好资源?或者您是否有任何始终遵循的性能编码标准?例如,你总是用加入你的字符串吗?output=String.newoutput或者你会使用output="#{part_one}#{part_two}\n" 最佳答案 好吧,有一些众所周知的做法,例如字符串连接比“#{value}”慢得多,但是为了找出您的脚本在哪里消耗了大部分时间或比所需时间更多,您需要进行分
LL库和HAL库简介LL:Low-Layer,底层库HAL:HardwareAbstractionLayer,硬件抽象层库LL库和hal库对比,很精简,这实际上是一个精简的库。LL库的配置选择如下:在STM32CUBEMX中,点击菜单的“ProjectManager”–>“AdvancedSettings”,在下面的界面中选择“AdvancedSettings”,然后在每个模块后面选择使用的库总结:1、如果使用的MCU是小容量的,那么STM32CubeLL将是最佳选择;2、如果结合可移植性和优化,使用STM32CubeHAL并使用特定的优化实现替换一些调用,可保持最大的可移植性。另外HAL和L
2022年底,OpenAI的预训练模型ChatGPT给人工智能领域的爱好者和研究人员留下了深刻的印象和启发,他展现的惊人能力将人工智能的研究和应用热度推向高潮,网上也充斥着和ChatGPT的各种聊天,他可以作诗、写小说、写代码、讨论疫情问题等。下面就是一些他的神回复:人命关天的坑: 写歌,留给词作者的机会不多了。。。 回答人类怎么样面对人工智能: 什么是ChatGPT?借用网上的一段介绍,ChatGPT是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动的自然语言处理工具。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动
目录ChatGPT简介技术原理应用未来发展ChatGPT的10 种用法ChatGPT简介ChatGPT是一种基于深度学习的大型语言模型,由OpenAI公司开发。技术原理GPT是GenerativePre-trainedTransformer的缩写,意为生成式预训练变压器。它的技术原理是使用了一个基于注意力机制的变压器(Trans
是否存在GC.disable会降低性能的情况?只要我使用的是真正的RAM而不是交换内存,就可以这样做吗?我正在使用MRIRuby2.0,据我所知,它是64位的,并且使用的是64位的Ubuntu:ruby2.0.0p0(2013-02-24revision39474)[x86_64-linux]Linux[redacted]3.2.0-43-generic#68-UbuntuSMPWedMay1503:33:33UTC2013x86_64x86_64x86_64GNU/Linux 最佳答案 GC.disable将禁用垃圾回收。像rub