草庐IT

ChatGPT相关技术必读论文100篇(2.27日起,几乎每天更新)

v_JULY_v 2023-04-18 原文

按上篇文章《ChatGPT技术原理解析:从RL之PPO算法、RLHF到GPT-N、instructGPT》的最后所述

为了写本ChatGPT笔记,过去两个月翻了大量中英文资料/paper(中间一度花了大量时间去深入RL),大部分时间读的更多是中文资料


2月最后几天读的更多是英文paper,正是2月底这最后几天对ChatGPT背后技术原理的研究才真正进入状态(后还组建了一个“ChatGPT之100篇论文阅读组”,我和10来位博士、业界大佬从23年2.27日起100天读完ChatGPT相关技术的100篇论文),当然 还在不断深入,由此而感慨: 

  1. 读的论文越多,你会发现大部分人对ChatGPT的技术解读都是不够准确或全面的,毕竟很多人没有那个工作需要或研究需要,去深入了解各种细节
  2. 因为100天100篇这个任务,让自己有史以来一篇一篇一行一行读100篇,​之前看的比较散 不系统 抠的也不细
    比如回顾“Attention is all you need”这篇后,对优化博客内的Transformer笔记便有了很多心得

总之,读的论文越多,博客内相关笔记的质量将飞速提升 自己的技术研究能力也能有巨大飞跃

且考虑到为避免上篇文章篇幅太长而影响完读率,故把这100论文的清单抽取出来独立成本文

  1. Attention Is All You Need,Transformer原始论文
  2. GPT:Improving Language Understanding by Generative Pre-Training
    GPT2:Language Models are Unsupervised Multitask Learners
  3. GPT3原始论文:Language Models are Few-Shot Learners
  4. ICL原始论文
  5. Evaluating Large Language Models Trained on Code,Codex原始论文
    预测当前序列的最后一个词时 可以选取概率最大的词(softmax最高的值),但没法全局最优且不具备多样性,当然 可以使用束搜索 一次性获取多个解
    论文中用的是核采样,预测的各个词根据概率从大到小排序,选取前些个概率加起来为95%的词
  6. CoT原始论文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
    28 Jan 2022 · Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou
    也从侧面印证,instructGPT从22年1月份之前 就开始迭代了
  7. Training language models to follow instructions with human feedback
    InstructGPT原始论文

  8. RLHF原始论文
  9. Proximal Policy Optimization Algorithms
    2017年,OpenAI发布的PPO原始论文,在理解过程中有时会问下GPT4,感叹GPT4的细节能力 虽经常不是很严谨 但细节能力是真6

    另,这是TRPO论文
  10. Large Language Models are Zero-Shot Reasoners
    来自东京大学和谷歌的工作,关于预训练大型语言模型的推理能力的探究,“Let's think step by step”的梗即来源于此篇论文
  11. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
    19年10月,Google发布T5模型(transfer text to text transformer),虽也基于transformer,但区别于BERT的编码器架构与GPT的解码器架构,T5是transformer的encoder-decoder架构,这是解读之一 
    用的750G的训练数据,其训练方法则为:BERT-style的MASK法/replace span(小段替换)/Drop法,以及类似BERT对文本的15%做破坏、且replace span时对3的小段破坏
  12. LaMDA: Language Models for Dialog Applications,论文发布于22年1月,显示LaMDA的参数高达137B,用的transformer decoder架构,这是简要解读之一
    21年5月,Google对外宣布内部正在研发对话模型LaMDA,基于transformer decoder架构,在微调阶段 使用58K的对话数据,过程类似真人的对话过程,给定一个Query,比如 How old is Rafael Nadal? ,如果人知道答案,那么直接回答35岁即可,如果不知道,则需要去 Research 一下,借助搜索引擎找到答案,然后再回答35岁
  13. Finetuned Language Models Are Zero-Shot Learners
    21年9月,Google提出FLAN大模型,其基于LaMDA-PT做Instruction Fine-Tuning
    FLAN is the instruction-tuned version of LaMDA-PT
  14. PaLM: Scaling Language Modeling with Pathways
    22年3月,Google的Barham等人发布了Pathways系统,用于更高效地训练大型模型
    Pathways 的愿景 —— 一个很接近人脑的框架:一个模型,可以做多任务,多模态
    且在做任务时,只是 sparsely activated,只使用一部分的参数

    22年4月,Google发布PaLM模型,基于Transformer decoder架构,参数规模最大的版本达到惊人的5400亿参数(8B 62B 540B),使用multi-query注意力、SwiGLU激活函数以及RoPE位置嵌入,这是翻译之一
    且在每个Transformer块中使用 "平行 "表述(Wang & Komatsuzaki,2021)
    是Google的Pathways架构或OpenAI GPT2/3提出的小样本学习的进一步扩展

    PaLM首次展示了Pathways的大规模使用——能够以高效的方式在数千或数万个加速器芯片上训练一个模型
    具体来说,通过Pathways,PaLM 540B在两个通过数据中心网络连接的TPU v4 Pod上训练,使用模型和数据并行的组合,在每个Pod中使用3072个TPU v4芯片,连接到768台主机,能够有效地将训练扩展到6144个芯片,而不需要使用任何pipeline并行,其效率水平是以前这种规模的模型所不能达到的

    以前的大多数大型语言模型
      要么是在单个TPU系统上训练的(比如GLaM by Du等人2021年,LaMDA by Thopilan等人)
      要么是使用由Huang等人在2019年提出的pipeline并行,从而在GPU集群(Megatron-Turing NLG 530B by Smith等人2022年),或多个TPU v3 pod(Gopher by Rae等人2021年)上扩展,最大规模为4096个TPU v3芯片

    另,在自然语言、代码和数学推理等任务中表现的都很不错
    此外,预训练数据集由一个7800亿个token组成的语料库,该数据集是由过滤过的网页(占比27%)、书籍(占比13%)、Wikipedia(占比4%)、新闻文章(占比1%)、Github源代码(占比5%,包括Java、HTML、Javascript、Python、PHP、C#、XML、C++和C,总计196GB的源代码),和社交媒体对话(占比50%)组成的,这个数据集是也用于训练LaMDA和GLaM

  15. Emergent Abilities of Large Language Models
    Google 22年8月份发的,探讨大语言模型的涌现能力
  16. Scaling Instruction-Finetuned Language Models,Flan-T5(2022年10月)
    从三个方面改变指令微调,一是改变模型参数,提升到了540B,二是增加到了1836个微调任务,三是加上Chain of thought微调的数据
  17. Multimodal Chain-of-Thought Reasoning in Language Models
    23年2月,亚马逊的研究者则在这篇论文里提出了基于多模态思维链技术改进语言模型复杂推理能力的思想
  18. LLaMA: Open and Efficient Foundation Language Models,2023年2月24日Meta发布了全新的65B参数大语言模型LLaMA,开源,大部分任务的效果好于2020年的GPT-3
    这是针对该论文的解读之一
  19. Language Is Not All You Need: Aligning Perception with Language Models,微软23年3月1日发布的多模态大语言模型Kosmos-1的论文
  20. PaLM-E: An Embodied Multimodal Language Model(论文地址),Google于23年3月6日发布的关于多模态LLM:PaLM-E,可让能听懂人类指令且具备视觉能力的机器人干活
  21. Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models,微软于23年3月8日推出visual ChatGPT(另,3.9日微软德国CTO说,将提供多模态能力的GPT4即将一周后发布)
    At the same time, Visual Foundation Models, such as Visual Transformers or Stable Diffusion, although showing great visual understanding and generation capabilities, they are only experts on specific tasks with one round fixed inputs and outputs. 

    To this end, We build a system called {Visual ChatGPT}, incorporating different Visual Foundation Models, to enable the user to interact with ChatGPT by 
    1) sending and receiving not only languages but also images 
    2) providing complex visual questions or visual editing instructions that require the collaboration of multiple AI models with multi-steps. 
    3) providing feedback and asking for corrected results. 

    We design a series of prompts to inject the visual model information into ChatGPT, considering models of multiple inputs/outputs and models that require visual feedback

  22. A Comprehensive Survey on Pretrained Foundation Models: A History from BERT to ChatGPT:https://arxiv.org/pdf/2302.09419,预训练基础模型的演变史
  23. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
  24. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing,作者来自CMU的刘鹏飞,这是相关资源

    另一篇类似的,Pre-Trained Models: Past, Present and Future
    21年1月初在CCF启智会支持下,文继荣、唐杰和黄民烈三位老师召集了以预训练模型为主题的闭门研讨会,此后22位老师和同学经过近半年准备,共同形成了这篇43页的综述和观点文章 Pre-Trained Models: Past, Present and Future
  25. Offsite-Tuning: Transfer Learning without Full Model
    对于许多的私有基础模型,数据所有者必须与模型所有者分享他们的数据以微调模型,这是非常昂贵的,并引起了隐私问题(双向的,一个怕泄露模型,一个怕泄露数据)
  26. 《The Natural Language Decathlon:Multitask Learning as Question Answering》,GPT-1、GPT-2论文的引用文献,Salesforce发表的一篇文章,写出了多任务单模型的根本思想
  27. Deep Residual Learning for Image Recognition,ResNet论文,短短9页,Google学术被引现15万多
    这是李沐针对ResNet的解读,另 这是李沐针对一些paper的解读列表
  28. End-to-End Object Detection with Transformers
    DETR by 2020年5月,这是针对DETR的解读之一

    回顾下20年之前的模型提出史(我18年写过一篇:一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD)
    2014 R-CNN
    2015 Fast R-CNN、Faster R-CNN
    2016 YOLO、SSD
    2017 Mask R-CNN、YOLOv2
    2018 YOLOv3
    2019 CenterNet
    2020 DETR

    20年之后,CV迎来了生成式下的多模态时代
    2020年
      6月 DDPM
     10月 DDIM、Vision Transformer
    2021年
      1月 CLIP、DALL·E
      3月 Swin Transformer
      11月 MAE、Swin Transformer V2
    2022年
      1月 BLIP
      4月 DALL·E 2
      8月 Stable Diffusion、BEiT-3
    2023年
      1月 BLIP2
      3月 Visual ChatGPT、GPT-4

  29. AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION A​​​​​​T SCALE
    发表于2020年10月的Vision Transformer原始论文,代表Transformer正式杀入CV界
  30. Swin Transformer: Hierarchical Vision Transformer using Shifted Windows,发表于21年3月
    Swin Transformer V2: Scaling Up Capacity and Resolution
    第一篇的解读戳,第二篇的解读戳这里
  31. Auto-Encoding Variational Bayes,苏剑林关于VAE的解读之一
    WGAN
  32. Denoising Diffusion Probabilistic Models,2020年6月提出DDPM,即众人口中常说的diffusion model
    这是苏剑林关于DDPM的相对通俗的系列解读,这是另一份解读:What are Diffusion Models?(该解读的中文笔记)
  33. CLIP: Connecting Text and Images - OpenAI,这是针对CLIP论文的解读之一
    CLIP由OpenAI在2021年1月发布,超大规模模型预训练提取视觉特征,图片和文本之间的对比学习(简单粗暴理解就是发微博/朋友圈时,人喜欢发一段文字然后再配一张或几张图,CLIP便是学习这种对应关系)

    2021年10月,Accomplice发布的disco diffusion,便是第一个结合CLIP模型和diffusion模型的AI开源绘画工具,其内核便是采用的CLIP引导扩散模型(CLIP-Guided diffusion model)
    且后续有很多基于CLIP的一系列改进模型,比如Lseg、GroupViT、ViLD、GLIP
  34. Hierarchical Text-Conditional Image Generation with CLIP Latents,这是解读之一
    DALL·E 2论文2022年4月发布(至于第一代发布于2021年初),通过CLIP + Diffusion models,达到文本生成图像新高度
  35. High-Resolution Image Synthesis with Latent Diffusion Models

    2022年8月发布的Stable Diffusion基于Latent Diffusion Models,专门用于文图生成任务
    这些是相关解读:图解stable diffusion(翻译版之一)、这是另一解读,这里有篇AI绘画发展史的总结

    Stable Diffusion和之前的Diffusion扩散化模型相比, 重点是做了一件事, 那就是把模型的计算空间,从像素空间经过数学变换,在尽可能保留细节信息的情况下降维到一个称之为潜空间(Latent Space)的低维空间里,然后再进行繁重的模型训练和图像生成计算
  36. BLIP (from Salesforce) released with the paper BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation by Junnan Li, Dongxu Li, Caiming Xiong, Steven Hoi.

  37. BLIP-2 (from Salesforce) released with the paper BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models by Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi.
  38. Image as a Foreign Language: BEIT Pretraining for All Vision and Vision-Language Tasks,这是针对该论文的解读之一
    2022年8月,微软提出的多模态预训练模型BEiT-3

    BEiT: BERT Pre-Training of Image Transformers
    BEiT-2: Masked Image Modeling with Vector-Quantized Visual Tokenizers
  39. ​Aligning Text-to-Image Models using Human Feedback,这是解读之一
    ChatGPT的主要成功要归结于采用RLHF来精调LLM,近日谷歌AI团队将类似的思路用于文生图大模型:基于人类反馈(Human Feedback)来精调Stable Diffusion模型来提升生成效果
    目前的文生图模型虽然已经能够取得比较好的图像生成效果,但是很多时候往往难以生成与输入文本精确匹配的图像,特别是在组合图像生成方面。为此,谷歌最新的论文提出了基于人类反馈的三步精调方法来改善这个问题

  40. SELF-INSTRUCT: Aligning Language Model with Self Generated Instructions代码地址解读1解读2
    3月中旬,斯坦福发布Alpaca:只花100美元,人人都可微调Meta家70亿参数的LLaMA大模型
    而斯坦福团队微调LLaMA的方法,便是来自华盛顿大学Yizhong Wang等去年底提出的这个Self-Instruct

    具体而言,论文中提出,首先从自生成指令种子集中的175个人工编写的「指令-输出」对开始,然后,提示text-davinci-003使用种子集作为上下文示例来生成更多指令
    而斯坦福版Alpaca,就是花了不到500美元使用OpenAI API生成了5.2万个这样的示例微调LLaMA搞出来的

  41.  Constitutional AI: Harmlessness from AI Feedback
    OpenAI之前一副总裁离职搞了个ChatGPT的竞品,ChatGPT用人类偏好训练RM再RL(即RLHF),Claude则基于AI偏好模型训练RM再RL(即RLAIF)

  42.  Improving alignment of dialogue agents via targeted human judgements
    DeepMind的Sparrow,这个工作发表时间稍晚于instructGPT,其大致的技术思路和框架与 instructGPT 的三阶段基本类似,但Sparrow 中把奖励模型分为两个不同 RM 的思路


  43. Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers代码地址,这篇文章则将ICL看作是一种隐式的Fine-tuning

  44. WHAT LEARNING ALGORITHM IS IN-CONTEXT LEARNING? INVESTIGATIONS WITH LINEAR MODELS

  45. Meta-learning via Language Model In-context Tuning
  46. Large language models are zero-shot reasoners. arXiv preprint arXiv:2205.11916, 2022
  47. Transformer-XL: Attentive language models beyond a fixed-length context
  48. Tensor programs v: Tuning large neural networks via zero-shot hyperparameter transfer. arXiv preprint arXiv:2203.03466, 2022
  49. Opt: Open pre-trained transformer language models. arXiv preprint arXiv:2205.01068, 2022

  50. Language models are unsupervised multitask learners. 2019
  51. Improving language understanding by generative pre-training. 2018
  52. Scaling instruction-finetuned language models. arXiv preprint arXiv:2210.11416, 2022
  53. Flamingo: a visual language model for few-shot learning
  54. GPT-4 Technical Report,增加了多模态能力的GPT4的技术报告
  55. The Flan Collection: Designing Data and Methods for Effective Instruction Tuning
  56. Fine-Tuning Language Models from Human Preferences,这是论文对应的代码:微调GPT2

  57. GLM: General Language Model Pretraining with Autoregressive Blank Infilling
    2022年5月,正式提出了GLM框架
  58. GLM-130B: AN OPEN BILINGUAL PRE-TRAINED MODEL代码地址
    GLM-130B便是基于的GLM框架的大语言模型
  59. COLT5: Faster Long-Range Transformers with Conditional Computation
  60. LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS

  61. Root Mean Square Layer Normalization

  62. SEARCHING FOR ACTIVATION FUNCTIONS

  63. 旋转位置嵌入(RoPE)论文


  64. Alpaca: A Strong Open-Source Instruction-Following Model

  65. BLOOM: A 176B-Parameter Open-Access Multilingual Language Model

  66. Segment Anything
    23年4.6日,Meta发布史上首个图像分割基础模型SAM,将NLP领域的prompt范式引进CV,让模型可以通过prompt一键抠图。网友直呼:CV不存在了!

有关ChatGPT相关技术必读论文100篇(2.27日起,几乎每天更新)的更多相关文章

  1. ruby-on-rails - 相关表上的范围为 "WHERE ... LIKE" - 2

    我正在尝试从Postgresql表(table1)中获取数据,该表由另一个相关表(property)的字段(table2)过滤。在纯SQL中,我会这样编写查询:SELECT*FROMtable1JOINtable2USING(table2_id)WHEREtable2.propertyLIKE'query%'这工作正常:scope:my_scope,->(query){includes(:table2).where("table2.property":query)}但我真正需要的是使用LIKE运算符进行过滤,而不是严格相等。然而,这是行不通的:scope:my_scope,->(que

  2. 亚特兰蒂斯的回声(中文版): chatGPT 的杰作 - 2

    英文版英文链接关注公众号在“亚特兰蒂斯的回声”中踏上一段难忘的冒险之旅,深入未知的海洋深处。足智多谋的考古学家AriaSeaborne偶然发现了一件古代神器,揭示了一张通往失落之城亚特兰蒂斯的隐藏地图。在她神秘的导师内森·兰登教授的指导和勇敢的冒险家亚历克斯·默瑟的帮助下,阿丽亚开始了一段危险的旅程,以揭开这座传说中城市的真相。他们的冒险之旅带领他们穿越险恶的大海、神秘的岛屿和充满陷阱和谜语的致命迷宫。随着Aria潜在的魔法能力的觉醒,她被睿智勇敢的QueenNeria的幻象所指引,她让她为即将到来的挑战做好准备。三人组揭开亚特兰蒂斯令人惊叹的隐藏文明,并了解到邪恶的巫师马拉卡勋爵试图利用其古

  3. Unity 热更新技术 | (三) Lua语言基本介绍及下载安装 - 2

    ?博客主页:https://xiaoy.blog.csdn.net?本文由呆呆敲代码的小Y原创,首发于CSDN??学习专栏推荐:Unity系统学习专栏?游戏制作专栏推荐:游戏制作?Unity实战100例专栏推荐:Unity实战100例教程?欢迎点赞?收藏⭐留言?如有错误敬请指正!?未来很长,值得我们全力奔赴更美好的生活✨------------------❤️分割线❤️-------------------------

  4. MIMO-OFDM无线通信技术及MATLAB实现(1)无线信道:传播和衰落 - 2

     MIMO技术的优缺点优点通过下面三个增益来总体概括:阵列增益。阵列增益是指由于接收机通过对接收信号的相干合并而活得的平均SNR的提高。在发射机不知道信道信息的情况下,MIMO系统可以获得的阵列增益与接收天线数成正比复用增益。在采用空间复用方案的MIMO系统中,可以获得复用增益,即信道容量成倍增加。信道容量的增加与min(Nt,Nr)成正比分集增益。在采用空间分集方案的MIMO系统中,可以获得分集增益,即可靠性性能的改善。分集增益用独立衰落支路数来描述,即分集指数。在使用了空时编码的MIMO系统中,由于接收天线或发射天线之间的间距较远,可认为它们各自的大尺度衰落是相互独立的,因此分布式MIMO

  5. ruby-on-rails - 在具有 ActiveRecord 条件的相关模型中按字段排序 - 2

    我正在尝试按Rails相关模型中的字段进行排序。我研究的所有解决方案都没有解决如果相关模型被另一个参数过滤?元素模型classItem相关模型:classPriority我正在使用where子句检索项目:@items=Item.where('company_id=?andapproved=?',@company.id,true).all我需要按相关表格中的“位置”列进行排序。问题在于,在优先级模型中,一个项目可能会被多家公司列出。因此,这些职位取决于他们拥有的company_id。当我显示项目时,它是针对一个公司的,按公司内的职位排序。完成此任务的正确方法是什么?感谢您的帮助。PS-我

  6. ruby-on-rails - 用于门户的 Ruby 技术 - 2

    我刚刚看到whitehouse.gov正在使用drupal作为CMS和门户技术。drupal的优点之一似乎是很容易添加插件,而且编程最少,即重新发明轮子最少。这实际上正是Ruby-on-Rails的DRY理念。所以:drupal的缺点是什么?Rails或其他基于Ruby的技术有哪些不符合whitehouse.org(或其他CMS门户)门户技术的资格? 最佳答案 Whatarethedrawbacksofdrupal?对于Ruby和Rails,这确实是一个相当主观的问题。Drupal是一个可靠的内容管理选项,非常适合面向社区的站点。它

  7. ruby - 使用指向 ruby​​ 可执行文件的符号链接(symbolic link)时查找相关库 - 2

    假设您有一个可执行文件foo.rb,其库bar.rb的布局如下:/bin/foo.rb/lib/bar.rb在foo.rb的header中放置以下要求以在bar.rb中引入功能:requireFile.dirname(__FILE__)+"../lib/bar.rb"只要对foo.rb的所有调用都是直接的,这就可以正常工作。如果你把$HOME/project和符号链接(symboliclink)foo.rb放入$HOME/usr/bin,然后__FILE__解析为$HOME/usr/bin/foo.rb,因此无法找到bar.rb关于foo.rb的目录名.我意识到像ruby​​gems这

  8. 100个python算法超详细讲解:画直线 - 2

    1.问题描述使用Python的turtle(海龟绘图)模块提供的函数绘制直线。2.问题分析一幅复杂的图形通常都可以由点、直线、三角形、矩形、平行四边形、圆、椭圆和圆弧等基本图形组成。其中的三角形、矩形、平行四边形又可以由直线组成,而直线又是由两个点确定的。我们使用Python的turtle模块所提供的函数来绘制直线。在使用之前我们先介绍一下turtle模块的相关知识点。turtle模块提供面向对象和面向过程两种形式的海龟绘图基本组件。面向对象的接口类如下:1)TurtleScreen类:定义图形窗口作为绘图海龟的运动场。它的构造器需要一个tkinter.Canvas或ScrolledCanva

  9. iNFTnews | 周杰伦18年前未发布的作品Demo,藏在了区块链技术里 - 2

    当音乐碰上区块链技术,会擦出怎样的火花?或许周杰伦已经给了我们答案。8月29日下午,B站独家首发周杰伦限定珍藏Demo独家访谈VCR,周杰伦在VCR里分享了《晴天》《青花瓷》《搁浅》《爱在西元前》四首经典歌曲Demo背后的创作故事,并首次公布18年前未发布的神秘作品《纽约地铁》的Demo。在VCR中,方文山和杰威尔音乐提及到“多亏了区块链技术,现在我们可以将这些Demos,变成独一无二具有收藏价值的艺术品,这些Demos可以在薄盒(国内数藏平台)上听到。”如何将音乐与区块链技术相结合,薄盒方面称:“薄盒作为区块链技术服务方,打破传统对于区块链技术只能作为数字收藏的理解。聚焦于区块链技术赋能,在

  10. HarmonyOS原子化服务开发相关术语 - 2

    术语中文解释Ability原子化服务帮助用户完成任务的原子化服务,和用户的意图进行关联。Fulfillment服务履行通过图标,卡片,语音等形式呈现用户意图。开发者通过接口的方式,处理用户意图,返回内容。Intent意图用于表达用户想要达成的目标或完成的任务。HUAWEIAssistant智能助手“无微不智”的个人助手,通过不断的学习用户的使用习惯,不断的为用户提供贴心的精准的便捷的个性化服务。AISearch全局搜索用户可快速搜索关键词,与之匹配的原子化服务则会出现在搜索结果中。SmartService智慧服务用户订阅原子化服务,在到达特定触发条件(时间、地点、事件)后,卡片推送至用户智能助

随机推荐