草庐IT

【一般人不会告诉你】比肩chatgtp的5款AI网站

话不多说,直接上连接1.Dall-E:https://labs.openai.com/2.Codeformer:https://shangchenzhou.com/projects/Co...3.PlaygroundAI:https://playgroundai.com/4.ClipDrop:https://clipdrop.co/relight5.Astria:https://www.strmr.com/examples6.ChatGPT:https://chat.openai.com/chat第一个,DALL-E,这个网站是一个图片生成网站,它对每一个图片设置了关键词比如这个就是一个蓝色的

40%算力训练效果比肩GPT-4,实测DeepMind联创大模型创业新成果

大模型竞赛,又杀出一匹黑马——Inflection-2.5,由DeepMind联创MustafaSuleyman的大模型初创公司打造。只用40%的计算资源训练,表现就超过了GPT-4的九成,尤其擅长代码和数学。而早期的Inflection模型,训练时只消耗了4%的计算资源,就达到了GPT-4表现的72%。以Inflection模型为基础,该公司还推出了网页端对话机器人Pi,主打“高情商”和“个性化”,还支持中文。自诞生以来,Pi的最高日活达到了100万,累计产生了40亿条消息,平均对话时长来到了33分钟。而随着这次基础模型的升级,Pi也迎来了它的新版本。图片那么,Inflection,或者说P

无需RLHF就能对齐人类,性能比肩ChatGPT!华人团队提出袋熊Wombat模型

OpenAI的ChatGPT能够理解各种各样的人类指令,并在不同的语言任务中表现出色。这归功于一种新颖的大规模语言模型微调方法——RLHF(通过强化学习对齐人类反馈)。RLHF方法解锁了语言模型遵循人类指令的能力,使得语言模型的能力与人类需求和价值观保持一致。目前,RLHF的研究工作主要使用PPO算法对语言模型进行优化。然而,PPO算法包含许多超参数,并且在算法迭代过程中需要多个独立模型相互配合,因此错误的实现细节可能会导致训练结果不佳。同时,从与人类对齐的角度来看,强化学习算法并不是必须的。论文地址:https://arxiv.org/abs/2304.05302v1项目地址:https:/

三个臭皮匠顶个诸葛亮?可能是真的,已证实混合多个小模型性能比肩GPT3.5

在对话型人工智能(AI)研究中,存在趋势即朝着开发参数更多的模型方向发展,如ChatGPT等为代表的模型。尽管这些庞大的模型能够生成越来越好的对话响应,但它们同时也需要大量的计算资源和内存。本文研究探讨的问题是:一组小模型是否能够协同达到与单一大模型相当或更好的性能? 本文介绍了一种创新而简单的方法:混合。作者展示了如果从一组小规模的对话型人工智能中随机选择回复,生成的对话型人工智能具有很强的性能和吸引力,可以胜过参数数量级大很多的系统。作者观察到混合模型似乎具有“最优”的特征,通过在对话历史上进行条件化响应,一个具有特定属性的单一模型能够学习其他系统的能力。可以为用户提供更引人入胜和多样化的

200亿「书生·浦语2.0」正式开源!数推性能比肩ChatGPT,200K超长上下文完美召回

就在今天,上海人工智能实验室与商汤科技联合香港中文大学和复旦大学,正式发布新一代大语言模型书⽣·浦语2.0(InternLM2)。Github:https://github.com/InternLM/InternLMHuggingFace:https://huggingface.co/internlmModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory新一代InternLM2经过2.6万亿token高质量语料训练,包含7B及20B两种参数规格,以及基座、对话等版本。它可以支持200K超长上下文,约30万字文本,

2025年卡脖子技术清零?甚至计划推动鸿蒙欧拉比肩全球领先水平

深圳市工业和信息化局近日发布了推动开源鸿蒙欧拉产业创新发展的行动计划,以推动鸿蒙欧拉在2023至2025年期间成为全球领先操作系统,并构建全球信息技术体系,实现我国操作系统技术创新和自主发展目标。该计划旨在加强操作系统技术能力,消除关键技术障碍,引领信息技术创新,并面向多样化计算构建系统。根据深圳市工信局2025年前的规划,鸿蒙与欧拉产业生态将显著增强,吸引超过千家主要产业参与者加入,促进众多设备厂商研发鸿蒙和欧拉产品。预计全国设备使用总量将达到10亿台。

足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

之前尝试了从0到1复现斯坦福羊驼(StanfordAlpaca7B),StanfordAlpaca是在LLaMA整个模型上微调,即对预训练模型中的所有参数都进行微调(fullfine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效。因此,Alpaca-Lora则是利用Lora技术,在冻结原模型LLaMA参数的情况下,通过往模型中加入额外的网络层,并只训练这些新增的网络层参数。由于这些新增参数数量较少,这样不仅微调的成本显著下降(使用一块RTX4090显卡,只用5个小时就训练了一个与Alpaca水平相当的模型,将这类模型对算力的需求降到了消费级),还能获得和全模型微调(fullfin

足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

之前尝试了从0到1复现斯坦福羊驼(StanfordAlpaca7B),StanfordAlpaca是在LLaMA整个模型上微调,即对预训练模型中的所有参数都进行微调(fullfine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效。因此,Alpaca-Lora则是利用Lora技术,在冻结原模型LLaMA参数的情况下,通过往模型中加入额外的网络层,并只训练这些新增的网络层参数。由于这些新增参数数量较少,这样不仅微调的成本显著下降(使用一块RTX4090显卡,只用5个小时就训练了一个与Alpaca水平相当的模型,将这类模型对算力的需求降到了消费级),还能获得和全模型微调(fullfin

谷歌医疗大模型登Nature,Med-PaLM重磅揭秘!AI医生成绩比肩人类

5月I/O大会上,Med-PaLM2重磅升级,甚至达到了专家水准。今天,谷歌揭秘微调后的Med-PaLM,同样在医学问题上一骑绝尘。研究成果已登Nature。图片论文地址:https://www.nature.com/articles/s41586-023-06291-2这项研究最重要的贡献在于,谷歌提出了全新的MultiMedQA评估基准,以评测大模型在临床方面的能力。OpenAI带着ChatGPT在通用大模型领域领跑,而AI+医疗这条赛道,谷歌称得上是头部领先者。有人或许疑问,这和Med-PaLM2的区别在哪?论文作者给出了答复,Med-PaLM2是最新的模型,在USMLE风格的问题上达到

足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

之前尝试了从0到1复现斯坦福羊驼(StanfordAlpaca7B),StanfordAlpaca是在LLaMA整个模型上微调,即对预训练模型中的所有参数都进行微调(fullfine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效。因此,Alpaca-Lora则是利用Lora技术,在冻结原模型LLaMA参数的情况下,通过往模型中加入额外的网络层,并只训练这些新增的网络层参数。由于这些新增参数数量较少,这样不仅微调的成本显著下降(使用一块RTX4090显卡,只用5个小时就训练了一个与Alpaca水平相当的模型,将这类模型对算力的需求降到了消费级),还能获得和全模型微调(fullfin