草庐IT

AIGC系列文章目录 第三章 AIGC 简单易用免费的AI图像生成器: Stable Diffusion

AIGC系列文章目录第三章AIGC简单易用免费的AI图像生成器:StableDiffusion文章目录AIGC系列文章目录第三章AIGC简单易用免费的AI图像生成器:StableDiffusion一、StableDiffusion概述二、如何使用StableDiffusion?2.1寻找合适的Prompt2.1.1StableDiffusionPromptGenerator2.1.2arthubPromptLibrary2.1.3lexicahomesearchprompt2.1.3NovelAItagGenerator2.2将Prompt放到AIImageGenerator三、总结目前亲测体

AIGC实战——自编码器(Autoencoder)

AIGC实战——自编码器0.前言1.自编码器原理2.数据集与模型分析2.1Fashion-MNIST数据集2.2自编码器架构3.去噪自编码器3.1编码器3.2解码器3.3连接编码器和解码器3.4训练自编码器3.5重建图像4.可视化潜空间5.生成新图像小结系列链接0.前言自编码器(Autoencoder)是一种无监督学习的神经网络模型,用于学习输入数据的低维表示。它由编码器和解码器两部分组成,通过将输入数据压缩到潜空间表示(编码),然后将其重构为与原始输入尽可能相似的形式(解码)。在本节中,我们将使用Keras构建一个标准的自编码器,以理解自编码器的工作原理。1.自编码器原理自编码器的目标是最小

AIGC:使用bert_vits2实现栩栩如生的个性化语音克隆

1VITS2模型1.1摘要单阶段文本到语音模型最近被积极研究,其结果优于两阶段管道系统。以往的单阶段模型虽然取得了较大的进展,但在间歇性非自然性、计算效率、对音素转换依赖性强等方面仍有改进的空间。本文提出VITS2,一种单阶段的文本到语音模型,通过改进之前工作的几个方面,有效地合成了更自然的语音。本文提出了改进的结构和训练机制,所提出的方法在提高多说话人模型中语音特征的自然度、相似性以及训练和推理效率方面是有效的。证明了所提出方法可以显著减少以前工作中对音素转换的强依赖,允许完全端到端单阶段方法。论文地址:https://arxiv.org/pdf/2307.16430.pdf演示地址:htt

香港金融科技周2023:AIGC重塑金融形态

10月31日,由香港财经事务及库务局与投资推广署主办的“香港金融科技周2023大湾区专场”盛大启幕。中国AI决策领先企业萨摩耶云科技集团创始人、董事长兼 CEO林建明受邀参加圆桌会议,与中国内地、香港以及全球金融科技行业顶尖人才、创新企业、监管机构和政府代表以及投资人激辩人工智能与大数据新一轮科技革命趋势,共探金融科技应用前景。金融科技引领大湾区高质量发展党的十八大以来,我国金融业自身高质量发展取得了长足进步。金融支持实体经济质效大幅度提升,沪深港通、内地与香港债券通等金融改革开放有序推进蹄疾步稳。人工智能、大数据等金融科技作为经济社会发展的重要“引擎”,为中国传统金融业变革注入强大动能。粤港

【AIGC】从零手写一个GPT

手写一个GPT在GPT,确切的说是Transformer,出现之前,一个问题长久地困扰着人们——如何让两句内容不同、但语义相近的句子得到较为接近的表示。比如我们有两句话我喜欢你吾中意你它们作为句子内容并不一样,但是表达的含义却是一样的。如果将句子作为f(x)输入,进行情感分析或者翻译,最后得到的特征向量x也应该一样(至少距离较近)的。对于文本来说,如何找到一种表达方式使得相似的文本得到相似的文本,这在过去十分困难,以至于衍生出了一个单独的研究领域——表征学习(RepresentativeLearning)。不过,Transformer的出现为这个问题提供了新的思路。Transformer背景一

基于科大讯飞AIGC创作平台,构建数字人虚拟主播

笔者为体验目前数字人虚拟主播创作视频的质量,特意制作了一段测试视频。基于讯飞智作创建总体感受,数字人虚拟主播具有成本低、可定制性强等优点,但是也存在缺乏人情味、技术限制和法律问题等缺点。因此,在使用数字人虚拟主播时需要注意这些问题,并采取相应的措施来解决它们,下面列出一些数字人虚拟主播的优缺点。优点:成本低廉:相对于真人主播,数字人虚拟主播的成本要低廉得多。因为数字人虚拟主播不需要支付薪水、保险和其他福利待遇,所以它们的运营成本相对较低。可定制性强:数字人虚拟主播可以根据不同的需求进行定制。例如,可以调整其形象、声音、动作等特征,以适应不同的直播内容和场景。不会疲劳:数字人虚拟主播不会感到疲劳

【网安AIGC专题10.11】2 ILF利用人类编写的 自然语言反馈 来训练代码生成模型:自动化反馈生成+多步反馈合并+处理多错误反馈+CODEGEN -M ONO 6.1 B model

ImprovingCodeGenerationbyTrainingwithNaturalLanguageFeedback写在最前面主要工作启发背景介绍应用现有工作的不足Motivation动机方法ILFExperiments&Results数据集评价指标3.1.验证πReffine\pi_{\text{Reffine}}πReffine​与NLF结合的有效性(可以使用反馈来修复不正确的代码)3.2验证ILF比Fine-Tuningon黄金数据或人工编写的程序的通过率更高3.3评估使用多少GPT生成的Feedback能赶上人工NLF3.4HumanFeedbackIsMoreInformativ

AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

前言如果你要问我为什么直接部署ChatGLM2的模型?因为当我在8月份在上海召开的全球人工智能大会上了解到清华-智谱发布的ChatGLM模型时,它已经发布了新的版本ChatGLM2,并且推理的效果提升了不少,那么本着只要最好的原则,我就直接上手先玩新版本了。模型简介部署的环境作为AIGC方面的小白来说,我抱着非常天真的想法,想让它在我的工作笔记本上用i5的CPU去跑,至于为什么这么想,当然是因为我没有GPU,身边也没有其他的带显卡电脑恰好,在腾讯云看到了GN7的显示优惠活动,60块钱15天,NvidiaT4的AI卡,直接斥巨资购买了15天并且为了方便访问模型资源,我这里选择了新加坡的节点软件环

AIGC视频生成/编辑技术调研报告

人物AIGC:FaceChain人物写真生成工业级开源项目,欢迎上github体验。简介: 随着图像生成领域的研究飞速发展,基于diffusion的生成式模型取得效果上的大突破。在图像生成/编辑产品大爆发的今天,视频生成/编辑技术也引起了学术界和产业界的高度关注。该分享主要介绍视频生成/编辑的研究现状,包括不同技术路线的优劣势,以及该领域当下面临的核心问题与挑战。摘要随着图像生成领域的研究飞速发展,基于diffusion的生成式模型取得效果上的大突破。在图像生成/编辑产品大爆发的今天,视频生成/编辑技术也引起了学术界和产业界的高度关注。该分享主要介绍视频生成/编辑的研究现状,包括不同技术路线的

AIGC|AGI究竟是什么?为什么大家都在争先入场?

一、AI大语言模型进入爆发阶段2022年12月ChatGPT突然爆火,原因是其表现出来的智能化已经远远突破了我们的常规认知。虽然其呈现在使用者面前仅仅只是一个简单的对话问答形式,但是它的内容化水平非常强大,甚至在某些方面已经超过人类了,这是人工智能板块的重大突破。近半年来,整个行业都在致力于研发和应用大型模型。这涉及到算力的提升、大型模型算法的优化以及相关语料和数据的准备。行业对此非常关注,各个参与者都铆足干劲,特别是一些大型企业纷纷下水,担心被AI浪潮拍在沙滩上。在这张图中,我们可以看到一些主要的玩家,比如Meta(即Facebook)、OpenAI和谷歌,以及国内的华为、阿里巴巴和百度。尤