草庐IT

faster-whisper-webui

全部标签

Stable Diffusion WebUI无法打开,一直显示Loading或载入中,最后无响应直接崩溃卡死(您可以等待该页面恢复响应,也可以退出该页面)或能打开但非常缓慢,点击需要很久才有反应

StableDiffusionWebUI无法打开,一直显示Loading或载入中,最后无响应直接崩溃卡死(您可以等待该页面恢复响应,也可以退出该页面)或能打开但非常缓慢,点击需要很久才有反应⚙️1.软件环境⚙️🔍2.问题描述🔍🐡3.解决方法🐡🤔4.结果预览🤔⚙️1.软件环境⚙️Windows10教育版64位Python3.10.6Chrome版本119.0.6045.199(正式版本)(64位)Edge119.0.2151.72(正式版本)(64位)StableDiffusionWebUI1.6.0🔍2.问题描述🔍StableDiffusionWebUI在自动打开以及输入本地地址后,一直显示L

请查收使用OpenAI的Whisper进行语音识别的攻略

Whisper是一种令人激动的新型语言模型,采用了全新的语音识别方法,即使是低质量的音频,Whisper也能产生高质量的结果,并且对各种声音和语言的适应性极强,无需进行微调。Whisper是开源的,有一系列可用的模型尺寸,可以作为众多语音转文字应用的有效解决方案,包括翻译、智能个人助理、车辆语音控制系统、客户服务运营等等。在这篇文章中,我们将探讨Whisper与其他语音识别模型的不同之处,并将展示如何使用在Graphcore(拟未)IPU上运行的预构建的PaperspaceGradientNotebook,来起用WhisperTiny的HuggingFace实现。链接:https://ipu.

Stable Diffusion WebUI安装ControlNet插件

ControlNet是一种通过添加额外条件来控制扩散模型的神经网络结构。sd-webui-controlnet下载地址:GitHub-Mikubill/sd-webui-controlnet:WebUIextensionforControlNetWebUIextensionforControlNet.ContributetoMikubill/sd-webui-controlnetdevelopmentbycreatinganaccountonGitHub.https://github.com/Mikubill/sd-webui-controlnet安装ControlNet插件打开WebUI界面

最简单粗暴的Stable Diffusion Webui本地部署教程!让每个人都能自己实现AI画图!

先放两张自己画的图片镇楼。‍​​​​‍什么是StableDiffusionWebui​​StableDiffusionWebUI是StableDiffusion的浏览器界面,StableDiffusion是一种AI模型,可以根据文本提示生成图像或用文本提示修改现有图像。StableDiffusionWebUI是探索StableDiffusion可能性的好方法,只需点击几下即可创建令人惊叹的图像。内容来自官网还是大白话翻译一下,就用这玩意,你就能抛弃GPT4,抛弃Mj(当然实际效果很大可能不如Mj......),在本地实现AI绘画!部署前提条件虽然咱教程的目标是让所有人都能用上StableDif

云服务器部署Stable Diffusion Webui从0到1总结:反复重启+循环debug

文章目录在学校服务器部署StableDiffusionWebui(一)准备工作(二)环境配置(三)git拉取项目到本地(四)运行项目遇到的问题:(一)使用gitclone时,Failedtoconnectto127.0.0.1port7890(二)使用gitclone时,出现RPCfailed(三)RuntimeError:Couldn’tinstallopen_clip(四)Couldn'tcheckout{name}'shash:{commithash}.(五)Failurewhenreceivingdatafromthepeer(六)OpenSSLSSL_read:SSL_ERROR_S

[语音识别]开源语音识别faster-whisper模型下载地址

官方源码:https://github.com/SYSTRAN/faster-whisper模型下载地址:large-v3模型:https://huggingface.co/Systran/faster-whisper-large-v3/tree/mainlarge-v2模型:https://huggingface.co/guillaumekln/faster-whisper-large-v2/tree/mainlarge-v2模型:https://huggingface.co/guillaumekln/faster-whisper-large-v1/tree/mainmedium模型:htt

Datawhale学习笔记:faster git丨202401 task02

Datawhale学习笔记:fastergit丨202401task02分支的相关操作分支在Git中是一个非常重要的概念,它允许我们在一个项目的不同点上工作,而不会互相干扰。以下是一些常用的分支操作:分支的创建创建一个新的分支,可以使用gitbranch命令。例如,如果想创建一个名为feature-branch的新分支,可以运行:gitbranchfeature-branch这将在当前所在的提交上创建一个新分支。默认情况下,新分支会指向当前所在的分支。分支的切换要切换到一个已存在的分支,可以使用gitcheckout命令。例如,如果想切换到feature-branch分支,可以运行:gitch

基于CPU的云部署Stable-diffusion-webui的详细过程

最近看到很多很精美的AI图片,也想体验下,正好我有台2vCPU和2G内存轻量云服务器,但是不想再额外买GPU,就想着用CPU模式自己部署,部署经过摸索能顺利完成,但是加载模型已经很吃力,老是提示没有足够内存。本过程主要是用来记录部署的详细过程,仅针对于CPU跑Stable-diffusion-webui。1、机器配置要求机器的配置要求主要是针对CPU模式云部署Stable-diffusion-webui。CPU:任何现代AMD或IntelCPU。内存:至少8G内存。存储:这个其实影响不大。显卡: 不影响。系统: centos。2、配置Python环境2.1Miniconda3安装Minicon

Whisper

文章目录使后感PaperReview个人觉得有趣的LogMelspectrogram&STFTTrainingcross-attention输入cross-attention输出positionalencoding数据Decoding为什么可以有时间戳的信息ModelEncoderDecoder时间戳一小句的时间戳一个单词的时间戳TestcodeQKVattentionTexttoken里关于positional_embedding的offsetFasterWhisperVAD使后感因为运用里需要考虑到时效和准确性,类似于YOLO,只考虑tiny,base,和small的模型。准确率基本反应了

用通俗易懂的方式讲解:Stable Diffusion WebUI 从零基础到入门

本文主要介绍StableDiffusionWebUI的实际操作方法,涵盖prompt推导、lora模型、vae模型和controlNet应用等内容,并给出了可操作的文生图、图生图实战示例。适合对StableDiffusion感兴趣,但又对StableDiffusionWebUI使用感到困惑的同学。前面分享了两篇文章:十分钟读懂StableDiffusion运行原理和一文教会你学会AI绘画利器StableDiffusion,喜欢的可以阅读一下本文希望能够降低大家对StableDiffusionWebUI的学习成本,更快速的体验到AIGC图像生成的魅力。喜欢记得收藏、关注、点赞。文章目录用通俗易懂