草庐IT

faster-whisper-webui

全部标签

php - 查询优化 : Which SELECT syntax is faster?

给定5,000个记录在数据库中提取的ID,您认为哪个查询更快?使用php循环遍历5000个ID,并对每个ID执行SELECT查询,foreach($idsas$id){//dothequery$r=mysql_query("SELECT*FROMTABLEWHEREID={$id}");}或者将所有id收集到一个数组中,然后使用SELECT*FROMTABLEWHEREIDIN(1to5000)//assuming$ids=array(1,2----upto5000);$r=mysql_query("SELECT*FROMTABLEWHEREIDIN(".join(",",$ids).

novel Ai (stable-diffusion-webui)安装

关于novelai的本地化安装环境英伟达显卡win11可以连接github并下载内容安装python3.10.6及以上,安装并添加到path安装cuDNN和CUDAToolKit先更新主机的显卡驱动,检查系统的显卡驱动版本的CUDA版本(电脑右下角:NVIDIA设置->NVIDIA控制面板->左下角:系统信息->选项卡:组件->3D设置找CUDA:产品名称)cuDNN版本需比系统的的CUDA版本小cuDNN版本需符合pyTorch要求的版本CUDAToolKit需配套cuDNN版本下载cuDNN和CUDAToolKit精简安装cuDNN将CUDAToolKit解压到cuDNN目录内安装git并

大话Stable-Diffusion-Webui-客制化主题(二)

文章目录前置知识在gradio项目中使用客制化的主题创建一个完整的Gradio主题上传客制化主题至huggingface笔者DIY的主题接着大话Stable-Diffusion-Webui-客制化主题(一)继续探讨下基于gradio的主题客制化。之前我们已经通过gradioDIY的主题并在sd项目中进行了使用,那么,如果想在其他基于gradio组件开发的项目中使用我们DIY好的主题该如何做呢?这篇文章就让我们一起来探讨下!前置知识python基础开发gradio基础开发在gradio项目中使用客制化的主题我们直接下载或者复制上一篇文章中DIY好的主题代码,然后放到代码中使用即可!这里笔者使用p

LLMs之LLaMA-2:基于云端进行一键部署对LLaMA2模型实现推理(基于text-generation-webui)执行对话聊天问答任务、同时微调LLaMA2模型(配置云端环境【A100】→下载

LLMs之LLaMA-2:基于云端进行一键部署对LLaMA2模型实现推理(基于text-generation-webui)执行对话聊天问答任务、同时微调LLaMA2模型(配置云端环境【A100】→下载数据集【datasets】→加载模型【transformers】→分词→模型训练【peft+SFTTrainer+wandb】→基于HuggingFace实现云端分享)之图文教程详细攻略目录

手把手教你在云环境炼丹(部署Stable Diffusion WebUI)

前几天写了一篇《手把手教你在本机安装StableDiffusion秋叶整合包》的文章,有些同学反映对硬件的要求太高,显卡太TM贵了。今天我再分享一个云服务器炼丹的方法,方便大家快速入门上手,这个云服务不需要特殊网络设置,能连接公网网盘,随开随用,有3090显卡,也有4090显卡,不过我经常使用的是A5000显卡。本文非广告推广,只分享使用方法,不喜跳过。闲话不多说,下面就正式开始了。注册登陆注册方式一手机号直接注册,打开这个链接:www.autodl.com/register,很简单就不多说了。注册方式二为什么还有两种方式?测试的时候发现验证码发不出去,官方说这两天验证码通道有点问题,有时发不

Stable Diffusion WebUI中COMMANDLINE_ARGS参数配置说明

Windows用户:在webui-user.bat文件的setCOMMANDLINE_ARGS=后面配置Linux用户:在webui-user.sh文件的exportCOMMANDLINE_ARGS=""引号中配置COMMANDLINE_ARGS详细参数配置说明配置(Configuration)-h,–help无错误显示此帮助消息并退出–config配置配置/稳定扩散/v1-inference.yaml构建模型的配置路径–ckptCKPT模型.ckpt稳定扩散模型检查点的路径;如果指定,此检查点将添加到检查点列表并加载–ckpt-dirCKPT_DIR无具有稳定扩散检查点的目录路径–gfpga

Whisper + NemoASR + ChatGPT 实现语言转文字、说话人识别、内容总结等功能

引言2023年,IT领域的焦点无疑是ChatGPT,然而,同属OpenAI的开源产品Whisper似乎鲜少引起足够的注意。Whisper是一款自动语音识别系统,可以识别来自99种不同语言的语音并将其转录为文字。如果说ChatGPT为计算机赋予了大脑,那么Whisper则为其赋予了耳朵。想象一下,在企业应用领域,我们能够利用Whisper将语音转化为文字,然后再借助ChatGPT来进行翻译或总结。接下来,我们将以实际操作为出发点,逐步向您介绍如何利用AI实现音频、视频的内容总结。前期准备GPU首先,我们需要解决硬件方面的问题。虽然OpenAI提供了HTTPAPI来调用Whisper,但对于企业而

阿里云 PAI 免费试用搭建 stable-diffusion-WebUI

最近玩stable-diffusion一直在Colab上,前几天发现阿里云的PAI有免费试用,就玩了一下,发现速度比Colab还快,然后可以免费试用三个月(如果不关机的话估计就只能玩1个月)。搭建首先在阿里云首页免费试用菜单下面点击了解更多:然后在最下方找到PAI-DSW的免费试用,点击立即试用,我这里因为试用过了就没法点了,建议查看教程:试用教程,这里只记录一些可能会有困惑的地方。进入试用页面后按照指引选择即可,忘记截图了这里不展示。试用资源领取完毕后进入PAI控制台选择DSW并创建实例:这里要注意选择GPU类型的ecs.gn7i-c8g1.2xlarge或ecs.gn6v-c8g1.2xl

如何部署Stable Diffusion WebUI Windows + 无科学上网版

如何部署StableDiffusionWebUI无科学上网版一些背景一些需求硬件需求(可选)软件需求一些细节检查nvidiadriver查看对应cuda版本安装cuda安装cuDNN安装GPU版pytorch安装StableDiffusionWebUI下载模型一些背景因为众所周知的原因,在大陆地区登录一些网站延迟过高,甚至出现无法登录的情况,这使得新技术的体验过程变得困难重重。比如最近大火的StableDiffusion模型,可以借助人工智能技术,用神经网络生成各种有趣的图片,视频。然而,部署模型和WebUI需要登陆github,需要加载python包,这些都会因网络延迟变成瓶颈。这篇文章目的

Stable-diffusion webui AttributeError: module ‘cv2.dnn‘ has no attribute ‘DictValue‘

AttributeError:module'cv2.dnn'hasnoattribute'DictValue'Stable-diffusionwebui安装了一个插件之后,reloadui失败,进而bashwebui.sh失败笔者尝试了多种办法,升级/卸载,安装opencv-python,都不能成功主要原因:stable-diffusionwebui内部的venv会在早些时刻就配置好了(前期项目的)环境,现在新增的插件,只能用之前的环境而不能用到最新的opencv-python例如在执行下述操作时,stable-diffusionwebui下venv/lib/python3.8/site-pa