草庐IT

faster-whisper-webui

全部标签

【MacOS】openai 语音识别模型 whisper 本地部署教程(cpu+mps方案)

目录1.whisper安装openai-whisper参考视频链接与安装过程安装homebrew安装Python(不要超过3.10)安装Pytorch安装ffmpeg安装rust安装whisper注意事项可能报错问题2.无法使用macgpu👉使用whisper.cpp​​​​​​​操作步骤可能报错问题3.生成翻译字幕系统环境:M1promacOS13.61.whisper安装openai-whisper        以下的语言全部支持识别,数字越小的识别越准确GitHub-openai/whisper:RobustSpeechRecognitionviaLarge-ScaleWeakSupe

java - File.renameTo 和 Files.move : Which is faster? 的区别

Java中的File.renameTo和Files.move都可以移动文件。两者有什么区别?哪个性能更好? 最佳答案 publicbooleanrenameTo(Filedest)Renamesthefiledenotedbythisabstractpathname.Manyaspectsofthebehaviorofthismethodareinherentlyplatform-dependent:Therenameoperationmightnotbeabletomoveafilefromonefilesystemtoanoth

stable-diffusion-webui踩坑指南

过年刷资讯AI的信息铺天盖地,准备研究研究。最后选择从AI绘画的stablediffusion入手。本地安装了最新的Python(13.12.2)然后直接克隆GitHub-Stability-AI/stablediffusion:High-ResolutionImageSynthesiswithLatentDiffusionModels 按照说明文档尝试安装pipinstall-rrequirements.txt,碰到了一个错误具体记不太清了。网上说是因为torch和transformers版本不匹配的问题。最后把requirements.txt里面的transformers==4.19.2改

在云服务器中部署stable diffusion webui的办法

安装这里参考了https://github.com/AUTOMATIC1111/stable-diffusion-webui的官方说明。这里依旧使用conda虚拟环境:(anaconda为例)wgethttps://repo.anaconda.com/archive/Anaconda3-5.3.0-Linux-x86_64.shchmod+xAnaconda3-5.3.0-Linux-x86_64.sh./Anaconda3-5.3.0-Linux-x86_64.sh建立虚拟环境:(这里只需python版本大于3.0)condacreate-nsdpython=3.10condainitbas

无 N卡 Stable Diffusion WebUI 安装过程记录

目录前提过程准备Git初始化权重文件模型文件文件配置(2024-02-1512:42更新)运行[notice]pip更新无tb-nightly包无xformers模块多处爆红ERROR出图报错NotImplementedError其他中文语言包安装轻薄本GPU加速参考文献前提Win11CPU:i5-13500HGPU:IntelXeGraphics占用空间:Stable-Diffusion-WebUI+Anything +AOM3A1 =20.1GPython3.11.5Git2.43.0过程准备Git初始化首先选一个空文件目录,右键-显示更多选项-OpenGitBashHere初始化:git

适配Ollama的前端界面Open WebUI

在前文本地大模型运行框架Ollama中,老苏留了个尾巴,限于篇幅只是提了一下OpenWebUI,有网友留言说自己安装没搞定,今天我们来补上文章传送门:本地大模型运行框架Ollama什么是OpenWebUI?OpenWebUI是针对LLM的用户友好的WebUI,支持的LLM运行程序包括Ollama和OpenAI兼容的API。OpenWebUI系统旨在简化客户端(您的浏览器)和OllamaAPI之间的交互。此设计的核心是后端反向代理,可增强安全性并解决CORS问题。外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传OpenWebUI功能演示【说明】:因为老苏的小机器不支持Nvidi

stable-diffusion-webui-forge 介绍,安装,运行

一stable-diffusion-webui-forge介绍     stable-diffusion-webui-forge 的作用和stable-diffusion-webui一样,但性能上作了优化,说得上是是stable-diffusion-webui优化版,本人在使用stable-diffusion-webui时偶尔会有内存不够报错。本人的环境是306012G的显卡内存时常不够,在更换stable-diffusion-webui-forge后再也没有出现报内存不够的错误了,生成速度也比原先快了一点。开源地址:stable-diffusion-webui-forge二 stable-d

CodeWhisperer安装教导--一步到位!以及本人使用Whisperer的初体验。

        CodeWhisperer是亚马逊出品的一款基于机器学习的通用代码生成器,可实时提供代码建议。类似 Cursor 和Github AWS CodeWhisperer亚马逊科技的CodeWhisperer是Amazon于2021年12月推出的一款代码补全工具,与GitHub Copilot类似。主要的功能有:代码补全注释和文档补全代码安全问题的辅助定位CodeWhisperer主要由Java、Python、JavaScript、TypeScript、C#相关语料训练而成,在支持上述语言的同时,也支持Ruby、Go、PHP、C++、C、Shell、Scala、Rust、Kotlin

使用Streamlit构建纯LLM Chatbot WebUI傻瓜教程

文章目录使用Streamlit构建纯LLMChatbotWebUI傻瓜教程开发环境helloStreatelit显示DataFrame数据显示地图WebUI左右布局设置st.sidebar左侧布局st.columns右侧布局大语言模型LLMChatbotWebUI设置Chatbot页面布局showdataframe()显示dataframeshowLineChart()显示折线图showMap()显示地图showProgress()显示进度条showLLMChatbot()聊天机器人使用Streamlit构建纯LLMChatbotWebUI傻瓜教程大量的大语言模型的WebUI基于Streaml

sd-webui-aki整合包使用笔记

首先,膜拜大佬:秋葉aaaki的个人空间_哔哩哔哩_bilibili这个整合包使用起来非常方便,甚至没有GPU也可以使用,但是会很慢。有GPU是xx迭代/秒,纯CPU就只能xx秒/迭代。唯一要注意的是需要.netcore6支持。整合包下载:【AI绘画】StableDiffusion整合包v4.2发布!全新加速解压即用防爆显存三分钟入门AI绘画☆可更新☆训练☆汉化_哔哩哔哩_bilibili 几个比较重要的路径(假设整合包位于F:\sd-webui-aki-v4.2\):主模型:F:\sd-webui-aki-v4.2\models\Stable-diffusion\下载来的模型就放在这个目录下