lora的训练使用的文件是https://github.com/Akegarasu/lora-scripts
lora训练是需要成对的文本图像对的,需要准备相应的训练数据。
1.训练数据准备
使用deepbooru/blip生成训练数据,建筑类建议使用blip来生成。
2.lora在linux上环境
cuda 10.1 p40 python3.7
accelerate==0.15.0 应该只能在虚拟环境中,在train.sh中把accelerate launch --num_cpu_threads_per_process=8换成python,这么改accelerate多卡训练有问题
albumentations==0.2.0
scikit-image==0.14 版本高了会报错
numpy==1.17
这里面有个skimage的版本问题,会报错
safetensors==0.3.0
voluptuous==0.12.1
huggingface-hub==0.12.0
transformers==4.20.0
tokenizers==0.11.6
opencv-python==4.0.0.21
einops==0.3.0
ftfy==6.0
pytorch-lightning==1.2.8
xformers==0.0.9(torch可以支持torch==1.8.1)
diffusers==0.10.0
pyre-extensions==0.3.0
regex==2021.4.4
升级glic
3.sh train.sh训练
openai的clip权重要配置一下
library/train_util/ 1900多行中load_tokenizer函数中的tokenizer=CLIPTokenizer.from_pretrained()
使用的是openai的clip-vit-large-patch14参数
4.lora-scripts的核心代码解析
train_network.py->train->
train_util.load_tokenizer->
BuleprintGenerator->
config_util.generate_dreambooth_subsets_config_by_subdirs->
blueprint_generator.generate->
config_util.generate_dataset_group_by_blueprint 加载数据->
train_util.prepare_accelerator->
train_util.prepare_dtype->
train_util.load_target_model 加载sd模型->
train_util.replace_unet_modules->
vae.to(accelerator.device)->
vae.requires_grad_(False)->
vae.eval()->
train_dataset_group.cache_lantents->
network_module(LoRANetwork)->
network.apply_to(text_encoder,unet,train_text_encoder,train_unet)->
network.prepare_optimizer_params->
train_util.get_optimizer->
train_dataloader=torch.utils.data.DataLoader(train_dataset_group)->
lr_scheduler=train_util.get_scheduler_fix->
unet,text_encoder,network,optimizer,train_dataloader,lr_scheduler=accelerator.prepare(unet,text_encoder,network,optimizer,train_dataloader,lr_scheduler)->
unet.requires_grad_(False)->
unet.to(accelerator.device)->
text_encoder.requires_grad_->
text_encoder.to(accelerator-device)->
unet.eval()->
text_encoder.eval()->
network.prepare_grad_etc(text_encoder,unet)->
dataset=train_dataset_group.dataset[0]->
noise_scheduler=DDPMScheduler(beta_start=0.00085,beta_end=0.012,beta_schedule='scaled_linear',num_train_timesteps=1000,clip_sample=False)->
accelerator.init_trackers('netwoek_train')->
network.on_epoch_start(text_encoder,unet)->
latents=batch['latents'].to(accelerator.device)->
latents=latents*0.18215->
encoder_hidden_states=train_util.get_hidden_states->
noise = torch.randn(latents,device=latent.device)->
timesteps=torch.randint(0,noise_scheduler.config.num_train_timesteps,(b_size,),device=latents.device)->
noise_latents=noise_scheduler.add_noise(lantents,noise,timesteps) [1,4,64,64]->
noise_pred=unet(noisy_latents,timesteps,encoder_hidden_states).sample [1,4,64,64]->
target=noise_scheduler.get_velocity(latnets,noise,timesteps) [1,4,64,64]->
loss=torch.nn.functional.mse_loss(noise_pred.float(),target.float(),reduction='none') [1,4,64,64]->
loss=loss.mean([1,2,3])->
loss_weights=batch['loss_weights']->
loss=loss*loss_weights->
accelerator.backward(loss)->
param_to_clip=network.get_trainable_params()->
accelerator.clip_grad_norm_()->
optimizer.grad()->
lr_scheduler.step()->
optimizer.zero_grad()->
train_util.sample_images(accelerator,args,None,global_step,accelerator.device,vae,tokenizer,text_encoder,unet)
5.入参
args = Namespace(
bucket_no_upscale=False,
bucket_reso_steps=64,
cache_latents=True,
caption_dropout_every_n_epochs=0,
caption_dropout_rate=0.0,
caption_extension='.txt',
caption_extention=None,
caption_tag_dropout_rate=0.0,
clip_skip=2,
color_aug=False,
dataset_config=None,
dataset_repeats=1,
debug_dataset=False,
enable_bucket=True,
face_crop_aug_range=None,
flip_aug=False,
full_fp16=False,
gradient_accumulation_steps=1,
gradient_checkpointing=False,
in_json=None,
keep_tokens=0,
learning_rate=0.0001,
log_prefix=None,
logging_dir='./logs',
lowram=False,
lr_scheduler='cosine_with_restarts',
lr_scheduler_num_cycles=1,
lr_scheduler_power=1,
lr_warmup_steps=0,
max_bucket_reso=1024,
max_data_loader_n_workers=8,
max_grad_norm=1.0,
max_token_length=225,
max_train_epochs=10,
max_train_steps=1600,
mem_eff_attn=False,
min_bucket_reso=256,
mixed_precision='fp16',
network_alpha=32.0,
network_args=None,
network_dim=32,
network_module='networks.lora',
network_train_text_encoder_only=False,
network_train_unet_only=False,
network_weights=None,
no_metadata=False,
noise_offset=0.0,
optimizer_args=None,
optimizer_type='',
output_dir='./output',
output_name='/home/sniss/local_disk/lora-scripts/output',
persistent_data_loader_workers=False,
pretrained_model_name_or_path='/home/sniss/local_disk/stable-diffusion-webui_23-02-17/models/Stable-diffusion/sd-v1.5.ckpt',
prior_loss_weight=1.0,
random_crop=False,
reg_data_dir=None,
resolution=(512, 512),
resume=None,
sample_every_n_epochs=None,
sample_every_n_steps=None,
sample_prompts=None,
sample_sampler='ddim',
save_every_n_epochs=2,
save_last_n_epochs=None,
save_last_n_epochs_state=None,
save_model_as='ckpt',
save_n_epoch_ratio=None,
save_precision='fp16',
save_state=False,
seed=1337,
shuffle_caption=True,
text_encoder_lr=1e-05,
tokenizer_cache_dir=None,
train_batch_size=1,
train_data_dir='/home/sniss/local_disk/lora-scripts/data',
training_comment=None,
unet_lr=0.0001,
use_8bit_adam=False,
use_lion_optimizer=False,
v2=False,
v_parameterization=False,
vae=None,
xformers=True)
参数的设置有好几块:
1.输入的train.sh
2.train_network.py中的main部分
3.train_util.py中的1536行附近的
add_sd_models_args/add_optimizer_args/add_training_args/add_dataset_args
6.注意事项
a.数据集名称第一个是数字20_arch,这个数字和训练轮数epoch有关
b.train_network中
c.max_token_length=75,150,225,使用225会报错?RuntimeError: The size of tensor a (227) must match the size of tensor b (77) at non-singleton dimension 1,这块是个巨坑,主要是clip初始化的时候,忘了加tokenizer_config.json这个文件。
d.bash: accelerate: command not found,没搞定
多卡训练
python -m torch.distributed.launch --nproc_per_node=4 --nnodes=1 --node_rank=0 --master_addr=localhost --master_port=22222 --use_env "./sd-scripts/train_network.py" \
import torch.distributed as dist
dist.init_process_group(backend='gloo', init_method='env://')
我有用于控制用户任务的Rails5API项目,我有以下错误,但并非总是针对相同的Controller和路由。ActionController::RoutingError:uninitializedconstantApi::V1::ApiController我向您描述了一些我的项目,以更详细地解释错误。应用结构路线scopemodule:'api'donamespace:v1do#=>Loginroutesscopemodule:'login'domatch'login',to:'sessions#login',as:'login',via::postend#=>Teamroutessc
在应用开发中,有时候我们需要获取系统的设备信息,用于数据上报和行为分析。那在鸿蒙系统中,我们应该怎么去获取设备的系统信息呢,比如说获取手机的系统版本号、手机的制造商、手机型号等数据。1、获取方式这里分为两种情况,一种是设备信息的获取,一种是系统信息的获取。1.1、获取设备信息获取设备信息,鸿蒙的SDK包为我们提供了DeviceInfo类,通过该类的一些静态方法,可以获取设备信息,DeviceInfo类的包路径为:ohos.system.DeviceInfo.具体的方法如下:ModifierandTypeMethodDescriptionstatic StringgetAbiList()Obt
我正在使用Mandrill的RubyAPIGem并使用以下简单的测试模板:testastic按照Heroku指南中的示例,我有以下Ruby代码:require'mandrill'm=Mandrill::API.newrendered=m.templates.render'test-template',[{:header=>'someheadertext',:main_section=>'Themaincontentblock',:footer=>'asdf'}]mail(:to=>"JaysonLane",:subject=>"TestEmail")do|format|format.h
我正在尝试使用Ruby2.0.0和Rails4.0.0提供的API从imgur中提取图像。我已尝试按照Ruby2.0.0文档中列出的各种方式构建http请求,但均无济于事。代码如下:require'net/http'require'net/https'defimgurheaders={"Authorization"=>"Client-ID"+my_client_id}path="/3/gallery/image/#{img_id}.json"uri=URI("https://api.imgur.com"+path)request,data=Net::HTTP::Get.new(path
Rails相对较新。我正在尝试调用一个API,它应该向我返回一个唯一的URL。我的应用程序中捆绑了HTTParty。我已经创建了一个UniqueNumberController,并且我已经阅读了几个HTTParty指南,直到我想要什么,但也许我只是有点迷路,真的不知道该怎么做。基本上,我需要做的就是调用API,获取它返回的URL,然后将该URL插入到用户的数据库中。谁能给我指出正确的方向或与我分享一些代码? 最佳答案 假设API为JSON格式并返回如下数据:{"url":"http://example.com/unique-url"
关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我的公司有一个巨大的数据库,该数据库接收来自多个来源的(许多)事件,用于监控和报告目的。到目前为止,数据中的每个新仪表板或图形都是一个新的Rails应用程序,在巨大的数据库中有额外的表,并且可以完全访问数据库内容。最近,有一个想法让外部(不是我们公司,而是姊妹公司)客户访问我们的数据,并且决定我们应该公开一个只读的RESTfulAPI来查询我们的数据。我的观点是-我们是否也应该为我们的自己
我读了"BingSearchAPI-QuickStart"但我不知道如何在Ruby中发出这个http请求(Weary)如何在Ruby中翻译“Stream_context_create()”?这是什么意思?"BingSearchAPI-QuickStart"我想使用RubySDK,但我发现那些已被弃用前(Rbing)https://github.com/mikedemers/rbing您知道Bing搜索API的最新包装器(仅限Web的结果)吗? 最佳答案 好吧,经过一个小时的挫折,我想出了一个办法来做到这一点。这段代码很糟糕,因为它是
这个问题在这里已经有了答案:关闭10年前。PossibleDuplicate:AmazonAPIlibraryforPython?我正在寻找一个AmazonAPI,它可以让我:按书名或作者查找书籍显示书籍封面获取有关每本书的信息(价格、评级、评论数、格式、页数等)Python或Ruby库都可以(我只想要最容易使用的库)。有什么建议么?我知道在SO上还有其他一些关于此的帖子,但这些API似乎很快就过时了。[几个月前我尝试了几个建议的Ruby库,但无法让它们中的任何一个工作。]
很高兴看到google代码:google-api-ruby-client项目,因为这对我来说意味着Ruby人员可以使用GoogleAPI-s来完善代码。虽然我现在很困惑,因为给出的唯一示例使用Buzz,并且根据我的实验,Google翻译(v2)api的行为必须与google-api-ruby-client中的Buzz完全不同。.我对“Explorer”演示示例很感兴趣——但据我所知,它并不是一个探索器。它所做的只是调用一个Buzz服务,然后浏览它已经知道的关于Buzz服务的事情。对我来说,Explorer应该让您“发现”所公开的服务和方法/功能,而不一定已经知道它们。我很想听听使用这个
如果我构建了一个应用程序来访问来自Gmail、Twitter和Facebook的一些数据,并且我希望用户只需输入一次他们的身份验证信息,并且在几天或几周后重置,那会怎样是在Ruby中动态执行此操作的最佳方法吗?我看到很多人只是拥有他们客户/用户凭证的配置文件,如下所示:gmail_account:username:myClientpassword:myClientsPassword这看起来a)非常不安全,b)如果我想为成千上万的用户存储此类信息,它就无法工作。推荐的方法是什么?我希望能够在这些服务之上构建一个界面,因此每次用户进行交易时都必须输入凭据是不可行的。