草庐IT

mjob_worker

全部标签

ruby-on-rails - 如何杀死 Heroku 上的 resque worker?

我正在使用本指南使用Redis设置Resquehttp://blog.redistogo.com/2010/07/26/resque-with-redis-to-go/我已经全部设置好了,当我放入一些东西时,它会出现在我的重新请求队列中。它在heroku上,所以我运行herokurakeresque:workQUEUE=*(in/app)StartingtheNewRelicAgent.InstalledNewRelicBrowserMonitoringmiddlewareConnectedtoNewRelicServiceatcollector-1.newrelic.com:80^C

ruby-on-rails - 即使超时,Sidekiq worker 仍运行数千秒

我有一个不应超过30秒的sidekiqworker,但几天后我会发现整个worker队列停止执行,因为所有worker都被锁定了。这是我的worker:classMyWorkerincludeSidekiq::WorkerincludeSidekiq::Status::Workersidekiq_optionsqueue::my_queue,retry:5,timeout:4.minutessidekiq_retry_indo|count|5endsidekiq_retries_exhausteddo|msg|store({message:"Gaveup."})enddefperfor

ruby-on-rails - 即使超时,Sidekiq worker 仍运行数千秒

我有一个不应超过30秒的sidekiqworker,但几天后我会发现整个worker队列停止执行,因为所有worker都被锁定了。这是我的worker:classMyWorkerincludeSidekiq::WorkerincludeSidekiq::Status::Workersidekiq_optionsqueue::my_queue,retry:5,timeout:4.minutessidekiq_retry_indo|count|5endsidekiq_retries_exhausteddo|msg|store({message:"Gaveup."})enddefperfor

ruby-on-rails-3 - 从一个 worker 调用多个 sidekiq worker

我必须根据用户的请求运行多个作业。然而,其中只有一个是重要的。所以我有一个MainWorker,在它的perform方法中我调用了不同的其他worker,例如Worker1、Worker2。Worker1和Worker2可以延迟,我需要优先MainWorker。这就是我的perform方法现在的样子classMainWorkerdefperform(user_id)User.find(user_id).main_taskWorker1.perform_async(user_id)Worker2.perform_async(user_id)endend我以后可能会有更多的subworke

ruby-on-rails-3 - 从一个 worker 调用多个 sidekiq worker

我必须根据用户的请求运行多个作业。然而,其中只有一个是重要的。所以我有一个MainWorker,在它的perform方法中我调用了不同的其他worker,例如Worker1、Worker2。Worker1和Worker2可以延迟,我需要优先MainWorker。这就是我的perform方法现在的样子classMainWorkerdefperform(user_id)User.find(user_id).main_taskWorker1.perform_async(user_id)Worker2.perform_async(user_id)endend我以后可能会有更多的subworke

ruby-on-rails - worker 终止后,Heroku cedar stack 上的 Resque worker 计数仍然存在

我已经成功地在herokucedarstack上运行resque并将接口(interface)挂载到rails上。当我启动worker时,一切正常。worker处理工作。但是当我杀死worker时,Resque仍然认为worker可用。当我启动另一个worker时,它认为有2个worker但实际上只有一个在运行。我也注意到这里的表格http://devcenter.heroku.com/articles/psheroku在杀死worker时发送SIGTERM,如果没有终止,则发送SIGKILL。这是我的worker日志2011-08-11T02:32:45+00:00heroku[wo

ruby-on-rails - worker 终止后,Heroku cedar stack 上的 Resque worker 计数仍然存在

我已经成功地在herokucedarstack上运行resque并将接口(interface)挂载到rails上。当我启动worker时,一切正常。worker处理工作。但是当我杀死worker时,Resque仍然认为worker可用。当我启动另一个worker时,它认为有2个worker但实际上只有一个在运行。我也注意到这里的表格http://devcenter.heroku.com/articles/psheroku在杀死worker时发送SIGTERM,如果没有终止,则发送SIGKILL。这是我的worker日志2011-08-11T02:32:45+00:00heroku[wo

node.js - 分布式 worker 的架构

我们正在创建一个能够跨多个地理站点分配任务的网站。该网站应该能够:创建任务,将其放入队列中,根据地理标准将其分配给worker,根据工作状态(步骤1、2、3等)更新网络界面,将最终结果保存在mongodb中并注意Web界面。只要不在相同的地理条件下,我们就可以同时进行工作。只要作业不在处理状态,我们就可以删除它。我们当前的堆栈是:Angulajs-nodejs-mongodb。我们的第一个想法是创建一个从远程工作线程到mongodb任务的HTTP池。关键是我们将有20多个远程工作人员,我们想要高频刷新(在网络上进行了一些研究后,我们找到了关于rabbitMQ和消息系统的文档。这似乎符合

node.js - 分布式 worker 的架构

我们正在创建一个能够跨多个地理站点分配任务的网站。该网站应该能够:创建任务,将其放入队列中,根据地理标准将其分配给worker,根据工作状态(步骤1、2、3等)更新网络界面,将最终结果保存在mongodb中并注意Web界面。只要不在相同的地理条件下,我们就可以同时进行工作。只要作业不在处理状态,我们就可以删除它。我们当前的堆栈是:Angulajs-nodejs-mongodb。我们的第一个想法是创建一个从远程工作线程到mongodb任务的HTTP池。关键是我们将有20多个远程工作人员,我们想要高频刷新(在网络上进行了一些研究后,我们找到了关于rabbitMQ和消息系统的文档。这似乎符合

ruby-on-rails - 如何在生产中部署 resque worker?

GitHub人员最近发布了他们使用Redis的后台处理应用程序:http://github.com/defunkt/resquehttp://github.com/blog/542-introducing-resque我让它在本地运行,但我正在努力让它在生产环境中运行。有没有人得到:部署worker的Capistrano配方(控制worker数量、重新启动worker等)部署工作人员将机器与运行主应用程序的地方分开,这里需要哪些设置?让redis在服务器重启后仍然存在(我尝试将它放入cron但没有成功)您是如何将resque-web(他们出色的监控应用程序)用于您的部署的?谢谢!附言我