TuningPerformance-pooling
全部标签 我想停止一个worker的所有线程。我有一个有10个worker的线程池:defmyfunction(i):print(i)if(i==20):sys.exit()p=multiprocessing.Pool(10,init_worker)foriinrange(100):p.apply_async(myfunction,(i,))我的程序不会停止,其他进程会继续工作,直到完成所有100次迭代。我想从调用sys.exit()的线程内部完全停止池。目前的编写方式只会停止调用sys.exit()的worker。 最佳答案 这没有按您预期
我已经使用python/cython开发了一个实用程序,可以对CSV文件进行排序并为客户端生成统计信息,但是调用pool.map似乎会在我的映射函数有机会执行之前引发异常。对少量文件进行排序似乎按预期运行,但随着文件数量增加到10,我在调用pool.map后得到以下IndexError。有没有人碰巧认识到以下错误?非常感谢任何帮助。虽然代码处于NDA之下,但用例非常简单:代码示例:defsort_files(csv_files):pool_size=multiprocessing.cpu_count()pool=multiprocessing.Pool(processes=pool_s
所以最近几天我一直在摆弄python的多处理库,我真的很喜欢处理池。它很容易实现,我可以想象出很多用途。我已经完成了几个我以前听说过的项目来熟悉它,最近完成了一个暴力破解刽子手游戏的程序。任何人,我正在做一个执行时间比较,对单线程和处理池中100万到200万之间的所有素数求和。现在,对于hangmancruncher来说,将游戏放在处理池中可以将执行时间提高大约8倍(i7具有8个内核),但是当磨掉这些素数时,它实际上增加处理时间几乎是4倍。谁能告诉我这是为什么?这是供有兴趣查看或测试它的任何人使用的代码:#!/user/bin/python.exeimportmathfrommulti
我想在for循环中填充一个2D-numpy数组,并通过使用多处理来加快计算速度。importnumpyfrommultiprocessingimportPoolarray_2D=numpy.zeros((20,10))pool=Pool(processes=4)deffill_array(start_val):returnrange(start_val,start_val+10)list_start_vals=range(40,60)forlineinxrange(20):array_2D[line,:]=pool.map(fill_array,list_start_vals)pool
我经常发现自己用Python编写程序,构建一个大型(兆字节)只读数据结构,然后使用该数据结构分析一个非常大(总共数百兆字节)的小记录列表。每条记录都可以并行分析,所以一个自然的模式是设置只读数据结构并将其分配给全局变量,然后创建一个multiprocessing.Pool。(通过fork将数据结构隐式复制到每个工作进程中),然后使用imap_unordered并行处理记录。这种模式的骨架看起来像这样:classifier=Nonedefclassify_row(row):returnclassifier.classify(row)defclassify(classifier_spec,
我很乐意就目前的谈话总体说明我们只是。我正在做农活,想知道目前的进展。因此,如果我将100作业发送到10处理器,我该如何显示当前已返回的作业数。我可以获得ID,但是如何从我的map函数中计算已完成返回的作业数。我按如下方式调用我的函数:op_list=pool.map(PPMDR_star,list(varg))在我的函数中,我可以打印当前名称current=multiprocessing.current_process()print'Running:',current.name,current._identity 最佳答案 如果您
我的代码(遗传优化算法的一部分)并行运行几个进程,等待所有进程完成,读取输出,然后用不同的输入重复。当我重复测试60次时,一切正常。由于它有效,我决定使用更实际的重复次数200。我收到此错误:File"/usr/lib/python2.7/threading.py",line551,in__bootstrap_innerself.run()File"/usr/lib/python2.7/threading.py",line504,inrunself.__target(*self.__args,**self.__kwargs)File"/usr/lib/python2.7/multipr
我是python的新手。我正在使用multiprocessing模块读取stdin上的文本行,以某种方式转换它们并将它们写入数据库。这是我的代码片段:batch=[]pool=multiprocessing.Pool(20)i=0fori,contentinenumerate(sys.stdin):batch.append(content)iflen(batch)>=10000:pool.apply_async(insert,args=(batch,i+1))batch=[]pool.apply_async(insert,args=(batch,i))pool.close()pool.
我正在使用multiprocessing.Pool()这是我想要的池:definsert_and_process(file_to_process,db):db=DAL("path_to_mysql"+db)#TableDefinationsdb.table.insert(**parse_file(file_to_process))returnTrueif__name__=="__main__":file_list=os.listdir(".")P=Pool(processes=4)P.map(insert_and_process,file_list,db)#herehavingprob
我正在尝试在多个进程上调用一个函数。显而易见的解决方案是python的multiprocessing模块。问题是该功能有副作用。它创建一个临时文件并使用atexit.register和全局列表注册要在退出时删除的文件。以下应证明问题(在不同的上下文中)。importmultiprocessingasmultiglob_data=[]deffunc(a):glob_data.append(a)map(func,range(10))printglob_data#[0,1,2,3,4...,9]Good.p=multi.Pool(processes=8)p.map(func,range(80