草庐IT

MPI_Scatter

全部标签

c++ - 在 MPI 中如何广播 C++ vector ?

我想使用MPI广播C++vector。我不允许使用boost.mpi现在我使用来自VectorUsageinMPI(C++)的最受赞誉的答案但它不起作用..好的,这是代码://declarationofvariables(ParsedDataobjectwillcontainthesevariables)intgenerators_count,intervals_count;std::vectormean_arr,variance_arr,interval_begins_arr,interval_ends_arr;std::vectoramount_of_numbers_to_gene

c++ - MPI_ERR_BUFFER : invalid buffer pointer

这个错误最常见的原因是什么MPI_ERR_BUFFER:invalidbufferpointerMPI_Bsend()和MPI_Rcev()调用的结果是什么?当并行进程数较少( 最佳答案 扩展我之前的评论:MPI中的缓冲可以在各种情况下发生。MPI库可以在内部缓冲消息以隐藏网络延迟(通常只对不超过实现相关大小的小消息进行缓冲)或者用户可以通过使用任何缓冲发送操作来强制执行缓冲MPI_Bsend()和MPI_Ibsend()。用户缓冲与内部缓冲不同:首先,由MPI_Bsend()或MPI_Ibsend()发送的消息总是被缓冲的,而内部

c++ - MPI中每个进程的随机数

我正在使用MPICH2来实现“奇偶”排序。我做了实现,但是当我随机分配给每个进程他的值时,相同的数字被随机分配给所有进程。这里是每个进程的代码,每个进程随机化了他的值..intmain(intargc,char*argv[]){intnameLen,numProcs,myID;charprocessorName[MPI_MAX_PROCESSOR_NAME];intmyValue;MPI_Init(&argc,&argv);MPI_Comm_rank(MPI_COMM_WORLD,&myID);MPI_Comm_size(MPI_COMM_WORLD,&numProcs);MPI_Ge

c++ - Boost ASIO scatter-gather I/O 导致神秘的内存错误

我想通过TCP发送多个字符串,而不是先将它们组合成一个大字符串,据我所知,ASIO的分散-收集I/O接口(interface)可以做到这一点。但是,我一定是做错了什么,因为我的实现一直遇到内存错误。当我telnetlocalhost11211时,下面的代码片段(可编译和可运行)返回乱码:#include#include#includeusingnamespacestd;usingnamespaceboost::asio;usingnamespaceboost::asio::ip;intmain(){io_serviceservice;tcp::acceptoracceptor(serv

c++ - 无法使用 MPI_Send 和 MPI_Recv 发送 std::vector

我正在尝试使用MPI发送和接收函数发送std:vector但我没有到达任何地方。我收到类似的错误FatalerrorinMPI_Recv:Invalidbufferpointer,errorstack:MPI_Recv(186):MPI_Recv(buf=(nil),count=2,MPI_INT,src=0,tag=0,MPI_COMM_WORLD,status=0x7fff9e5e0c80)failedMPI_Recv(124):Nullbufferpointer我尝试了多种组合A)就像用来发送数组的..std::vectorm_image_data2;//definitionof

c++ - 使用 MPI::Send 可以发送的最大数据量

使用MPI::Isendas的语法MPI::RequestMPI::Comm::Isend(constvoid*buf,intcount,constMPI::Datatype&datatype,intdest,inttag)const;是限制发送的数据量std::numeric_limits::max()许多其他MPI函数都有int参数。这是MPI的限制吗? 最佳答案 MPI-2.2定义数据长度参数为int.自int以来,这可能而且通常是大多数64位Unix系统上的问题。仍然是32位的。此类系统称为LP64,这意味着long和指针是

c++ - 使用 Boost.MPI 库的目的是什么?

使用Boost.MPI库的目的是什么?它会boost性能吗?它和MPICH库有什么区别? 最佳答案 Boost.MPIprovidesanalternativeC++interfacetoMPIthatbettersupportsmodernC++developmentstyles,includingcompletesupportforuser-defineddatatypesandC++StandardLibrarytypes,arbitraryfunctionobjectsforcollectivealgorithms,andt

c++ - MPI 查找位移的不同方法

假设我有一个结构类型如下:typedefstruct{floatx,y,z;floatvelocity;intn,type;}Particle;我要发送。我必须创建一个MPI_Type。我知道4种方法。我在下面列出了它们。我想知道它们的区别、限制和好处是什么。使用MPI_Type_extent使用offsetof()在stddef.h,在这个答案中有解释:MPIDerivedTypeSendanswer使用MPI_Get_address,也是同一个答案中的一个例子。使用reinterpret_cast,我没试过,但这里有一个例子:MPICreateCustomData

c++ - 使用 boost::mpi 的 mpi 中的消息大小是否有限制?

我目前正在openMPI之上使用boost::mpi编写模拟,一切运行良好。但是,一旦我扩大系统规模,因此必须发送更大的std::vectors,我就会出错。我已将问题简化为以下问题:#include#include#include#include#include#includenamespacempi=boost::mpi;intmain(){mpi::environmentenv;mpi::communicatorworld;std::vectora;std::vectorb;if(world.rank()==0){for(size_ti=1;i打印出来:a1B1a2B2a4B4.

c++ - MPI - 异步广播/收集

我有一个项目需要“n”个进程才能解决问题。每个从属进程执行相同的代码。当某个条件出现时,该进程需要以非阻塞方式通知所有其他进程。其他进程也需要以非阻塞的方式接收这个消息。有没有一种方法可以不用线程化一个单独的循环? 最佳答案 我已经有一段时间没有使用MPI了。但是I函数是非阻塞的。也许是这样的:intcomm_size=comm.Get_size();intcomm_rank=comm.Get_rank();int*data=newint[comm_size];while(some_condition){//Duringeachit