草庐IT

MPI_Allgather

全部标签

c++ - 使用 MPI::Send 可以发送的最大数据量

使用MPI::Isendas的语法MPI::RequestMPI::Comm::Isend(constvoid*buf,intcount,constMPI::Datatype&datatype,intdest,inttag)const;是限制发送的数据量std::numeric_limits::max()许多其他MPI函数都有int参数。这是MPI的限制吗? 最佳答案 MPI-2.2定义数据长度参数为int.自int以来,这可能而且通常是大多数64位Unix系统上的问题。仍然是32位的。此类系统称为LP64,这意味着long和指针是

c++ - 使用 Boost.MPI 库的目的是什么?

使用Boost.MPI库的目的是什么?它会boost性能吗?它和MPICH库有什么区别? 最佳答案 Boost.MPIprovidesanalternativeC++interfacetoMPIthatbettersupportsmodernC++developmentstyles,includingcompletesupportforuser-defineddatatypesandC++StandardLibrarytypes,arbitraryfunctionobjectsforcollectivealgorithms,andt

c++ - MPI 查找位移的不同方法

假设我有一个结构类型如下:typedefstruct{floatx,y,z;floatvelocity;intn,type;}Particle;我要发送。我必须创建一个MPI_Type。我知道4种方法。我在下面列出了它们。我想知道它们的区别、限制和好处是什么。使用MPI_Type_extent使用offsetof()在stddef.h,在这个答案中有解释:MPIDerivedTypeSendanswer使用MPI_Get_address,也是同一个答案中的一个例子。使用reinterpret_cast,我没试过,但这里有一个例子:MPICreateCustomData

c++ - 使用 boost::mpi 的 mpi 中的消息大小是否有限制?

我目前正在openMPI之上使用boost::mpi编写模拟,一切运行良好。但是,一旦我扩大系统规模,因此必须发送更大的std::vectors,我就会出错。我已将问题简化为以下问题:#include#include#include#include#include#includenamespacempi=boost::mpi;intmain(){mpi::environmentenv;mpi::communicatorworld;std::vectora;std::vectorb;if(world.rank()==0){for(size_ti=1;i打印出来:a1B1a2B2a4B4.

c++ - MPI - 异步广播/收集

我有一个项目需要“n”个进程才能解决问题。每个从属进程执行相同的代码。当某个条件出现时,该进程需要以非阻塞方式通知所有其他进程。其他进程也需要以非阻塞的方式接收这个消息。有没有一种方法可以不用线程化一个单独的循环? 最佳答案 我已经有一段时间没有使用MPI了。但是I函数是非阻塞的。也许是这样的:intcomm_size=comm.Get_size();intcomm_rank=comm.Get_rank();int*data=newint[comm_size];while(some_condition){//Duringeachit

c++ - 谐波级数和 c++ MPI 和 OpenMP

我正在尝试同时使用MPI和opemMP制作并行版本的“HarmonicProgressionSum”问题。但是输出在每个过程中都是不同的。谁能帮我解决这个问题?并行程序:(MPI和OpenMP)#include#include#include#include#include#include#include#defined10//NumbersofDigits(Example:5=>0,xxxxx)#definen1000//ValueofN(Example:5=>1/1+1/2+1/3+1/4+1/5)usingnamespacestd;doublet_ini,t_fim,t_tot;

c++ - MPI_Allgather 中的奇怪死锁

经过大量谷歌搜索,我不知道是什么导致了这个问题。在这里:我在我的代码中有一个对MPI_Allgather的简单调用,我对它进行了双重、三次和四次检查以确保正确(发送/接收缓冲区大小合适;调用中的发送/接收大小正确),但是对于“大量”进程导致死锁或MPI_ERR_TRUNCATE。用于Allgather的通信器使用MPI_Comm_split从MPI_COMM_WORLD中分离出来。对于我当前的测试,等级0分配给一个通信器,其余等级分配给第二个通信器。对于6个或更少的总等级,Allgather工作得很好。如果我使用7个等级,我会得到一个MPI_ERR_TRUNCATE。8个行列,僵局。我

c++ - clock() 和 MPI_Wtime() 之间的区别

快速提问。对于我的代码的MPI实现,我在这两个方面都有很大的不同。我知道MPI_Wtime是每个处理器经过的实时时间,而clock()给出了预期时间的粗略概念。有人想添加一些断言吗? 最佳答案 clock函数完全没用。它测量cpu时间,而不是实时/墙上时间,而且它有以下严重问题:在大多数实现中,分辨率都非常差,例如1/100秒。CLOCKS_PER_SECOND不是分辨率,只是比例。使用CLOCKS_PER_SECOND的典型值(例如,Unix标准要求它为100万),clock将在32-分钟内溢出位系统。溢出后返回-1。大多数历史实

c++ - OpenMP、MPI、POSIX 线程、std::thread、boost::thread 如何关联?

有几种方法可以实现多线程。std::thread最终由C++11标准引入,但可以有效地使用boost::thread。每种技术都有特定的语法和内容,但大致用于CPU并行编程。但它们有不同的作用。我知道,例如,MPI和OpenMP用于不同的内存模型。我还知道,技术的选择实际上并不是唯一的,因此可以使用另一种技术(同样是MPI和OpenMP)。为什么它们用于不同的效果但仍然使用相同的源(CPU)?如果我基于这些技术中的每一种技术编译具有并行性的C++程序,会有什么区别(从操作系统和硬件的角度来看)?例如,OpenMP或std::thread使用POSIX线程吗?如果是这样,C++11的线程

c++ - 使用 mpi 将矩阵写入单个 txt 文件

我有一个巨大的矩阵,我将它分成一些子矩阵,然后对其进行一些计算。在这些计算之后,我必须将该矩阵写入单个文件以进行后期处理。是否可以将结果写入单个文本文件,我该怎么做?例如,我们有一个在y方向上划分的nxny矩阵(每个进程都有一个nxrank矩阵),我们想将nx*ny矩阵写入单个文本文件。 最佳答案 所以将大量数据写成文本并不是一个好主意。它真的非常非常慢,它会生成不必要的大文件,而且处理起来很痛苦。大量数据应该写成二进制,只有人类的摘要数据写成文本。让计算机要处理的东西对计算机来说很容易,只有你真正要坐下来阅读的东西对你来说很容易处