草庐IT

MPI_Allgather

全部标签

高性能计算实验——矩阵乘法基于MPI的并行实现及优化

高性能计算实验——矩阵乘法基于MPI的并行实现及优化1.实验目的1.1.通过MPI实现通用矩阵乘法1.2.基于MPI的通用矩阵乘法优化1.3.改造实验1成矩阵乘法库函数2.实验过程和核心代码2.1.通过MPI实现通用矩阵乘法2.2.通用矩阵乘法优化2.3.改造实验1成矩阵乘法库函数3.实验结果3.1.通过MPI实现通用矩阵乘法3.2.基于MPI的通用矩阵乘法优化3.3.改造实验1成矩阵乘法库函数4.实验感想1.实验目的1.1.通过MPI实现通用矩阵乘法熟练掌握MPI编程方法,并将通用矩阵乘法转为MPI并行实现,进一步加深MPI的使用与理解。1.2.基于MPI的通用矩阵乘法优化进一步熟悉MPI矩

c++ - 在 Windows 上使用 MPI 时在进程之间共享数据

我已经进行了大量测试,试图在两个MPI主机上的多个独立运行的程序之间使用名为共享内存的窗口。结果是具有管理员权限的MPI没有Windows权限来访问全局\共享内存。如果MPI要启动EXE,它们是否会被视为子进程,Windows会允许对它们进行内存访问吗?其中一个进程包含DirectX,直接将DirectX合并到MPI程序中似乎很麻烦,因此我将它们保留为独立的EXE。以前在Intel的表格上询问过IntelMPI的windows特权,但尚未找到解决方案。(https://software.intel.com/en-us/forums/intel-clusters-and-hpc-tech

c++ - 是否可以决定哪个函数在 MPI 或任何其他 C++ 库中的哪个处理器上运行?

假设我有8个进程和4个处理器/内核。我可以在程序执行之前将特定进程分配给特定内核吗?例如处理器1=进程号4,5处理器2=进程号1,3处理器3=进程号2,6处理器4=进程号7,8 最佳答案 您可能想看看SetProcessorAffinityMask()功能。恕我直言,这不是您想要的,而是您能得到的最接近的。Aprocessaffinitymaskisabitvectorinwhicheachbitrepresentsalogicalprocessoronwhichthethreadsoftheprocessareallowedtor

c - MPI基础类(class)

您好,我想学习在C中使用MPI。我在Windows7上使用Codeblocks我运行了这个程序:#include#includevoidmain(intargc,char*argv[]){interr;err=MPI_Init(&argc,&argv);printf("Helloworld!\n");err=MPI_Finalize();}但出于某种原因,我在“mpi.h”处遇到错误。有没有办法添加库? 最佳答案 首先,安装MPI的实现。过去我使用过MPICH,但还有其他可用的实现。我知道另一个是LAM/MPI。查看维基百科页面以获

java - Java 的 MPI 实现

是否有当前的JavaMPI实现。我用MPI编程了一点,我喜欢用Java编程。我看过this在Java中实现,但它似乎过时了。是否有更新的Java实现正在保持更新? 最佳答案 看看MPJ你可以阅读这个section在维基百科中。 关于java-Java的MPI实现,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/469932/

c++ - 在键上使用 gpg --list-packets 的输出来获取 mpi 值以生成 s 表达式

我正在尝试使用gpg生成的公钥使用libgcrypt进行加密。我在key上使用了listpackets命令来获取key的内容,并将mpi值解析为一个s表达式。因此,当我尝试使用我的公钥对我的sessionkey进行编码时,我收到错误消息“S表达式中的奇数十六进制数”?我认为列表数据包可能会给我没有前导零的十六进制数字?如果是这样,我需要做什么才能获得可以在libgcrypt中使用的mpi值? 最佳答案 经过gpg和libgcrypt邮件列表的反复试验和建议后,listpackets命令会截断mpi值中的前导零,因此您必须在mpi值前

c++ - 使用 mpirun/mpiexec 运行时检测不使用 MPI

我正在编写一个程序(在C++11中),可以选择使用MPI并行运行。该项目使用CMake进行配置,如果找不到MPI,CMake会自动禁用MPI并显示相关警告消息。但是,我担心一个非常合理的用例,即用户在HPC集群上配置和编译程序,忘记加载MPI模块,并且没有注意到警告。然后同一用户可能会尝试运行该程序,注意未找到mpirun,包括MPI模块,但忘记重新编译。如果用户随后使用mpirun运行该程序,这将起作用,但该程序将只运行多次而没有任何并行化,因为MPI在编译时被禁用。为了防止用户认为程序是并行运行的,我想让程序在这种情况下显示一条错误消息。我的问题是:如何在不使用MPI库函数的情况下

c++ - 适用于 Linux 的免费并行 (MPI) 调试器?

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭7年前。Improvethisquestion是否有用于调试MPI并行化C++代码的非商业/免费Linux工具?像AllineaDDT或TotalView这样的东西?我知道如何使用gdb附加到并行运行代码的技巧。但是我发现它们只是为了进行一些快速调试而变得乏味。那么是否有直接支持并行调试的基于GUI的工具(可能基于gdb)?

c++ - 将 MPI 与 c++11 和 CUDA 相结合

我正在编写分子动力学模拟,一些内核将使用CUDA进行计算。我从使用一些c++11功能的普通CPU实现开始我的代码。现在我必须添加一些CUDA代码,我必须使用不支持c++11功能的编译器(gcc在我的makefile中,我分别从所有cpp文件创建对象,最后将它们全部链接在一起。此外,我的代码以这样一种方式拆分,即可以使用“现代”编译器编译没有CUDA的部分,而使用旧编译器编译其余部分(利用CUDA)。我现在的问题是,这是否可以,或者我是否会/可能会遇到问题? 最佳答案 我不知道Cuda,但我知道的是将C++98和C++11目标文件链接

c++ - 使用 MPI 在多个内核上运行

我使用当前命令提交MPI作业:mpirun-npno.ofprocessorsfilename我的理解是上面的命令让我提交给4个通过MPI通信的独立处理器。然而,在我们的设置中,每个处理器都有4个未使用的内核.我的问题如下:是否可以从MPI运行命令行提交作业以在同一节点或多个节点上的多个内核上运行?如果是怎么办?以上是否需要在代码中进行任何特殊注释/设置?我确实从阅读一些文献中了解到,内核之间的通信时间可能与处理器之间的通信时间不同,因此确实需要考虑问题的分布方式……但是对于那个问题?还需要估算什么?最后,传输的数据量是否有限制?总线可以发送/接收多少数据有限制吗?缓存有限制吗?谢谢!