source: XIOS/dev/branch_openmp/extern/ep_dev/main.cpp @ 1518

Last change on this file since 1518 was 1518, checked in by yushan, 6 years ago

optimisation partially finished. To do : special case for intercomm_create and intercomm_merge

File size: 34.7 KB
Line 
1#include "ep_lib.hpp"
2
3#include <stdio.h>
4#include <assert.h>
5#include "ep_declaration.hpp"
6#include <omp.h>
7#include <time.h>       /* time */
8#include <ctime>
9#include <ratio>
10#include <chrono>
11
12using namespace ep_lib;
13using namespace std::chrono;
14
15
16
17int main(int argc, char **argv)
18{
19  srand (time(NULL));
20
21  //printf("Testing ep_lib\n");
22  int required=3, provided;
23
24  MPI_Init_thread(&argc, &argv, required, &provided);
25
26  assert(required==provided);
27
28  int mpi_rank;
29  int mpi_size;
30
31  MPI_Comm_rank(MPI_COMM_WORLD, &mpi_rank);
32  MPI_Comm_size(MPI_COMM_WORLD, &mpi_size);
33 
34 
35
36  #pragma omp parallel default(shared)
37  {
38    MPI_Comm_rank(MPI_COMM_WORLD , &mpi_rank);
39
40    int num_ep = omp_get_num_threads();
41    MPI_Info info;
42
43    //printf("mpi_rank = %d, thread_num = %d\n", mpi_rank, omp_get_thread_num());
44
45    MPI_Comm *ep_comm;
46    #pragma omp master
47    {
48      MPI_Comm *ep_comm;
49      MPI_Comm_create_endpoints(MPI_COMM_WORLD->mpi_comm, num_ep, info, ep_comm);
50      passage = ep_comm; 
51    }
52
53    #pragma omp barrier
54
55
56    MPI_Comm comm_for_dup; // this should act as EP_COMM_WORLD
57    MPI_Comm comm; // this should act as EP_COMM_WORLD
58       
59    comm_for_dup = passage[omp_get_thread_num()];
60    MPI_Comm_dup(comm_for_dup, &comm);
61   
62    MPI_Comm_free(&comm_for_dup);
63   
64    MPI_Barrier(comm);
65
66    int rank, size;
67    MPI_Comm_rank(comm, &rank);
68    MPI_Comm_size(comm, &size);
69   
70    if(rank == 0) printf("           \t test MPI_Comm_dup \t OK \n");
71
72    // TIMING SYCHRONIZATION
73    {
74      int n=100000;
75
76      MPI_Barrier(comm);
77     
78      high_resolution_clock::time_point t1 = high_resolution_clock::now();
79
80      for(int i=0; i<n; i++)
81        MPI_Barrier_local(comm);
82
83      high_resolution_clock::time_point t2 = high_resolution_clock::now();
84      duration<double> time_span = duration_cast<duration<double>>(t2 - t1);
85      #pragma omp master
86      std::cout << "proc "<< mpi_rank <<" ep_barrier "<< time_span.count() << " seconds."<<std::endl;
87
88      t1 = high_resolution_clock::now();
89
90      for(int i=0; i<n; i++)
91      {
92        #pragma omp barrier
93      }
94
95      t2 = high_resolution_clock::now();
96      time_span = duration_cast<duration<double>>(t2 - t1);
97     
98      #pragma omp master
99      std::cout << "proc "<< mpi_rank <<" omp_barrier "<< time_span.count() << " seconds."<<std::endl;
100
101      t1 = high_resolution_clock::now();
102
103      for(int i=0; i<n; i++)
104      {
105        //#pragma omp barrier
106      }
107
108      t2 = high_resolution_clock::now();
109      time_span = duration_cast<duration<double>>(t2 - t1);
110     
111      MPI_Barrier(comm);
112
113      #pragma omp master
114      std::cout << "proc "<< mpi_rank <<" for_loop "<< time_span.count() << " seconds."<<std::endl;
115    }// END TIMING SYCHRONIZATION
116   
117    // TEST of p2p blocking communication
118    {
119      MPI_Barrier(comm);
120      MPI_Barrier(comm);
121     
122      MPI_Comm equal_comm = comm;
123     
124     
125     
126     
127      double sendbuf[10];
128      double recvbuf[20];
129     
130      int sender;
131      if(rank == 0) sender = rand() % size;
132      MPI_Bcast(&sender, 1, MPI_INT, 0, comm);
133     
134      int receiver = sender;
135      if(rank == 0) while(sender == receiver) {receiver = rand() % size;}
136      MPI_Bcast(&receiver, 1, MPI_INT, 0, comm);
137     
138     
139     
140     
141      if(rank == sender)
142      {
143        for(int i=0; i<10; i++) sendbuf[i] = 99.99;
144        MPI_Send(sendbuf, 10, MPI_DOUBLE, receiver, 99, equal_comm);
145        for(int i=0; i<10; i++) sendbuf[i] = -99.99;
146        MPI_Send(sendbuf, 10, MPI_DOUBLE, receiver, 11, equal_comm);
147      }
148     
149      if(rank == receiver)
150      {
151        MPI_Status status;
152        for(int i=0; i<20; i++) recvbuf[i] = 0.0;
153        MPI_Recv(&recvbuf[10], 10, MPI_DOUBLE, sender, 99, comm, &status);
154        MPI_Recv(recvbuf, 10, MPI_DOUBLE, sender, 11, comm, &status);
155       
156        for(int i=0; i<20; i++) std::cout << "recvbuf["<< i <<"] = "<< recvbuf[i] << std::endl;
157        printf("sender = %d\nreceiver = %d \tTEST of p2p blocking communication\tOK\n", sender, receiver);
158      }
159     
160      MPI_Barrier(comm);
161   
162    }//TEST of p2p blocking communication
163   
164    // TEST of p2p non-blocking communication
165    {
166      MPI_Barrier(comm);
167      MPI_Barrier(comm);
168     
169      double sendbuf[10];
170      double recvbuf[20];
171     
172      int sender;
173      if(rank == 0) sender = rand() % size;
174      MPI_Bcast(&sender, 1, MPI_INT, 0, comm);
175     
176      int receiver = sender;
177      if(rank == 0) receiver = rand() % size;
178      MPI_Bcast(&receiver, 1, MPI_INT, 0, comm);
179
180
181           
182      MPI_Request request[2];
183     
184      if(rank == sender)
185      {
186       
187        for(int i=0; i<10; i++) sendbuf[i] = 99.99;
188        MPI_Isend(sendbuf, 10, MPI_DOUBLE, receiver, 99, comm, &request[0]);
189        for(int i=0; i<10; i++) sendbuf[i] = -99.99;
190        MPI_Isend(sendbuf, 10, MPI_DOUBLE, receiver, 11, comm, &request[1]);
191      }
192     
193      if(rank == receiver)
194      {
195        for(int i=0; i<20; i++) recvbuf[i] = 0.0;
196        MPI_Irecv(&recvbuf[10], 10, MPI_DOUBLE, sender, 11, comm, &request[0]);
197        MPI_Irecv(recvbuf, 10, MPI_DOUBLE, sender, 99, comm, &request[1]);
198      }
199     
200      MPI_Barrier(comm);
201     
202      if(rank == receiver || rank == sender)
203      {
204        MPI_Status status[2];
205        MPI_Waitall(2, request, status);
206      }
207     
208      MPI_Barrier(comm);
209     
210      if(rank == receiver)
211      {
212        for(int i=0; i<20; i++) std::cout << "recvbuf["<< i <<"] = "<< recvbuf[i] << std::endl;
213        printf("sender = %d\nreceiver = %d \tTEST of p2p non-blocking communication\tOK\n", sender, receiver);
214      }
215   
216    }//TEST of p2p blocking communication
217   
218
219    // TEST OF BCAST FROM A RANDOM ROOT
220    {
221      int bcast_root;
222 
223      if(rank == 0) bcast_root = rand() % size;
224 
225      MPI_Bcast(&bcast_root, 1, MPI_INT, 0, comm);
226 
227      int sendbuf[2];
228
229      sendbuf[0] = rank;
230      sendbuf[1] = size;
231 
232      MPI_Bcast(sendbuf, 2, MPI_INT, bcast_root, comm);
233 
234      int bcast_test = 0;
235      if(sendbuf[0] ==  bcast_root && sendbuf[1] == size) bcast_test = 1;
236 
237      int bcast_result;
238 
239      MPI_Reduce(&bcast_test, &bcast_result, 1, MPI_INT, MPI_MIN, bcast_root, comm);
240 
241      if(bcast_result && rank == bcast_root)  printf("root = %d : \t test MPI_Bcast \t OK\n", bcast_root);
242      if(!bcast_result && rank == bcast_root) printf("root = %d : \t test MPI_Bcast \t FAILED %d\n", bcast_root, bcast_result);
243    }
244
245    MPI_Barrier(comm);
246
247    // TEST OF GATHER FROM A RAMDOM ROOT
248    {
249      int gather_root;
250 
251      if(rank == 0) gather_root = rand() % size;
252 
253      MPI_Bcast(&gather_root, 1, MPI_INT, 0, comm);
254
255      double sendbuf[2];
256      sendbuf[0] = rank * 1.0;
257      sendbuf[1] = size * (-1.0);
258
259      std::vector<double>recvbuf(2*size, 0);
260
261      MPI_Gather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, gather_root, comm);
262
263      bool gather_result = true;
264
265      if(rank == gather_root)
266      {
267        for(int i=0; i<size; i++)
268        {
269          if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
270          {
271            gather_result = false;
272            break;
273          } 
274        }
275
276        if(gather_result) printf("root = %d : \t test MPI_Gather \t OK \n", gather_root);
277        else              printf("root = %d : \t test MPI_Gather \t FAILED\n", gather_root);
278      }
279    }
280
281    MPI_Barrier(comm);
282
283    // TEST OF GATHERV FROM A RAMDOM ROOT
284    {
285      int gatherv_root;
286 
287      if(rank == 0) gatherv_root = rand() % size;
288 
289      MPI_Bcast(&gatherv_root, 1, MPI_INT, 0, comm);
290
291      int sendbuf[2];
292      sendbuf[0] = rank;
293      sendbuf[1] = -size;
294
295      std::vector<int>recvbuf(2*size, 0);
296
297      std::vector<int>recvcounts(size, 2);
298      std::vector<int>displs(size, 0);
299
300      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
301
302      MPI_Gatherv(sendbuf, 2, MPI_INT, recvbuf.data(), recvcounts.data(), displs.data(), MPI_INT, gatherv_root, comm);
303
304      bool gatherv_result = true;
305
306      if(rank == gatherv_root)
307      {
308        for(int i=0; i<size; i++)
309        {
310          if(abs(recvbuf[2*i] - (size-1-i)) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
311          {
312            gatherv_result = false; printf("%lf %lf root = %d, i = %d\n", recvbuf[2*i], recvbuf[2*i+1], gatherv_root, i);
313            break;
314          } 
315        }
316       
317        //for(int i=0; i<size*2; i++) printf("%lf\t", recvbuf[i]);
318        //printf("\n");
319
320        if(gatherv_result) printf("root = %d : \t test MPI_Gatherv \t OK\n", gatherv_root);
321        else               printf("root = %d : \t test MPI_Gatherv \t FAILED\n", gatherv_root);
322      }
323    }
324
325    MPI_Barrier(comm);
326
327    // TEST OF ALLGATHER
328    {
329      double sendbuf[2];
330      sendbuf[0] = rank * 1.0;
331      sendbuf[1] = size * (-1.0);
332
333      std::vector<double>recvbuf(2*size, 0);
334
335      MPI_Allgather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, comm);
336
337      int allgather_test = 1;
338
339      for(int i=0; i<size; i++)
340      {
341        if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
342        {
343          allgather_test = 0;
344          break;
345        } 
346      }
347
348      int allgather_result;
349      MPI_Reduce(&allgather_test, &allgather_result, 1, MPI_INT, MPI_MIN, 0, comm);
350
351      if(rank == 0 && allgather_result)  printf("           \t test MPI_Allgather \t OK \n");
352      if(rank == 0 && !allgather_result) printf("           \t test MPI_Allgather \t OK \n");
353     
354    }
355
356    MPI_Barrier(comm);
357
358    // TEST OF ALLGATHERV
359    {
360      int sendbuf[2];
361      sendbuf[0] = rank;
362      sendbuf[1] = -size;
363
364      std::vector<int>recvbuf(2*size, 0);
365
366      std::vector<int>recvcounts(size, 2);
367      std::vector<int>displs(size, 0);
368
369      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
370
371      MPI_Allgatherv(sendbuf, 2, MPI_INT, recvbuf.data(), recvcounts.data(), displs.data(), MPI_INT, comm);
372
373      int allgatherv_test = 1;
374
375     
376     
377      for(int i=0; i<size; i++)
378      {
379        if(abs(recvbuf[2*i] - (size-1-i)) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
380        {
381          allgatherv_test = 0; printf("ID : %d %d %d %d %d\n", rank, recvbuf[2*i], recvbuf[2*i+1] , recvbuf[2*i] - (size-1-i), recvbuf[2*i+1] + size);
382          break;
383        } 
384      }
385       
386     
387      int allgatherv_result;
388      MPI_Reduce(&allgatherv_test, &allgatherv_result, 1, MPI_INT, MPI_MIN, 0, comm);
389
390      if(rank == 0 && allgatherv_result)  printf("           \t test MPI_Allgatherv \t OK \n");
391      if(rank == 0 && !allgatherv_result) printf("           \t test MPI_Allgatherv \t FAILED %d\n", allgatherv_result);
392     
393    }
394
395    MPI_Barrier(comm);
396
397    // TEST OF REDUCE
398    {
399      int reduce_root;
400 
401      if(rank == 0) reduce_root = rand() % size;
402 
403      MPI_Bcast(&reduce_root, 1, MPI_INT, 0, comm);
404
405      int sendbuf[2];
406      sendbuf[0] = rank;
407      sendbuf[1] = -size;
408
409      std::vector<int>recvbuf(2, 0);
410
411      MPI_Op op = MPI_MIN;
412
413      MPI_Reduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, reduce_root, comm);
414
415
416      bool reduce_result = true;
417
418      if(rank == reduce_root)
419      {
420        for(int i=0; i<2; i++)
421        {
422          if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[1] + size * size) > 1.e-10) ) ||
423             (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) )               ||
424             (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) ) )
425          {
426            reduce_result = false; printf("%d %d root = %d, i = %d\n", recvbuf[0], recvbuf[1], reduce_root, i);
427            break;
428          } 
429        }
430      }
431
432      if(rank == reduce_root && reduce_result)  printf("root = %d : \t test MPI_Reduce \t OK\n", reduce_root);
433      if(rank == reduce_root && !reduce_result) printf("root = %d : \t test MPI_Reduce \t FAILED\n", reduce_root);
434    }
435   
436
437    MPI_Barrier(comm);
438
439    // TEST OF ALLREDUCE
440    {
441 
442      int sendbuf[2];
443      sendbuf[0] = rank;
444      sendbuf[1] = -size;
445
446      std::vector<int>recvbuf(2, 0);
447
448      MPI_Op op = MPI_MIN;
449
450      MPI_Allreduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, comm);
451
452
453      int allreduce_test = 1;
454
455     
456      if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[1] + size * size) > 1.e-10) ) ||
457         (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) )               ||
458         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) ) )
459      {
460        allreduce_test = 0; printf("%d %d\n", recvbuf[0], recvbuf[1]);
461      } 
462     
463
464      int allreduce_result;
465      MPI_Reduce(&allreduce_test, &allreduce_result, 1, MPI_INT, MPI_MIN, 0, comm);
466
467      if(rank == 0 && allreduce_result)  printf("            \t test MPI_Allreduce \t OK\n");
468      if(rank == 0 && !allreduce_result) printf("            \t test MPI_Allreduce \t FAILED\n");
469    }
470
471
472    MPI_Barrier(comm);
473
474    // TEST OF REDUCE_SCATTER
475    {
476 
477      std::vector<int>sendbuf(2*size, rank);
478      std::vector<int>recvbuf(2, -1);
479      std::vector<int>recvcounts(size, 2);
480
481      MPI_Op op = MPI_MIN;
482
483      MPI_Reduce_scatter(sendbuf.data(), recvbuf.data(), recvcounts.data(), MPI_INT, op, comm);
484
485
486      int reduce_scatter_test = 1;
487
488     
489      if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[0]-(size-1)*size/2) > 1.e-10) ) ||
490         (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1]-(size-1)) > 1.e-10) )               ||
491         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] ) > 1.e-10) ) )
492      {
493        reduce_scatter_test = 0; //printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
494      } 
495   
496
497      int reduce_scatter_result;
498      MPI_Reduce(&reduce_scatter_test, &reduce_scatter_result, 1, MPI_INT, MPI_MIN, 0, comm);
499
500      if(rank == 0 && reduce_scatter_result)  printf("            \t test MPI_Reduce_scatter OK\n");
501      if(rank == 0 && !reduce_scatter_result) printf("            \t test MPI_Reduce_scatter FAILED\n");
502    }
503
504    MPI_Barrier(comm);
505
506    // TEST OF SCATTER
507    {
508
509      int scatter_root;
510 
511      if(rank == 0) scatter_root = rand() % size;
512 
513      MPI_Bcast(&scatter_root, 1, MPI_INT, 0, comm);
514 
515      std::vector<int>sendbuf(2*size, rank);
516      std::vector<int>recvbuf(2, -1);
517      std::vector<int>recvcounts(size, 2);
518
519      if(rank == scatter_root) 
520      {
521        for(int i=0; i<size; i++) 
522        {
523          sendbuf[2*i] = i;
524          sendbuf[2*i+1] = size;
525        }
526        //for(int i=0; i<size*2; i++) printf("%d\t", sendbuf[i]);
527      }
528
529
530      MPI_Scatter(sendbuf.data(), 2, MPI_INT, recvbuf.data(), 2, MPI_INT, scatter_root, comm);
531
532      //printf("ID = %d : %d %d\n", rank, recvbuf[0], recvbuf[1]);
533
534      int scatter_test = 1;
535
536     
537      if( abs(recvbuf[0]-rank) > 1.e-10 || abs(recvbuf[1]-size) > 1.e-10 )
538      {
539        scatter_test = 0; //printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
540      } 
541   
542
543      int scatter_result;
544      MPI_Reduce(&scatter_test, &scatter_result, 1, MPI_INT, MPI_MIN, scatter_root, comm);
545
546      if(rank == scatter_root && scatter_result)  printf("root = %d : \t test MPI_Scatter \t OK\n", scatter_root);
547      if(rank == scatter_root && !scatter_result) printf("root = %d : \t test MPI_Scatter \t FAILED\n", scatter_root);
548    }
549   
550    MPI_Barrier(comm);
551
552    // TEST OF SCATTERV
553    {
554
555      int scatterv_root;
556 
557      if(rank == 0) scatterv_root = rand() % size;
558 
559      MPI_Bcast(&scatterv_root, 1, MPI_INT, 0, comm);
560 
561      std::vector<int>sendbuf(2*size, rank);
562      std::vector<int>recvbuf(2, -1);
563      std::vector<int>sendcounts(size, 2);
564      std::vector<int>displs(size, 0);
565
566      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
567
568      if(rank == scatterv_root) 
569      {
570        for(int i=0; i<size; i++) 
571        {
572          sendbuf[2*i] = i;
573          sendbuf[2*i+1] = size;
574        }
575      }
576
577
578      MPI_Scatterv(sendbuf.data(), sendcounts.data(), displs.data(), MPI_INT, recvbuf.data(), 2, MPI_INT, scatterv_root, comm);
579
580      //printf("ID = %d : %d %d\n", rank, recvbuf[0], recvbuf[1]);
581
582      int scatterv_test = 1;
583
584     
585      if( abs(recvbuf[0]-(size-1-rank)) > 1.e-10 || abs(recvbuf[1]-size) > 1.e-10 )
586      {
587        scatterv_test = 0; printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
588      } 
589   
590
591      int scatterv_result;
592      MPI_Reduce(&scatterv_test, &scatterv_result, 1, MPI_INT, MPI_MIN, scatterv_root, comm);
593
594      if(rank == scatterv_root && scatterv_result)  printf("root = %d : \t test MPI_Scatterv \t OK\n", scatterv_root);
595      if(rank == scatterv_root && !scatterv_result) printf("root = %d : \t test MPI_Scatterv \t FAILED\n", scatterv_root);
596    }
597
598    MPI_Barrier(comm);
599
600    // TEST OF ALLTOALL
601    {
602
603      std::vector<int>sendbuf(size, rank);
604      std::vector<int>recvbuf(size, -1);
605           
606
607      MPI_Alltoall(sendbuf.data(), 1, MPI_INT, recvbuf.data(), 1, MPI_INT, comm);
608
609      int alltoall_result = 1;
610
611     
612      for(int i=0; i<size; i++)
613      if( abs(recvbuf[i]-i) > 1.e-10 )
614      {
615        alltoall_result = 0; printf("%d  id = %d\n", recvbuf[i], rank);
616      } 
617   
618      if(rank == 0 && alltoall_result)  printf("            \t test MPI_Alltoall \t OK\n");
619      if(rank == 0 && !alltoall_result) printf("            \t test MPI_Alltoall \t FAILED\n");
620    }
621
622    // TEST OF SCAN
623    {
624 
625      std::vector<int>sendbuf(2, rank);
626      std::vector<int>recvbuf(2, -1);
627
628      MPI_Op op = MPI_SUM;
629           
630
631      MPI_Scan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, comm);
632
633      int scan_test = 1;
634
635      // printf(" ID=%d : %d  %d \n", rank, recvbuf[0], recvbuf[1]);
636     
637      if((op == MPI_SUM && (abs(recvbuf[0]-rank*(rank+1)/2) > 1.e-10 || abs(recvbuf[1]-rank*(rank+1)/2) > 1.e-10) ) ||
638         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
639         (op == MPI_MAX && (abs(recvbuf[0] - rank) > 1.e-10 || abs(recvbuf[1] - rank) > 1.e-10) ) )
640      {
641        scan_test = 0; //printf("%d  id = %d\n", recvbuf[i], rank);
642      } 
643
644      int scan_result;
645      MPI_Reduce(&scan_test, &scan_result, 1, MPI_INT, MPI_MIN, 0, comm);
646   
647      if(rank == 0 && scan_result)  printf("            \t test MPI_Scan \t\t OK\n");
648      if(rank == 0 && !scan_result) printf("            \t test MPI_Scan \t\t FAILED\n");
649    }
650
651
652    // TEST OF EXSCAN
653    {
654 
655      std::vector<int>sendbuf(2, rank);
656      std::vector<int>recvbuf(2, -1);
657
658      MPI_Op op = MPI_SUM;
659           
660
661      MPI_Exscan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, comm);
662
663      int exscan_test = 1;
664
665      // printf(" ID=%d : %d  %d \n", rank, recvbuf[0], recvbuf[1]);
666     
667      if(rank >0)
668      if((op == MPI_SUM && (abs(recvbuf[0]-rank*(rank-1)/2) > 1.e-10 || abs(recvbuf[1]-rank*(rank-1)/2) > 1.e-10) ) ||
669         (op == MPI_MIN && (abs(recvbuf[0] ) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
670         (op == MPI_MAX && (abs(recvbuf[0] - rank+1) > 1.e-10 || abs(recvbuf[1] - rank+1) > 1.e-10) ) )
671      {
672        exscan_test = 0; //printf("%d  id = %d\n", recvbuf[i], rank);
673      } 
674
675      int exscan_result;
676      MPI_Reduce(&exscan_test, &exscan_result, 1, MPI_INT, MPI_MIN, 0, comm);
677   
678      if(rank == 0 && exscan_result)  printf("            \t test MPI_Exscan \t OK\n");
679      if(rank == 0 && !exscan_result) printf("            \t test MPI_Exscan \t FAILED\n");
680    }
681
682
683
684    // TEST OF COMM_SPLIT
685    {
686
687      MPI_Barrier(comm);
688      int rank, size;
689      MPI_Comm_rank(comm, &rank);
690      MPI_Comm_size(comm, &size);
691   
692      int color = rand()%3;
693      int key = rand()%5;
694     
695      int color2 = rand()%3;
696      int key2 = rand()%5;
697 
698      MPI_Comm split_comm;
699      MPI_Comm_split(comm, color, key, &split_comm);
700
701     
702      MPI_Comm split_comm2;
703      MPI_Comm_split(comm, color2, key2, &split_comm2);
704
705
706   
707      int split_rank, split_size;
708      MPI_Comm_rank(split_comm, &split_rank);
709      MPI_Comm_size(split_comm, &split_size);
710   
711#ifdef _Memory_check   
712      printf("rank = %d, color = %d, key = %d, split_rank = %d, local_rank=%d\n", rank, color, key, split_rank, split_comm->ep_comm_ptr->size_rank_info[1].first);
713#endif
714
715      MPI_Barrier(comm);
716      MPI_Barrier(comm);
717      MPI_Barrier(comm);
718     
719      if(rank == 0) printf("            \t tMPI_Comm_split \t OK\n");
720     
721      MPI_Barrier(comm);
722      MPI_Barrier(comm);
723     
724      int bcast_buf_size=100;
725     
726      std::vector<int> bcast_buf(bcast_buf_size, 0);
727     
728      if(split_rank==0) bcast_buf.assign(bcast_buf_size, (color+1)*split_size);
729     
730      MPI_Bcast(bcast_buf.data(), bcast_buf_size, MPI_INT, 0, split_comm);
731     
732      int bcast_test = 0;
733      for(int i=0; i<bcast_buf_size; i++)
734      {
735        if(bcast_buf[i] != (color+1)*split_size)
736          bcast_test = 1;
737      }
738 
739      int bcast_result;
740 
741      MPI_Reduce(&bcast_test, &bcast_result, 1, MPI_INT, MPI_SUM, 0, comm);
742 
743      MPI_Barrier(split_comm);
744      MPI_Comm_free(&split_comm);
745     
746      MPI_Barrier(split_comm2);
747      MPI_Comm_free(&split_comm2);
748     
749     
750      if(bcast_result == 0 && rank == 0)  printf("            \t test MPI_Bcast for split comm\t OK\n");
751      if(bcast_result != 0 && rank == 0)  printf("            \t test MPI_Bcast for split comm\t FAILED %d\n", bcast_result);
752     
753    }
754   
755    MPI_Barrier(comm);
756    MPI_Barrier(comm);
757    MPI_Barrier(comm);
758   
759    // TESE OF INTERCOMM_CREATE
760    {
761      MPI_Barrier(comm);
762     
763      int rank, size;
764      MPI_Comm_rank(comm, &rank);
765      MPI_Comm_size(comm, &size);
766
767      int config = 1;
768      if(config=1)
769      {
770        assert(size == 16 && omp_get_num_threads()==4);
771      }
772     
773      int tab_color[16] = {2, 2, 2, 1, 2, 1, 1, 2, 2, 2, 2, 2, 2, 1, 1, 1}; // used for config 1
774      int tab_key[16]   = {2, 1, 4, 1, 0, 4, 3, 3, 4, 3, 4, 4, 4, 0, 0, 2}; // used for config 1
775
776      int color = tab_color[rank];
777      int key = tab_key[rank];
778     
779 
780      MPI_Comm split_comm;
781      MPI_Comm_split(comm, color, key, &split_comm);
782
783   
784      int split_rank, split_size;
785      MPI_Comm_rank(split_comm, &split_rank);
786      MPI_Comm_size(split_comm, &split_size);
787
788
789     
790
791      MPI_Barrier(comm);
792      MPI_Barrier(comm);
793     
794      if(rank == 0) printf("            \t MPI_Comm_split \t OK\n");
795     
796      MPI_Barrier(comm);
797      MPI_Barrier(comm);
798     
799     
800     
801     
802     
803      int local_leader = 0;
804      int remote_leader = color==2? 13: 4; // used for config 1
805
806      MPI_Comm peer_comm = comm;
807
808      MPI_Comm inter_comm;
809      MPI_Intercomm_create(split_comm, local_leader, peer_comm, remote_leader, 99, &inter_comm);
810
811      int inter_rank, inter_size, remote_size;
812      MPI_Comm_rank(inter_comm, &inter_rank);
813      MPI_Comm_size(inter_comm, &inter_size);
814      MPI_Comm_remote_size(inter_comm, &remote_size);
815     
816     
817      MPI_Barrier(comm);
818      MPI_Barrier(comm);
819
820      if(rank == 0) printf("            \t MPI_Intercomm_create \t OK\n");
821
822      printf("rank = %d, split_rank = %d, split_size = %d, inter_rank=%d, inter_size=%d, remote_size=%d\n", rank, split_rank, split_size, inter_rank, inter_size, remote_size);
823
824     
825      MPI_Barrier(comm);
826      MPI_Barrier(comm);
827
828      if(color==2 && split_rank==0)
829      {
830        double sendbuf[9]={1.1, 2.2, 3.3, 4.4, 5.5, 6.6, 7.7, 8.8, 9.9};
831        MPI_Request send_request;
832        MPI_Status send_status;
833        MPI_Isend(sendbuf, 9, MPI_DOUBLE, 0, 10, inter_comm, &send_request);
834        MPI_Wait(&send_request, &send_status);
835      }
836
837      if(color==1 && split_rank==0)
838      {
839        double recvbuf[9];
840        MPI_Request recv_request;
841        MPI_Status recv_status;
842        MPI_Irecv(recvbuf, 9, MPI_DOUBLE, 0, 10, inter_comm, &recv_request);
843        MPI_Wait(&recv_request, &recv_status);
844        for(int i=0; i<9; i++)
845        {
846          printf("recvbuf[%d] = %lf\n", i, recvbuf[i]);
847        }
848      }
849
850      MPI_Barrier(comm);
851      MPI_Barrier(comm);
852
853      if(rank == 0) printf("            \t Test iP2P for intercomm \t OK\n");
854
855
856      MPI_Barrier(comm);
857      MPI_Barrier(comm);
858
859      MPI_Barrier(split_comm);
860      MPI_Comm_free(&split_comm);
861
862
863      MPI_Barrier(comm);
864      MPI_Barrier(comm);
865
866      MPI_Comm inter_comm_dup;
867      MPI_Comm_dup(inter_comm, &inter_comm_dup);
868
869      int inter_comm_dup_size;
870      int inter_comm_dup_remote_size;
871      MPI_Comm_size(inter_comm_dup, &inter_comm_dup_size);
872
873      MPI_Comm_remote_size(inter_comm_dup, &inter_comm_dup_remote_size);
874
875      bool high = inter_comm_dup_size>inter_comm_dup_remote_size;
876
877
878      //printf("rank = %d, high = %d, inter_comm_dup_size = %d, inter_comm_dup_remote_size = %d\n", rank, high, inter_comm_dup_size, inter_comm_dup_remote_size);
879
880      MPI_Comm inter_comm_dup_merged;
881
882      MPI_Intercomm_merge(inter_comm_dup, high, &inter_comm_dup_merged);
883     
884      int inter_comm_dup_merged_rank;
885      MPI_Comm_rank(inter_comm_dup_merged, &inter_comm_dup_merged_rank);
886
887      int inter_comm_dup_merged_size;
888      MPI_Comm_size(inter_comm_dup_merged, &inter_comm_dup_merged_size);
889
890      printf("rank = %d, inter_comm_dup_merged_rank = %d, inter_comm_dup_merged_size = %d\n", rank, inter_comm_dup_merged_rank, inter_comm_dup_merged_size);
891
892      // TEST OF GATHER
893      {
894        int gather_root = 99;
895 
896        if(inter_comm_dup_merged_rank == 0) 
897        {
898          gather_root = rand() % inter_comm_dup_merged_size;
899        }
900 
901        MPI_Bcast(&gather_root, 1, MPI_INT, 0, inter_comm_dup_merged);
902
903        double sendbuf[2];
904        sendbuf[0] = inter_comm_dup_merged_rank * 1.0;
905        sendbuf[1] = inter_comm_dup_merged_size * (-1.0);
906
907        std::vector<double>recvbuf(2*inter_comm_dup_merged_size, 0);
908
909        MPI_Gather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, gather_root, inter_comm_dup_merged);
910
911        bool gather_result = true;
912
913        if(inter_comm_dup_merged_rank == gather_root)
914        {
915          for(int i=0; i<inter_comm_dup_merged_size; i++)
916          {
917            if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + inter_comm_dup_merged_size) > 1.e-10)
918            {
919              gather_result = false;
920              break;
921            } 
922          }
923
924          if(gather_result) printf("root = %d : \t test MPI_Gather for merged comm\t OK \n", gather_root);
925          else              printf("root = %d : \t test MPI_Gather for merged comm\t FAILED\n", gather_root);
926        }
927      }
928
929      // TEST OF ALLREDUCE
930      {
931 
932        int sendbuf[2];
933        sendbuf[0] = inter_comm_dup_merged_rank;
934        sendbuf[1] = -inter_comm_dup_merged_size;
935
936        std::vector<int>recvbuf(2, 0);
937
938        MPI_Op op = MPI_MIN;
939
940        MPI_Allreduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, inter_comm_dup_merged);
941
942
943        int allreduce_test = 1;
944
945     
946        if((op == MPI_SUM && (abs(recvbuf[0]-(inter_comm_dup_merged_size-1)*inter_comm_dup_merged_size/2) > 1.e-10 || abs(recvbuf[1] + inter_comm_dup_merged_size * inter_comm_dup_merged_size) > 1.e-10) ) ||
947           (op == MPI_MAX && (abs(recvbuf[0]-(inter_comm_dup_merged_size-1)) > 1.e-10 || abs(recvbuf[1] + inter_comm_dup_merged_size) > 1.e-10) )               ||
948           (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + inter_comm_dup_merged_size) > 1.e-10) ) )
949        {
950          allreduce_test = 0; printf("%d %d\n", recvbuf[0], recvbuf[1]);
951        } 
952     
953
954        int allreduce_result;
955        MPI_Reduce(&allreduce_test, &allreduce_result, 1, MPI_INT, MPI_MIN, 0, inter_comm_dup_merged);
956
957        if(inter_comm_dup_merged_rank == 0 && allreduce_result)  printf("            \t test MPI_Allreduce for merged comm \t OK\n");
958        if(inter_comm_dup_merged_rank == 0 && !allreduce_result) printf("            \t test MPI_Allreduce for merged comm \t FAILED\n");
959   
960      }
961
962      // TEST OF EXSCAN
963      {
964 
965        std::vector<int>sendbuf(2, inter_comm_dup_merged_rank);
966        std::vector<int>recvbuf(2, -1);
967
968        MPI_Op op = MPI_SUM;
969           
970
971        MPI_Exscan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, inter_comm_dup_merged);
972
973        int exscan_test = 1;
974
975        if(inter_comm_dup_merged_rank >0)
976        if((op == MPI_SUM && (abs(recvbuf[0]-inter_comm_dup_merged_rank*(inter_comm_dup_merged_rank-1)/2) > 1.e-10 || abs(recvbuf[1]-inter_comm_dup_merged_rank*(inter_comm_dup_merged_rank-1)/2) > 1.e-10) ) ||
977           (op == MPI_MIN && (abs(recvbuf[0] ) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
978           (op == MPI_MAX && (abs(recvbuf[0] - inter_comm_dup_merged_rank+1) > 1.e-10 || abs(recvbuf[1] - inter_comm_dup_merged_rank+1) > 1.e-10) ) )
979        {
980          exscan_test = 0; 
981        }
982
983        //printf(" ID=%d : sendbuf = (%d, %d), recvbuf = (%d, %d), exscan_test = %d \n", inter_comm_dup_merged_rank, sendbuf[0], sendbuf[1], recvbuf[0], recvbuf[1], exscan_test);
984       
985        int exscan_result;
986        MPI_Reduce(&exscan_test, &exscan_result, 1, MPI_INT, MPI_MIN, 0, inter_comm_dup_merged);
987   
988        if(inter_comm_dup_merged_rank == 0 && exscan_result)  printf("            \t test MPI_Exscan for merged comm \t OK\n");
989        if(inter_comm_dup_merged_rank == 0 && !exscan_result) printf("            \t test MPI_Exscan for merged comm \t FAILED %d\n", exscan_result);
990      }
991
992      // TEST OF SCATTERV
993      {
994
995        int scatterv_root;
996 
997        if(inter_comm_dup_merged_rank == 0) scatterv_root = rand() % inter_comm_dup_merged_size;
998 
999        MPI_Bcast(&scatterv_root, 1, MPI_INT, 0, inter_comm_dup_merged);
1000 
1001        std::vector<int>sendbuf(2*inter_comm_dup_merged_size, inter_comm_dup_merged_rank);
1002        std::vector<int>recvbuf(2, -1);
1003        std::vector<int>sendcounts(inter_comm_dup_merged_size, 2);
1004        std::vector<int>displs(inter_comm_dup_merged_size, 0);
1005
1006        for(int i=0; i<inter_comm_dup_merged_size; i++) displs[i] = 2*(inter_comm_dup_merged_size-1-i);
1007
1008        if(inter_comm_dup_merged_rank == scatterv_root) 
1009        {
1010          for(int i=0; i<inter_comm_dup_merged_size; i++) 
1011          {
1012            sendbuf[2*i] = i;
1013            sendbuf[2*i+1] = inter_comm_dup_merged_size;
1014          }
1015        }
1016
1017
1018        MPI_Scatterv(sendbuf.data(), sendcounts.data(), displs.data(), MPI_INT, recvbuf.data(), 2, MPI_INT, scatterv_root, inter_comm_dup_merged);
1019
1020        //printf("ID = %d : %d %d\n", inter_comm_dup_merged_rank, recvbuf[0], recvbuf[1]);
1021
1022        int scatterv_test = 1;
1023
1024     
1025        if( abs(recvbuf[0]-(inter_comm_dup_merged_size-1-inter_comm_dup_merged_rank)) > 1.e-10 || abs(recvbuf[1]-inter_comm_dup_merged_size) > 1.e-10 )
1026        {
1027          scatterv_test = 0; printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], inter_comm_dup_merged_rank);
1028        } 
1029   
1030
1031        int scatterv_result;
1032        MPI_Reduce(&scatterv_test, &scatterv_result, 1, MPI_INT, MPI_MIN, scatterv_root, inter_comm_dup_merged);
1033
1034        if(inter_comm_dup_merged_rank == scatterv_root && scatterv_result)  printf("root = %d : \t test MPI_Scatterv for merged comm \t OK\n", scatterv_root);
1035        if(inter_comm_dup_merged_rank == scatterv_root && !scatterv_result) printf("root = %d : \t test MPI_Scatterv for merged comm \t FAILED\n", scatterv_root);
1036      }
1037
1038
1039
1040
1041      MPI_Barrier(comm);
1042      MPI_Barrier(comm);
1043
1044
1045      MPI_Comm_free(&inter_comm_dup);
1046
1047      MPI_Barrier(comm);
1048      MPI_Barrier(comm);
1049
1050
1051      MPI_Comm_free(&inter_comm_dup_merged);
1052
1053
1054
1055      MPI_Barrier(comm);
1056      MPI_Barrier(comm);
1057
1058      MPI_Barrier(inter_comm);
1059      MPI_Comm_free(&inter_comm);
1060     
1061
1062      /*
1063      MPI_Barrier(comm);
1064      if(rank == 0) printf("\tMPI_Intercomm_create OK\n");
1065      MPI_Barrier(comm);
1066
1067   
1068
1069      int high=color;
1070      MPI_Comm intra_comm;
1071      MPI_Intercomm_merge(inter_comm, high, &intra_comm);
1072   
1073      int intra_rank, intra_size;
1074      MPI_Comm_rank(intra_comm, &intra_rank);
1075      MPI_Comm_size(intra_comm, &intra_size);
1076
1077      MPI_Barrier(comm);
1078      if(rank == 0) printf("\tMPI_Intercomm_merge OK\n");
1079      MPI_Barrier(comm);
1080   
1081   
1082
1083      //check_test_gatherv(comm);
1084     
1085      MPI_Barrier(comm);
1086      MPI_Comm_free(&inter_comm);
1087      */
1088    }
1089 
1090    MPI_Barrier(comm);
1091    MPI_Comm_free(&comm);
1092  }
1093
1094/*
1095  int num_threads;
1096  if(mpi_rank < mpi_size-2)
1097  {
1098    printf("Proc %d is client\n", mpi_rank);
1099    num_threads = 2;//+mpi_rank;
1100  }
1101  else
1102  {
1103    printf("Proc %d is server\n", mpi_rank);
1104    num_threads = 1;
1105  }
1106 
1107  omp_set_num_threads(num_threads);
1108
1109  #pragma omp parallel default(shared) firstprivate(num_threads)
1110  {
1111    int num_ep = num_threads;
1112    MPI_Info info;
1113
1114    //printf("omp_get_thread_num() = %d, omp_get_num_threads() = %d, num_threads = %d\n", omp_get_thread_num(), omp_get_num_threads(), num_threads);
1115    MPI_Comm *ep_comm;
1116    #pragma omp master
1117    {
1118      MPI_Comm *ep_comm;
1119      MPI_Comm_create_endpoints(MPI_COMM_WORLD->mpi_comm, num_ep, info, ep_comm);
1120      passage = ep_comm; 
1121    }
1122
1123    #pragma omp barrier
1124
1125
1126    MPI_Comm comm; // this should act as EP_COMM_WORLD
1127    comm = passage[omp_get_thread_num()];
1128   
1129    int rank, size;
1130    MPI_Comm_rank(comm, &rank);
1131    MPI_Comm_size(comm, &size);
1132   
1133   
1134
1135    bool isClient = false;
1136    bool isServer = false;
1137
1138    if(omp_get_num_threads()>1) isClient = true;
1139    else isServer = true;
1140
1141    printf("mpi_rank = %d, ep_rank = %d, isClient = %d\n", mpi_rank, rank, isClient);
1142
1143    MPI_Win ep_win;
1144    MPI_Aint buf_size=1;
1145    int buf = rank;
1146    int local_buf = rank;
1147    int result_buf = -1;
1148    MPI_Win_create(&buf, buf_size, sizeof(int), info, comm, &ep_win);
1149    MPI_Barrier(comm);
1150   
1151    // MPI_Win_fence(MPI_MODE_NOPRECEDE, ep_win);
1152
1153    MPI_Barrier(comm);
1154    sleep(0.2);
1155    MPI_Barrier(comm);
1156
1157    MPI_Win_fence(0, ep_win);
1158
1159    if(rank == 0)
1160    {
1161      local_buf = 99;
1162      MPI_Aint displs=0;
1163      MPI_Put(&local_buf, 1, MPI_INT, size-1, displs, 1, MPI_INT, ep_win);
1164    }
1165
1166    if(rank == size-2)
1167    {
1168      MPI_Aint displs(0);
1169      MPI_Get(&local_buf, 1, MPI_INT, 2, displs, 1, MPI_INT, ep_win);
1170    }
1171
1172    MPI_Win_fence(0, ep_win);
1173
1174    if(rank == 1)
1175    {
1176      MPI_Aint displs=0;
1177      MPI_Accumulate(&local_buf, 1, MPI_INT, size-1, displs, 1, MPI_INT, MPI_REPLACE, ep_win);
1178    }
1179
1180
1181    MPI_Barrier(comm);
1182
1183    MPI_Win_fence(0, ep_win);
1184
1185    if(rank == 2)
1186    {
1187      MPI_Aint displs = 0;
1188      MPI_Get_accumulate(&local_buf, 1, MPI_INT, &result_buf,
1189                         1, MPI_INT, size-2, displs,
1190                         1, MPI_INT, MPI_SUM, ep_win);
1191    }
1192   
1193    MPI_Win_fence(0, ep_win);
1194   
1195    if(rank == 6)
1196    {
1197      MPI_Aint displs = 0;
1198      MPI_Fetch_and_op(&local_buf, &result_buf, MPI_INT, size-1, displs,
1199                       MPI_SUM, ep_win);
1200    }
1201
1202    MPI_Win_fence(0, ep_win);
1203
1204    if(rank == 7)
1205    {
1206      MPI_Aint displs = 0;
1207      MPI_Compare_and_swap(&local_buf, &buf, &result_buf, MPI_INT, size-1, displs, ep_win);
1208    }
1209
1210    MPI_Win_fence(0, ep_win);
1211
1212    //::MPI_Compare_and_swap(origin_addr, compare_addr, result_addr, to_mpi_type(datatype), target_mpi_rank, to_mpi_aint(target_disp), to_mpi_win(win.server_win[target_local_rank]));
1213
1214    MPI_Win ep_win_allocated;
1215    int* baseptr = new int[10];
1216    MPI_Aint base_size = 4;
1217
1218    MPI_Win_allocate (base_size, sizeof(int), info, comm, baseptr, &ep_win_allocated);
1219
1220    MPI_Win_fence(0, ep_win_allocated);
1221
1222    MPI_Win_free(&ep_win_allocated);
1223    delete[] baseptr;
1224
1225    MPI_Win_free(&ep_win);
1226    printf("rank = %d, buf = %d, local_buf = %d, result_buf = %d\n", rank, buf, local_buf, result_buf);
1227   
1228    MPI_Comm_free(&comm);
1229
1230  }
1231*/
1232  MPI_Finalize();
1233
1234}
Note: See TracBrowser for help on using the repository browser.