source: XIOS/dev/branch_openmp/extern/ep_dev/main.cpp @ 1517

Last change on this file since 1517 was 1517, checked in by yushan, 3 years ago

save dev

File size: 27.9 KB
Line 
1#include "ep_lib.hpp"
2
3#include <stdio.h>
4#include <assert.h>
5#include "ep_declaration.hpp"
6#include <omp.h>
7#include <time.h>       /* time */
8#include <ctime>
9#include <ratio>
10#include <chrono>
11
12using namespace ep_lib;
13using namespace std::chrono;
14
15
16
17int main(int argc, char **argv)
18{
19  srand (time(NULL));
20
21  //printf("Testing ep_lib\n");
22  int required=3, provided;
23
24  MPI_Init_thread(&argc, &argv, required, &provided);
25
26  assert(required==provided);
27
28  int mpi_rank;
29  int mpi_size;
30
31  MPI_Comm_rank(MPI_COMM_WORLD, &mpi_rank);
32  MPI_Comm_size(MPI_COMM_WORLD, &mpi_size);
33 
34 
35
36  #pragma omp parallel default(shared)
37  {
38    MPI_Comm_rank(MPI_COMM_WORLD , &mpi_rank);
39
40    int num_ep = omp_get_num_threads();
41    MPI_Info info;
42
43    //printf("mpi_rank = %d, thread_num = %d\n", mpi_rank, omp_get_thread_num());
44
45    MPI_Comm *ep_comm;
46    #pragma omp master
47    {
48      MPI_Comm *ep_comm;
49      MPI_Comm_create_endpoints(MPI_COMM_WORLD->mpi_comm, num_ep, info, ep_comm);
50      passage = ep_comm; 
51    }
52
53    #pragma omp barrier
54
55
56    MPI_Comm comm_for_dup; // this should act as EP_COMM_WORLD
57    MPI_Comm comm; // this should act as EP_COMM_WORLD
58       
59    comm_for_dup = passage[omp_get_thread_num()];
60    MPI_Comm_dup(comm_for_dup, &comm);
61   
62    MPI_Comm_free(&comm_for_dup);
63   
64    MPI_Barrier(comm);
65
66    int rank, size;
67    MPI_Comm_rank(comm, &rank);
68    MPI_Comm_size(comm, &size);
69   
70    if(rank == 0) printf("           \t test MPI_Comm_dup \t OK \n");
71
72    // TIMING SYCHRONIZATION
73    {
74      int n=100000;
75
76      MPI_Barrier(comm);
77     
78      high_resolution_clock::time_point t1 = high_resolution_clock::now();
79
80      for(int i=0; i<n; i++)
81        MPI_Barrier_local(comm);
82
83      high_resolution_clock::time_point t2 = high_resolution_clock::now();
84      duration<double> time_span = duration_cast<duration<double>>(t2 - t1);
85      #pragma omp master
86      std::cout << "proc "<< mpi_rank <<" ep_barrier "<< time_span.count() << " seconds."<<std::endl;
87
88      t1 = high_resolution_clock::now();
89
90      for(int i=0; i<n; i++)
91      {
92        #pragma omp barrier
93      }
94
95      t2 = high_resolution_clock::now();
96      time_span = duration_cast<duration<double>>(t2 - t1);
97     
98      #pragma omp master
99      std::cout << "proc "<< mpi_rank <<" omp_barrier "<< time_span.count() << " seconds."<<std::endl;
100
101      t1 = high_resolution_clock::now();
102
103      for(int i=0; i<n; i++)
104      {
105        //#pragma omp barrier
106      }
107
108      t2 = high_resolution_clock::now();
109      time_span = duration_cast<duration<double>>(t2 - t1);
110     
111      MPI_Barrier(comm);
112
113      #pragma omp master
114      std::cout << "proc "<< mpi_rank <<" for_loop "<< time_span.count() << " seconds."<<std::endl;
115    }// END TIMING SYCHRONIZATION
116   
117    // TEST of p2p blocking communication
118    {
119      MPI_Barrier(comm);
120      MPI_Barrier(comm);
121     
122      MPI_Comm equal_comm = comm;
123     
124     
125     
126     
127      double sendbuf[10];
128      double recvbuf[20];
129     
130      int sender;
131      if(rank == 0) sender = rand() % size;
132      MPI_Bcast(&sender, 1, MPI_INT, 0, comm);
133     
134      int receiver = sender;
135      if(rank == 0) while(sender == receiver) {receiver = rand() % size;}
136      MPI_Bcast(&receiver, 1, MPI_INT, 0, comm);
137     
138     
139     
140     
141      if(rank == sender)
142      {
143        for(int i=0; i<10; i++) sendbuf[i] = 99.99;
144        MPI_Send(sendbuf, 10, MPI_DOUBLE, receiver, 99, equal_comm);
145        for(int i=0; i<10; i++) sendbuf[i] = -99.99;
146        MPI_Send(sendbuf, 10, MPI_DOUBLE, receiver, 11, equal_comm);
147      }
148     
149      if(rank == receiver)
150      {
151        MPI_Status status;
152        for(int i=0; i<20; i++) recvbuf[i] = 0.0;
153        MPI_Recv(&recvbuf[10], 10, MPI_DOUBLE, sender, 99, comm, &status);
154        MPI_Recv(recvbuf, 10, MPI_DOUBLE, sender, 11, comm, &status);
155       
156        for(int i=0; i<20; i++) std::cout << "recvbuf["<< i <<"] = "<< recvbuf[i] << std::endl;
157        printf("sender = %d\nreceiver = %d \tTEST of p2p blocking communication\tOK\n", sender, receiver);
158      }
159     
160      MPI_Barrier(comm);
161   
162    }//TEST of p2p blocking communication
163   
164    // TEST of p2p non-blocking communication
165    {
166      MPI_Barrier(comm);
167      MPI_Barrier(comm);
168     
169      double sendbuf[10];
170      double recvbuf[20];
171     
172      int sender;
173      if(rank == 0) sender = rand() % size;
174      MPI_Bcast(&sender, 1, MPI_INT, 0, comm);
175     
176      int receiver = sender;
177      if(rank == 0) receiver = rand() % size;
178      MPI_Bcast(&receiver, 1, MPI_INT, 0, comm);
179
180
181           
182      MPI_Request request[2];
183     
184      if(rank == sender)
185      {
186       
187        for(int i=0; i<10; i++) sendbuf[i] = 99.99;
188        MPI_Isend(sendbuf, 10, MPI_DOUBLE, receiver, 99, comm, &request[0]);
189        for(int i=0; i<10; i++) sendbuf[i] = -99.99;
190        MPI_Isend(sendbuf, 10, MPI_DOUBLE, receiver, 11, comm, &request[1]);
191      }
192     
193      if(rank == receiver)
194      {
195        for(int i=0; i<20; i++) recvbuf[i] = 0.0;
196        MPI_Irecv(&recvbuf[10], 10, MPI_DOUBLE, sender, 11, comm, &request[0]);
197        MPI_Irecv(recvbuf, 10, MPI_DOUBLE, sender, 99, comm, &request[1]);
198      }
199     
200      MPI_Barrier(comm);
201     
202      if(rank == receiver || rank == sender)
203      {
204        MPI_Status status[2];
205        MPI_Waitall(2, request, status);
206      }
207     
208      MPI_Barrier(comm);
209     
210      if(rank == receiver)
211      {
212        for(int i=0; i<20; i++) std::cout << "recvbuf["<< i <<"] = "<< recvbuf[i] << std::endl;
213        printf("sender = %d\nreceiver = %d \tTEST of p2p non-blocking communication\tOK\n", sender, receiver);
214      }
215   
216    }//TEST of p2p blocking communication
217   
218
219    // TEST OF BCAST FROM A RANDOM ROOT
220    {
221      int bcast_root;
222 
223      if(rank == 0) bcast_root = rand() % size;
224 
225      MPI_Bcast(&bcast_root, 1, MPI_INT, 0, comm);
226 
227      int sendbuf[2];
228
229      sendbuf[0] = rank;
230      sendbuf[1] = size;
231 
232      MPI_Bcast(sendbuf, 2, MPI_INT, bcast_root, comm);
233 
234      int bcast_test = 0;
235      if(sendbuf[0] ==  bcast_root && sendbuf[1] == size) bcast_test = 1;
236 
237      int bcast_result;
238 
239      MPI_Reduce(&bcast_test, &bcast_result, 1, MPI_INT, MPI_MIN, bcast_root, comm);
240 
241      if(bcast_result && rank == bcast_root)  printf("root = %d : \t test MPI_Bcast \t OK\n", bcast_root);
242      if(!bcast_result && rank == bcast_root) printf("root = %d : \t test MPI_Bcast \t FAILED %d\n", bcast_root, bcast_result);
243    }
244
245    MPI_Barrier(comm);
246
247    // TEST OF GATHER FROM A RAMDOM ROOT
248    {
249      int gather_root;
250 
251      if(rank == 0) gather_root = rand() % size;
252 
253      MPI_Bcast(&gather_root, 1, MPI_INT, 0, comm);
254
255      double sendbuf[2];
256      sendbuf[0] = rank * 1.0;
257      sendbuf[1] = size * (-1.0);
258
259      std::vector<double>recvbuf(2*size, 0);
260
261      MPI_Gather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, gather_root, comm);
262
263      bool gather_result = true;
264
265      if(rank == gather_root)
266      {
267        for(int i=0; i<size; i++)
268        {
269          if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
270          {
271            gather_result = false;
272            break;
273          } 
274        }
275
276        if(gather_result) printf("root = %d : \t test MPI_Gather \t OK \n", gather_root);
277        else              printf("root = %d : \t test MPI_Gather \t FAILED\n", gather_root);
278      }
279    }
280
281    MPI_Barrier(comm);
282
283    // TEST OF GATHERV FROM A RAMDOM ROOT
284    {
285      int gatherv_root;
286 
287      if(rank == 0) gatherv_root = rand() % size;
288 
289      MPI_Bcast(&gatherv_root, 1, MPI_INT, 0, comm);
290
291      int sendbuf[2];
292      sendbuf[0] = rank;
293      sendbuf[1] = -size;
294
295      std::vector<int>recvbuf(2*size, 0);
296
297      std::vector<int>recvcounts(size, 2);
298      std::vector<int>displs(size, 0);
299
300      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
301
302      MPI_Gatherv(sendbuf, 2, MPI_INT, recvbuf.data(), recvcounts.data(), displs.data(), MPI_INT, gatherv_root, comm);
303
304      bool gatherv_result = true;
305
306      if(rank == gatherv_root)
307      {
308        for(int i=0; i<size; i++)
309        {
310          if(abs(recvbuf[2*i] - (size-1-i)) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
311          {
312            gatherv_result = false; printf("%lf %lf root = %d, i = %d\n", recvbuf[2*i], recvbuf[2*i+1], gatherv_root, i);
313            break;
314          } 
315        }
316       
317        //for(int i=0; i<size*2; i++) printf("%lf\t", recvbuf[i]);
318        //printf("\n");
319
320        if(gatherv_result) printf("root = %d : \t test MPI_Gatherv \t OK\n", gatherv_root);
321        else               printf("root = %d : \t test MPI_Gatherv \t FAILED\n", gatherv_root);
322      }
323    }
324
325    MPI_Barrier(comm);
326
327    // TEST OF ALLGATHER
328    {
329      double sendbuf[2];
330      sendbuf[0] = rank * 1.0;
331      sendbuf[1] = size * (-1.0);
332
333      std::vector<double>recvbuf(2*size, 0);
334
335      MPI_Allgather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, comm);
336
337      int allgather_test = 1;
338
339      for(int i=0; i<size; i++)
340      {
341        if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
342        {
343          allgather_test = 0;
344          break;
345        } 
346      }
347
348      int allgather_result;
349      MPI_Reduce(&allgather_test, &allgather_result, 1, MPI_INT, MPI_MIN, 0, comm);
350
351      if(rank == 0 && allgather_result)  printf("           \t test MPI_Allgather \t OK \n");
352      if(rank == 0 && !allgather_result) printf("           \t test MPI_Allgather \t OK \n");
353     
354    }
355
356    MPI_Barrier(comm);
357
358    // TEST OF ALLGATHERV
359    {
360      int sendbuf[2];
361      sendbuf[0] = rank;
362      sendbuf[1] = -size;
363
364      std::vector<int>recvbuf(2*size, 0);
365
366      std::vector<int>recvcounts(size, 2);
367      std::vector<int>displs(size, 0);
368
369      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
370
371      MPI_Allgatherv(sendbuf, 2, MPI_INT, recvbuf.data(), recvcounts.data(), displs.data(), MPI_INT, comm);
372
373      int allgatherv_test = 1;
374
375     
376     
377      for(int i=0; i<size; i++)
378      {
379        if(abs(recvbuf[2*i] - (size-1-i)) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
380        {
381          allgatherv_test = 0; printf("ID : %d %d %d %d %d\n", rank, recvbuf[2*i], recvbuf[2*i+1] , recvbuf[2*i] - (size-1-i), recvbuf[2*i+1] + size);
382          break;
383        } 
384      }
385       
386     
387      int allgatherv_result;
388      MPI_Reduce(&allgatherv_test, &allgatherv_result, 1, MPI_INT, MPI_MIN, 0, comm);
389
390      if(rank == 0 && allgatherv_result)  printf("           \t test MPI_Allgatherv \t OK \n");
391      if(rank == 0 && !allgatherv_result) printf("           \t test MPI_Allgatherv \t FAILED %d\n", allgatherv_result);
392     
393    }
394
395    MPI_Barrier(comm);
396
397    // TEST OF REDUCE
398    {
399      int reduce_root;
400 
401      if(rank == 0) reduce_root = rand() % size;
402 
403      MPI_Bcast(&reduce_root, 1, MPI_INT, 0, comm);
404
405      int sendbuf[2];
406      sendbuf[0] = rank;
407      sendbuf[1] = -size;
408
409      std::vector<int>recvbuf(2, 0);
410
411      MPI_Op op = MPI_MIN;
412
413      MPI_Reduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, reduce_root, comm);
414
415
416      bool reduce_result = true;
417
418      if(rank == reduce_root)
419      {
420        for(int i=0; i<2; i++)
421        {
422          if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[1] + size * size) > 1.e-10) ) ||
423             (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) )               ||
424             (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) ) )
425          {
426            reduce_result = false; printf("%d %d root = %d, i = %d\n", recvbuf[0], recvbuf[1], reduce_root, i);
427            break;
428          } 
429        }
430      }
431
432      if(rank == reduce_root && reduce_result)  printf("root = %d : \t test MPI_Reduce \t OK\n", reduce_root);
433      if(rank == reduce_root && !reduce_result) printf("root = %d : \t test MPI_Reduce \t FAILED\n", reduce_root);
434    }
435   
436
437    MPI_Barrier(comm);
438
439    // TEST OF ALLREDUCE
440    {
441 
442      int sendbuf[2];
443      sendbuf[0] = rank;
444      sendbuf[1] = -size;
445
446      std::vector<int>recvbuf(2, 0);
447
448      MPI_Op op = MPI_MIN;
449
450      MPI_Allreduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, comm);
451
452
453      int allreduce_test = 1;
454
455     
456      if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[1] + size * size) > 1.e-10) ) ||
457         (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) )               ||
458         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) ) )
459      {
460        allreduce_test = 0; printf("%d %d\n", recvbuf[0], recvbuf[1]);
461      } 
462     
463
464      int allreduce_result;
465      MPI_Reduce(&allreduce_test, &allreduce_result, 1, MPI_INT, MPI_MIN, 0, comm);
466
467      if(rank == 0 && allreduce_result)  printf("            \t test MPI_Allreduce \t OK\n");
468      if(rank == 0 && !allreduce_result) printf("            \t test MPI_Allreduce \t FAILED\n");
469    }
470
471
472    MPI_Barrier(comm);
473
474    // TEST OF REDUCE_SCATTER
475    {
476 
477      std::vector<int>sendbuf(2*size, rank);
478      std::vector<int>recvbuf(2, -1);
479      std::vector<int>recvcounts(size, 2);
480
481      MPI_Op op = MPI_MIN;
482
483      MPI_Reduce_scatter(sendbuf.data(), recvbuf.data(), recvcounts.data(), MPI_INT, op, comm);
484
485
486      int reduce_scatter_test = 1;
487
488     
489      if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[0]-(size-1)*size/2) > 1.e-10) ) ||
490         (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1]-(size-1)) > 1.e-10) )               ||
491         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] ) > 1.e-10) ) )
492      {
493        reduce_scatter_test = 0; //printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
494      } 
495   
496
497      int reduce_scatter_result;
498      MPI_Reduce(&reduce_scatter_test, &reduce_scatter_result, 1, MPI_INT, MPI_MIN, 0, comm);
499
500      if(rank == 0 && reduce_scatter_result)  printf("            \t test MPI_Reduce_scatter OK\n");
501      if(rank == 0 && !reduce_scatter_result) printf("            \t test MPI_Reduce_scatter FAILED\n");
502    }
503
504    MPI_Barrier(comm);
505
506    // TEST OF SCATTER
507    {
508
509      int scatter_root;
510 
511      if(rank == 0) scatter_root = rand() % size;
512 
513      MPI_Bcast(&scatter_root, 1, MPI_INT, 0, comm);
514 
515      std::vector<int>sendbuf(2*size, rank);
516      std::vector<int>recvbuf(2, -1);
517      std::vector<int>recvcounts(size, 2);
518
519      if(rank == scatter_root) 
520      {
521        for(int i=0; i<size; i++) 
522        {
523          sendbuf[2*i] = i;
524          sendbuf[2*i+1] = size;
525        }
526        //for(int i=0; i<size*2; i++) printf("%d\t", sendbuf[i]);
527      }
528
529
530      MPI_Scatter(sendbuf.data(), 2, MPI_INT, recvbuf.data(), 2, MPI_INT, scatter_root, comm);
531
532      //printf("ID = %d : %d %d\n", rank, recvbuf[0], recvbuf[1]);
533
534      int scatter_test = 1;
535
536     
537      if( abs(recvbuf[0]-rank) > 1.e-10 || abs(recvbuf[1]-size) > 1.e-10 )
538      {
539        scatter_test = 0; //printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
540      } 
541   
542
543      int scatter_result;
544      MPI_Reduce(&scatter_test, &scatter_result, 1, MPI_INT, MPI_MIN, scatter_root, comm);
545
546      if(rank == scatter_root && scatter_result)  printf("root = %d : \t test MPI_Scatter \t OK\n", scatter_root);
547      if(rank == scatter_root && !scatter_result) printf("root = %d : \t test MPI_Scatter \t FAILED\n", scatter_root);
548    }
549   
550    MPI_Barrier(comm);
551
552    // TEST OF SCATTERV
553    {
554
555      int scatterv_root;
556 
557      if(rank == 0) scatterv_root = rand() % size;
558 
559      MPI_Bcast(&scatterv_root, 1, MPI_INT, 0, comm);
560 
561      std::vector<int>sendbuf(2*size, rank);
562      std::vector<int>recvbuf(2, -1);
563      std::vector<int>sendcounts(size, 2);
564      std::vector<int>displs(size, 0);
565
566      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
567
568      if(rank == scatterv_root) 
569      {
570        for(int i=0; i<size; i++) 
571        {
572          sendbuf[2*i] = i;
573          sendbuf[2*i+1] = size;
574        }
575      }
576
577
578      MPI_Scatterv(sendbuf.data(), sendcounts.data(), displs.data(), MPI_INT, recvbuf.data(), 2, MPI_INT, scatterv_root, comm);
579
580      //printf("ID = %d : %d %d\n", rank, recvbuf[0], recvbuf[1]);
581
582      int scatterv_test = 1;
583
584     
585      if( abs(recvbuf[0]-(size-1-rank)) > 1.e-10 || abs(recvbuf[1]-size) > 1.e-10 )
586      {
587        scatterv_test = 0; printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
588      } 
589   
590
591      int scatterv_result;
592      MPI_Reduce(&scatterv_test, &scatterv_result, 1, MPI_INT, MPI_MIN, scatterv_root, comm);
593
594      if(rank == scatterv_root && scatterv_result)  printf("root = %d : \t test MPI_Scatterv \t OK\n", scatterv_root);
595      if(rank == scatterv_root && !scatterv_result) printf("root = %d : \t test MPI_Scatterv \t FAILED\n", scatterv_root);
596    }
597
598    MPI_Barrier(comm);
599
600    // TEST OF ALLTOALL
601    {
602
603      std::vector<int>sendbuf(size, rank);
604      std::vector<int>recvbuf(size, -1);
605           
606
607      MPI_Alltoall(sendbuf.data(), 1, MPI_INT, recvbuf.data(), 1, MPI_INT, comm);
608
609      int alltoall_result = 1;
610
611     
612      for(int i=0; i<size; i++)
613      if( abs(recvbuf[i]-i) > 1.e-10 )
614      {
615        alltoall_result = 0; printf("%d  id = %d\n", recvbuf[i], rank);
616      } 
617   
618      if(rank == 0 && alltoall_result)  printf("            \t test MPI_Alltoall \t OK\n");
619      if(rank == 0 && !alltoall_result) printf("            \t test MPI_Alltoall \t FAILED\n");
620    }
621
622    // TEST OF SCAN
623    {
624 
625      std::vector<int>sendbuf(2, rank);
626      std::vector<int>recvbuf(2, -1);
627
628      MPI_Op op = MPI_SUM;
629           
630
631      MPI_Scan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, comm);
632
633      int scan_test = 1;
634
635      // printf(" ID=%d : %d  %d \n", rank, recvbuf[0], recvbuf[1]);
636     
637      if((op == MPI_SUM && (abs(recvbuf[0]-rank*(rank+1)/2) > 1.e-10 || abs(recvbuf[1]-rank*(rank+1)/2) > 1.e-10) ) ||
638         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
639         (op == MPI_MAX && (abs(recvbuf[0] - rank) > 1.e-10 || abs(recvbuf[1] - rank) > 1.e-10) ) )
640      {
641        scan_test = 0; //printf("%d  id = %d\n", recvbuf[i], rank);
642      } 
643
644      int scan_result;
645      MPI_Reduce(&scan_test, &scan_result, 1, MPI_INT, MPI_MIN, 0, comm);
646   
647      if(rank == 0 && scan_result)  printf("            \t test MPI_Scan \t\t OK\n");
648      if(rank == 0 && !scan_result) printf("            \t test MPI_Scan \t\t FAILED\n");
649    }
650
651
652    // TEST OF EXSCAN
653    {
654 
655      std::vector<int>sendbuf(2, rank);
656      std::vector<int>recvbuf(2, -1);
657
658      MPI_Op op = MPI_SUM;
659           
660
661      MPI_Exscan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, comm);
662
663      int exscan_test = 1;
664
665      // printf(" ID=%d : %d  %d \n", rank, recvbuf[0], recvbuf[1]);
666     
667      if(rank >0)
668      if((op == MPI_SUM && (abs(recvbuf[0]-rank*(rank-1)/2) > 1.e-10 || abs(recvbuf[1]-rank*(rank-1)/2) > 1.e-10) ) ||
669         (op == MPI_MIN && (abs(recvbuf[0] ) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
670         (op == MPI_MAX && (abs(recvbuf[0] - rank+1) > 1.e-10 || abs(recvbuf[1] - rank+1) > 1.e-10) ) )
671      {
672        exscan_test = 0; //printf("%d  id = %d\n", recvbuf[i], rank);
673      } 
674
675      int exscan_result;
676      MPI_Reduce(&exscan_test, &exscan_result, 1, MPI_INT, MPI_MIN, 0, comm);
677   
678      if(rank == 0 && exscan_result)  printf("            \t test MPI_Exscan \t OK\n");
679      if(rank == 0 && !exscan_result) printf("            \t test MPI_Exscan \t FAILED\n");
680    }
681
682
683
684    // TEST OF COMM_SPLIT
685    {
686
687      MPI_Barrier(comm);
688      int rank, size;
689      MPI_Comm_rank(comm, &rank);
690      MPI_Comm_size(comm, &size);
691   
692      int color = rand()%3;
693      int key = rand()%5;
694     
695      int color2 = rand()%3;
696      int key2 = rand()%5;
697 
698      MPI_Comm split_comm;
699      MPI_Comm_split(comm, color, key, &split_comm);
700
701     
702      MPI_Comm split_comm2;
703      MPI_Comm_split(comm, color2, key2, &split_comm2);
704
705
706   
707      int split_rank, split_size;
708      MPI_Comm_rank(split_comm, &split_rank);
709      MPI_Comm_size(split_comm, &split_size);
710   
711#ifdef _Memory_check   
712      printf("rank = %d, color = %d, key = %d, split_rank = %d, local_rank=%d\n", rank, color, key, split_rank, split_comm->ep_comm_ptr->size_rank_info[1].first);
713#endif
714
715      MPI_Barrier(comm);
716      MPI_Barrier(comm);
717      MPI_Barrier(comm);
718     
719      if(rank == 0) printf("            \t tMPI_Comm_split \t OK\n");
720     
721      MPI_Barrier(comm);
722      MPI_Barrier(comm);
723     
724      int bcast_buf_size=100;
725     
726      std::vector<int> bcast_buf(bcast_buf_size, 0);
727     
728      if(split_rank==0) bcast_buf.assign(bcast_buf_size, (color+1)*split_size);
729     
730      MPI_Bcast(bcast_buf.data(), bcast_buf_size, MPI_INT, 0, split_comm);
731     
732      int bcast_test = 0;
733      for(int i=0; i<bcast_buf_size; i++)
734      {
735        if(bcast_buf[i] != (color+1)*split_size)
736          bcast_test = 1;
737      }
738 
739      int bcast_result;
740 
741      MPI_Reduce(&bcast_test, &bcast_result, 1, MPI_INT, MPI_SUM, 0, comm);
742 
743      MPI_Barrier(split_comm);
744      MPI_Comm_free(&split_comm);
745     
746      MPI_Barrier(split_comm2);
747      MPI_Comm_free(&split_comm2);
748     
749     
750      if(bcast_result == 0 && rank == 0)  printf("            \t test MPI_Bcast for split comm\t OK\n");
751      if(bcast_result != 0 && rank == 0)  printf("            \t test MPI_Bcast for split comm\t FAILED %d\n", bcast_result);
752     
753    }
754   
755    MPI_Barrier(comm);
756    MPI_Barrier(comm);
757    MPI_Barrier(comm);
758   
759    // TESE OF INTERCOMM_CREATE
760    {
761      MPI_Barrier(comm);
762     
763      int rank, size;
764      MPI_Comm_rank(comm, &rank);
765      MPI_Comm_size(comm, &size);
766
767      int config = 1;
768      if(config=1)
769      {
770        assert(size == 16 && omp_get_num_threads()==4);
771      }
772     
773      int tab_color[16] = {2, 2, 2, 1, 2, 1, 1, 2, 2, 2, 2, 2, 2, 1, 1, 1}; // used for config 1
774      int tab_key[16]   = {2, 1, 4, 1, 0, 4, 3, 3, 4, 3, 4, 4, 4, 0, 0, 2}; // used for config 1
775
776      int color = tab_color[rank];
777      int key = tab_key[rank];
778     
779 
780      MPI_Comm split_comm;
781      MPI_Comm_split(comm, color, key, &split_comm);
782
783   
784      int split_rank, split_size;
785      MPI_Comm_rank(split_comm, &split_rank);
786      MPI_Comm_size(split_comm, &split_size);
787
788
789     
790
791      MPI_Barrier(comm);
792      MPI_Barrier(comm);
793     
794      if(rank == 0) printf("            \t MPI_Comm_split \t OK\n");
795     
796      MPI_Barrier(comm);
797      MPI_Barrier(comm);
798     
799     
800     
801     
802     
803      int local_leader = 0;
804      int remote_leader = color==2? 13: 4; // used for config 1
805
806      MPI_Comm peer_comm = comm;
807
808      MPI_Comm inter_comm;
809      MPI_Intercomm_create(split_comm, local_leader, peer_comm, remote_leader, 99, &inter_comm);
810
811      int inter_rank, inter_size, remote_size;
812      MPI_Comm_rank(inter_comm, &inter_rank);
813      MPI_Comm_size(inter_comm, &inter_size);
814      MPI_Comm_remote_size(inter_comm, &remote_size);
815     
816     
817      MPI_Barrier(comm);
818      MPI_Barrier(comm);
819
820      if(rank == 0) printf("            \t MPI_Intercomm_create \t OK\n");
821
822      printf("rank = %d, split_rank = %d, split_size = %d, inter_rank=%d, inter_size=%d, remote_size=%d\n", rank, split_rank, split_size, inter_rank, inter_size, remote_size);
823
824     
825      MPI_Barrier(comm);
826      MPI_Barrier(comm);
827
828      if(color==2 && split_rank==1)
829      {
830        double sendbuf[9]={1.1, 2.2, 3.3, 4.4, 5.5, 6.6, 7.7, 8.8, 9.9};
831        MPI_Request send_request;
832        MPI_Status send_status;
833        MPI_Isend(sendbuf, 9, MPI_DOUBLE, 5, 10, inter_comm, &send_request);
834        MPI_Wait(&send_request, &send_status);
835      }
836
837      if(color==1 && split_rank==5)
838      {
839        double recvbuf[9];
840        MPI_Request recv_request;
841        MPI_Status recv_status;
842        MPI_Irecv(recvbuf, 9, MPI_DOUBLE, 1, 10, inter_comm, &recv_request);
843        MPI_Wait(&recv_request, &recv_status);
844        for(int i=0; i<9; i++)
845        {
846          printf("recvbuf[%d] = %lf\n", i, recvbuf[i]);
847        }
848      }
849
850      MPI_Barrier(comm);
851      MPI_Barrier(comm);
852
853      if(rank == 0) printf("            \t Test iP2P for intercomm \t OK\n");
854
855
856      MPI_Barrier(comm);
857      MPI_Barrier(comm);
858
859      MPI_Barrier(split_comm);
860      MPI_Comm_free(&split_comm);
861
862
863      MPI_Barrier(comm);
864      MPI_Barrier(comm);
865
866      MPI_Comm inter_comm_dup;
867      MPI_Comm_dup(inter_comm, &inter_comm_dup);
868
869      MPI_Barrier(comm);
870      MPI_Barrier(comm);
871
872
873      MPI_Comm_free(&inter_comm_dup);
874
875
876      MPI_Barrier(comm);
877      MPI_Barrier(comm);
878
879      MPI_Barrier(inter_comm);
880      MPI_Comm_free(&inter_comm);
881     
882
883      /*
884      MPI_Barrier(comm);
885      if(rank == 0) printf("\tMPI_Intercomm_create OK\n");
886      MPI_Barrier(comm);
887
888   
889
890      int high=color;
891      MPI_Comm intra_comm;
892      MPI_Intercomm_merge(inter_comm, high, &intra_comm);
893   
894      int intra_rank, intra_size;
895      MPI_Comm_rank(intra_comm, &intra_rank);
896      MPI_Comm_size(intra_comm, &intra_size);
897
898      MPI_Barrier(comm);
899      if(rank == 0) printf("\tMPI_Intercomm_merge OK\n");
900      MPI_Barrier(comm);
901   
902   
903
904      //check_test_gatherv(comm);
905     
906      MPI_Barrier(comm);
907      MPI_Comm_free(&inter_comm);
908      */
909    }
910 
911    MPI_Barrier(comm);
912    MPI_Comm_free(&comm);
913  }
914
915/*
916  int num_threads;
917  if(mpi_rank < mpi_size-2)
918  {
919    printf("Proc %d is client\n", mpi_rank);
920    num_threads = 2;//+mpi_rank;
921  }
922  else
923  {
924    printf("Proc %d is server\n", mpi_rank);
925    num_threads = 1;
926  }
927 
928  omp_set_num_threads(num_threads);
929
930  #pragma omp parallel default(shared) firstprivate(num_threads)
931  {
932    int num_ep = num_threads;
933    MPI_Info info;
934
935    //printf("omp_get_thread_num() = %d, omp_get_num_threads() = %d, num_threads = %d\n", omp_get_thread_num(), omp_get_num_threads(), num_threads);
936    MPI_Comm *ep_comm;
937    #pragma omp master
938    {
939      MPI_Comm *ep_comm;
940      MPI_Comm_create_endpoints(MPI_COMM_WORLD->mpi_comm, num_ep, info, ep_comm);
941      passage = ep_comm; 
942    }
943
944    #pragma omp barrier
945
946
947    MPI_Comm comm; // this should act as EP_COMM_WORLD
948    comm = passage[omp_get_thread_num()];
949   
950    int rank, size;
951    MPI_Comm_rank(comm, &rank);
952    MPI_Comm_size(comm, &size);
953   
954   
955
956    bool isClient = false;
957    bool isServer = false;
958
959    if(omp_get_num_threads()>1) isClient = true;
960    else isServer = true;
961
962    printf("mpi_rank = %d, ep_rank = %d, isClient = %d\n", mpi_rank, rank, isClient);
963
964    MPI_Win ep_win;
965    MPI_Aint buf_size=1;
966    int buf = rank;
967    int local_buf = rank;
968    int result_buf = -1;
969    MPI_Win_create(&buf, buf_size, sizeof(int), info, comm, &ep_win);
970    MPI_Barrier(comm);
971   
972    // MPI_Win_fence(MPI_MODE_NOPRECEDE, ep_win);
973
974    MPI_Barrier(comm);
975    sleep(0.2);
976    MPI_Barrier(comm);
977
978    MPI_Win_fence(0, ep_win);
979
980    if(rank == 0)
981    {
982      local_buf = 99;
983      MPI_Aint displs=0;
984      MPI_Put(&local_buf, 1, MPI_INT, size-1, displs, 1, MPI_INT, ep_win);
985    }
986
987    if(rank == size-2)
988    {
989      MPI_Aint displs(0);
990      MPI_Get(&local_buf, 1, MPI_INT, 2, displs, 1, MPI_INT, ep_win);
991    }
992
993    MPI_Win_fence(0, ep_win);
994
995    if(rank == 1)
996    {
997      MPI_Aint displs=0;
998      MPI_Accumulate(&local_buf, 1, MPI_INT, size-1, displs, 1, MPI_INT, MPI_REPLACE, ep_win);
999    }
1000
1001
1002    MPI_Barrier(comm);
1003
1004    MPI_Win_fence(0, ep_win);
1005
1006    if(rank == 2)
1007    {
1008      MPI_Aint displs = 0;
1009      MPI_Get_accumulate(&local_buf, 1, MPI_INT, &result_buf,
1010                         1, MPI_INT, size-2, displs,
1011                         1, MPI_INT, MPI_SUM, ep_win);
1012    }
1013   
1014    MPI_Win_fence(0, ep_win);
1015   
1016    if(rank == 6)
1017    {
1018      MPI_Aint displs = 0;
1019      MPI_Fetch_and_op(&local_buf, &result_buf, MPI_INT, size-1, displs,
1020                       MPI_SUM, ep_win);
1021    }
1022
1023    MPI_Win_fence(0, ep_win);
1024
1025    if(rank == 7)
1026    {
1027      MPI_Aint displs = 0;
1028      MPI_Compare_and_swap(&local_buf, &buf, &result_buf, MPI_INT, size-1, displs, ep_win);
1029    }
1030
1031    MPI_Win_fence(0, ep_win);
1032
1033    //::MPI_Compare_and_swap(origin_addr, compare_addr, result_addr, to_mpi_type(datatype), target_mpi_rank, to_mpi_aint(target_disp), to_mpi_win(win.server_win[target_local_rank]));
1034
1035    MPI_Win ep_win_allocated;
1036    int* baseptr = new int[10];
1037    MPI_Aint base_size = 4;
1038
1039    MPI_Win_allocate (base_size, sizeof(int), info, comm, baseptr, &ep_win_allocated);
1040
1041    MPI_Win_fence(0, ep_win_allocated);
1042
1043    MPI_Win_free(&ep_win_allocated);
1044    delete[] baseptr;
1045
1046    MPI_Win_free(&ep_win);
1047    printf("rank = %d, buf = %d, local_buf = %d, result_buf = %d\n", rank, buf, local_buf, result_buf);
1048   
1049    MPI_Comm_free(&comm);
1050
1051  }
1052*/
1053  MPI_Finalize();
1054
1055}
Note: See TracBrowser for help on using the repository browser.