source: XIOS/dev/branch_openmp/extern/ep_dev/main.cpp @ 1522

Last change on this file since 1522 was 1522, checked in by yushan, 6 years ago

Test_client 6*8 clients 2 servers OK. TO DO : intercomm->intracomm, comm_free_intercomm

File size: 36.2 KB
Line 
1#include "ep_lib.hpp"
2
3#include <stdio.h>
4#include <assert.h>
5#include "ep_declaration.hpp"
6#include <omp.h>
7#include <time.h>       /* time */
8#include <ctime>
9#include <ratio>
10#include <chrono>
11
12using namespace ep_lib;
13using namespace std::chrono;
14
15
16
17int main(int argc, char **argv)
18{
19  srand (time(NULL));
20
21  //printf("Testing ep_lib\n");
22  int required=3, provided;
23
24  MPI_Init_thread(&argc, &argv, required, &provided);
25
26  assert(required==provided);
27
28  int mpi_rank;
29  int mpi_size;
30
31  MPI_Comm_rank(MPI_COMM_WORLD, &mpi_rank);
32  MPI_Comm_size(MPI_COMM_WORLD, &mpi_size);
33 
34 
35
36  #pragma omp parallel default(shared)
37  {
38    MPI_Comm_rank(MPI_COMM_WORLD , &mpi_rank);
39
40    int num_ep = omp_get_num_threads();
41    MPI_Info info;
42
43    //printf("mpi_rank = %d, thread_num = %d\n", mpi_rank, omp_get_thread_num());
44
45    MPI_Comm *ep_comm;
46    #pragma omp master
47    {
48      MPI_Comm *ep_comm;
49      MPI_Comm_create_endpoints(MPI_COMM_WORLD->mpi_comm, num_ep, info, ep_comm);
50      passage = ep_comm; 
51    }
52
53    #pragma omp barrier
54
55
56    MPI_Comm comm_for_dup; // this should act as EP_COMM_WORLD
57    MPI_Comm comm; // this should act as EP_COMM_WORLD
58       
59    comm_for_dup = passage[omp_get_thread_num()];
60    MPI_Comm_dup(comm_for_dup, &comm);
61   
62    MPI_Comm_free(&comm_for_dup);
63   
64    MPI_Barrier(comm);
65
66    int rank, size;
67    MPI_Comm_rank(comm, &rank);
68    MPI_Comm_size(comm, &size);
69   
70    if(rank == 0) printf("           \t test MPI_Comm_dup \t OK \n");
71
72    // TIMING SYCHRONIZATION
73    {
74      int n=100000;
75
76      MPI_Barrier(comm);
77     
78      high_resolution_clock::time_point t1 = high_resolution_clock::now();
79
80      for(int i=0; i<n; i++)
81        MPI_Barrier_local(comm);
82
83      high_resolution_clock::time_point t2 = high_resolution_clock::now();
84      duration<double> time_span = duration_cast<duration<double>>(t2 - t1);
85      #pragma omp master
86      std::cout << "proc "<< mpi_rank <<" ep_barrier "<< time_span.count() << " seconds."<<std::endl;
87
88      t1 = high_resolution_clock::now();
89
90      for(int i=0; i<n; i++)
91      {
92        #pragma omp barrier
93      }
94
95      t2 = high_resolution_clock::now();
96      time_span = duration_cast<duration<double>>(t2 - t1);
97     
98      #pragma omp master
99      std::cout << "proc "<< mpi_rank <<" omp_barrier "<< time_span.count() << " seconds."<<std::endl;
100
101      t1 = high_resolution_clock::now();
102
103      for(int i=0; i<n; i++)
104      {
105        //#pragma omp barrier
106      }
107
108      t2 = high_resolution_clock::now();
109      time_span = duration_cast<duration<double>>(t2 - t1);
110     
111      MPI_Barrier(comm);
112
113      #pragma omp master
114      std::cout << "proc "<< mpi_rank <<" for_loop "<< time_span.count() << " seconds."<<std::endl;
115    }// END TIMING SYCHRONIZATION
116   
117    // TEST of p2p blocking communication
118    {
119      MPI_Barrier(comm);
120      MPI_Barrier(comm);
121     
122      MPI_Comm equal_comm = comm;
123     
124     
125     
126     
127      double sendbuf[10];
128      double recvbuf[20];
129     
130      int sender;
131      if(rank == 0) sender = rand() % size;
132      MPI_Bcast(&sender, 1, MPI_INT, 0, comm);
133     
134      int receiver = sender;
135      if(rank == 0) while(sender == receiver) {receiver = rand() % size;}
136      MPI_Bcast(&receiver, 1, MPI_INT, 0, comm);
137     
138     
139     
140     
141      if(rank == sender)
142      {
143        for(int i=0; i<10; i++) sendbuf[i] = 99.99;
144        MPI_Send(sendbuf, 10, MPI_DOUBLE, receiver, 99, equal_comm);
145        for(int i=0; i<10; i++) sendbuf[i] = -99.99;
146        MPI_Send(sendbuf, 10, MPI_DOUBLE, receiver, 11, equal_comm);
147      }
148     
149      if(rank == receiver)
150      {
151        MPI_Status status;
152        for(int i=0; i<20; i++) recvbuf[i] = 0.0;
153        MPI_Recv(&recvbuf[10], 10, MPI_DOUBLE, sender, 99, comm, &status);
154        MPI_Recv(recvbuf, 10, MPI_DOUBLE, sender, 11, comm, &status);
155       
156        for(int i=0; i<20; i++) std::cout << "recvbuf["<< i <<"] = "<< recvbuf[i] << std::endl;
157        printf("sender = %d\nreceiver = %d \tTEST of p2p blocking communication\tOK\n", sender, receiver);
158      }
159     
160      MPI_Barrier(comm);
161   
162    }//TEST of p2p blocking communication
163   
164    // TEST of p2p non-blocking communication
165    {
166      MPI_Barrier(comm);
167      MPI_Barrier(comm);
168     
169      double sendbuf[10];
170      double recvbuf[20];
171     
172      int sender;
173      if(rank == 0) sender = rand() % size;
174      MPI_Bcast(&sender, 1, MPI_INT, 0, comm);
175     
176      int receiver = sender;
177      if(rank == 0) receiver = rand() % size;
178      MPI_Bcast(&receiver, 1, MPI_INT, 0, comm);
179
180
181           
182      MPI_Request request[2];
183     
184      if(rank == sender)
185      {
186       
187        for(int i=0; i<10; i++) sendbuf[i] = 99.99;
188        MPI_Isend(sendbuf, 10, MPI_DOUBLE, receiver, 99, comm, &request[0]);
189        for(int i=0; i<10; i++) sendbuf[i] = -99.99;
190        MPI_Isend(sendbuf, 10, MPI_DOUBLE, receiver, 11, comm, &request[1]);
191      }
192     
193      if(rank == receiver)
194      {
195        for(int i=0; i<20; i++) recvbuf[i] = 0.0;
196        MPI_Irecv(&recvbuf[10], 10, MPI_DOUBLE, sender, 11, comm, &request[0]);
197        MPI_Irecv(recvbuf, 10, MPI_DOUBLE, sender, 99, comm, &request[1]);
198      }
199     
200      MPI_Barrier(comm);
201     
202      if(rank == receiver || rank == sender)
203      {
204        MPI_Status status[2];
205        MPI_Waitall(2, request, status);
206      }
207     
208      MPI_Barrier(comm);
209     
210      if(rank == receiver)
211      {
212        for(int i=0; i<20; i++) std::cout << "recvbuf["<< i <<"] = "<< recvbuf[i] << std::endl;
213        printf("sender = %d\nreceiver = %d \tTEST of p2p non-blocking communication\tOK\n", sender, receiver);
214      }
215   
216    }//TEST of p2p blocking communication
217   
218
219    // TEST OF BCAST FROM A RANDOM ROOT
220    {
221      int bcast_root;
222 
223      if(rank == 0) bcast_root = rand() % size;
224 
225      MPI_Bcast(&bcast_root, 1, MPI_INT, 0, comm);
226 
227      int sendbuf[2];
228
229      sendbuf[0] = rank;
230      sendbuf[1] = size;
231 
232      MPI_Bcast(sendbuf, 2, MPI_INT, bcast_root, comm);
233 
234      int bcast_test = 0;
235      if(sendbuf[0] ==  bcast_root && sendbuf[1] == size) bcast_test = 1;
236 
237      int bcast_result;
238 
239      MPI_Reduce(&bcast_test, &bcast_result, 1, MPI_INT, MPI_MIN, bcast_root, comm);
240 
241      if(bcast_result && rank == bcast_root)  printf("root = %d : \t test MPI_Bcast \t OK\n", bcast_root);
242      if(!bcast_result && rank == bcast_root) printf("root = %d : \t test MPI_Bcast \t FAILED %d\n", bcast_root, bcast_result);
243    }
244
245    MPI_Barrier(comm);
246
247    // TEST OF GATHER FROM A RAMDOM ROOT
248    {
249      int gather_root;
250 
251      if(rank == 0) gather_root = rand() % size;
252 
253      MPI_Bcast(&gather_root, 1, MPI_INT, 0, comm);
254
255      double sendbuf[2];
256      sendbuf[0] = rank * 1.0;
257      sendbuf[1] = size * (-1.0);
258
259      std::vector<double>recvbuf(2*size, 0);
260
261      MPI_Gather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, gather_root, comm);
262
263      bool gather_result = true;
264
265      if(rank == gather_root)
266      {
267        for(int i=0; i<size; i++)
268        {
269          if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
270          {
271            gather_result = false;
272            break;
273          } 
274        }
275
276        if(gather_result) printf("root = %d : \t test MPI_Gather \t OK \n", gather_root);
277        else              printf("root = %d : \t test MPI_Gather \t FAILED\n", gather_root);
278      }
279    }
280
281    MPI_Barrier(comm);
282
283    // TEST OF GATHERV FROM A RAMDOM ROOT
284    {
285      int gatherv_root;
286 
287      if(rank == 0) gatherv_root = rand() % size;
288 
289      MPI_Bcast(&gatherv_root, 1, MPI_INT, 0, comm);
290
291      int sendbuf[2];
292      sendbuf[0] = rank;
293      sendbuf[1] = -size;
294
295      std::vector<int>recvbuf(2*size, 0);
296
297      std::vector<int>recvcounts(size, 2);
298      std::vector<int>displs(size, 0);
299
300      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
301
302      MPI_Gatherv(sendbuf, 2, MPI_INT, recvbuf.data(), recvcounts.data(), displs.data(), MPI_INT, gatherv_root, comm);
303
304      bool gatherv_result = true;
305
306      if(rank == gatherv_root)
307      {
308        for(int i=0; i<size; i++)
309        {
310          if(abs(recvbuf[2*i] - (size-1-i)) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
311          {
312            gatherv_result = false; printf("%lf %lf root = %d, i = %d\n", recvbuf[2*i], recvbuf[2*i+1], gatherv_root, i);
313            break;
314          } 
315        }
316       
317        //for(int i=0; i<size*2; i++) printf("%lf\t", recvbuf[i]);
318        //printf("\n");
319
320        if(gatherv_result) printf("root = %d : \t test MPI_Gatherv \t OK\n", gatherv_root);
321        else               printf("root = %d : \t test MPI_Gatherv \t FAILED\n", gatherv_root);
322      }
323    }
324
325    MPI_Barrier(comm);
326
327    // TEST OF ALLGATHER
328    {
329      double sendbuf[2];
330      sendbuf[0] = rank * 1.0;
331      sendbuf[1] = size * (-1.0);
332
333      std::vector<double>recvbuf(2*size, 0);
334
335      MPI_Allgather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, comm);
336
337      int allgather_test = 1;
338
339      for(int i=0; i<size; i++)
340      {
341        if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
342        {
343          allgather_test = 0;
344          break;
345        } 
346      }
347
348      int allgather_result;
349      MPI_Reduce(&allgather_test, &allgather_result, 1, MPI_INT, MPI_MIN, 0, comm);
350
351      if(rank == 0 && allgather_result)  printf("           \t test MPI_Allgather \t OK \n");
352      if(rank == 0 && !allgather_result) printf("           \t test MPI_Allgather \t OK \n");
353     
354    }
355
356    MPI_Barrier(comm);
357
358    // TEST OF ALLGATHERV
359    {
360      int sendbuf[2];
361      sendbuf[0] = rank;
362      sendbuf[1] = -size;
363
364      std::vector<int>recvbuf(2*size, 0);
365
366      std::vector<int>recvcounts(size, 2);
367      std::vector<int>displs(size, 0);
368
369      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
370
371      MPI_Allgatherv(sendbuf, 2, MPI_INT, recvbuf.data(), recvcounts.data(), displs.data(), MPI_INT, comm);
372
373      int allgatherv_test = 1;
374
375     
376     
377      for(int i=0; i<size; i++)
378      {
379        if(abs(recvbuf[2*i] - (size-1-i)) > 1.e-10 || abs(recvbuf[2*i+1] + size) > 1.e-10)
380        {
381          allgatherv_test = 0; printf("ID : %d %d %d %d %d\n", rank, recvbuf[2*i], recvbuf[2*i+1] , recvbuf[2*i] - (size-1-i), recvbuf[2*i+1] + size);
382          break;
383        } 
384      }
385       
386     
387      int allgatherv_result;
388      MPI_Reduce(&allgatherv_test, &allgatherv_result, 1, MPI_INT, MPI_MIN, 0, comm);
389
390      if(rank == 0 && allgatherv_result)  printf("           \t test MPI_Allgatherv \t OK \n");
391      if(rank == 0 && !allgatherv_result) printf("           \t test MPI_Allgatherv \t FAILED %d\n", allgatherv_result);
392     
393    }
394
395    MPI_Barrier(comm);
396
397    // TEST OF REDUCE
398    {
399      int reduce_root;
400 
401      if(rank == 0) reduce_root = rand() % size;
402 
403      MPI_Bcast(&reduce_root, 1, MPI_INT, 0, comm);
404
405      int sendbuf[2];
406      sendbuf[0] = rank;
407      sendbuf[1] = -size;
408
409      std::vector<int>recvbuf(2, 0);
410
411      MPI_Op op = MPI_MIN;
412
413      MPI_Reduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, reduce_root, comm);
414
415
416      bool reduce_result = true;
417
418      if(rank == reduce_root)
419      {
420        for(int i=0; i<2; i++)
421        {
422          if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[1] + size * size) > 1.e-10) ) ||
423             (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) )               ||
424             (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) ) )
425          {
426            reduce_result = false; printf("%d %d root = %d, i = %d\n", recvbuf[0], recvbuf[1], reduce_root, i);
427            break;
428          } 
429        }
430      }
431
432      if(rank == reduce_root && reduce_result)  printf("root = %d : \t test MPI_Reduce \t OK\n", reduce_root);
433      if(rank == reduce_root && !reduce_result) printf("root = %d : \t test MPI_Reduce \t FAILED\n", reduce_root);
434    }
435   
436
437    MPI_Barrier(comm);
438
439    // TEST OF ALLREDUCE
440    {
441 
442      int sendbuf[2];
443      sendbuf[0] = rank;
444      sendbuf[1] = -size;
445
446      std::vector<int>recvbuf(2, 0);
447
448      MPI_Op op = MPI_MIN;
449
450      MPI_Allreduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, comm);
451
452
453      int allreduce_test = 1;
454
455     
456      if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[1] + size * size) > 1.e-10) ) ||
457         (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) )               ||
458         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + size) > 1.e-10) ) )
459      {
460        allreduce_test = 0; printf("%d %d\n", recvbuf[0], recvbuf[1]);
461      } 
462     
463
464      int allreduce_result;
465      MPI_Reduce(&allreduce_test, &allreduce_result, 1, MPI_INT, MPI_MIN, 0, comm);
466
467      if(rank == 0 && allreduce_result)  printf("            \t test MPI_Allreduce \t OK\n");
468      if(rank == 0 && !allreduce_result) printf("            \t test MPI_Allreduce \t FAILED\n");
469    }
470
471
472    MPI_Barrier(comm);
473
474    // TEST OF REDUCE_SCATTER
475    {
476 
477      std::vector<int>sendbuf(2*size, rank);
478      std::vector<int>recvbuf(2, -1);
479      std::vector<int>recvcounts(size, 2);
480
481      MPI_Op op = MPI_MIN;
482
483      MPI_Reduce_scatter(sendbuf.data(), recvbuf.data(), recvcounts.data(), MPI_INT, op, comm);
484
485
486      int reduce_scatter_test = 1;
487
488     
489      if((op == MPI_SUM && (abs(recvbuf[0]-(size-1)*size/2) > 1.e-10 || abs(recvbuf[0]-(size-1)*size/2) > 1.e-10) ) ||
490         (op == MPI_MAX && (abs(recvbuf[0]-(size-1)) > 1.e-10 || abs(recvbuf[1]-(size-1)) > 1.e-10) )               ||
491         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] ) > 1.e-10) ) )
492      {
493        reduce_scatter_test = 0; //printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
494      } 
495   
496
497      int reduce_scatter_result;
498      MPI_Reduce(&reduce_scatter_test, &reduce_scatter_result, 1, MPI_INT, MPI_MIN, 0, comm);
499
500      if(rank == 0 && reduce_scatter_result)  printf("            \t test MPI_Reduce_scatter OK\n");
501      if(rank == 0 && !reduce_scatter_result) printf("            \t test MPI_Reduce_scatter FAILED\n");
502    }
503
504    MPI_Barrier(comm);
505
506    // TEST OF SCATTER
507    {
508
509      int scatter_root;
510 
511      if(rank == 0) scatter_root = rand() % size;
512 
513      MPI_Bcast(&scatter_root, 1, MPI_INT, 0, comm);
514 
515      std::vector<int>sendbuf(2*size, rank);
516      std::vector<int>recvbuf(2, -1);
517      std::vector<int>recvcounts(size, 2);
518
519      if(rank == scatter_root) 
520      {
521        for(int i=0; i<size; i++) 
522        {
523          sendbuf[2*i] = i;
524          sendbuf[2*i+1] = size;
525        }
526        //for(int i=0; i<size*2; i++) printf("%d\t", sendbuf[i]);
527      }
528
529
530      MPI_Scatter(sendbuf.data(), 2, MPI_INT, recvbuf.data(), 2, MPI_INT, scatter_root, comm);
531
532      //printf("ID = %d : %d %d\n", rank, recvbuf[0], recvbuf[1]);
533
534      int scatter_test = 1;
535
536     
537      if( abs(recvbuf[0]-rank) > 1.e-10 || abs(recvbuf[1]-size) > 1.e-10 )
538      {
539        scatter_test = 0; //printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
540      } 
541   
542
543      int scatter_result;
544      MPI_Reduce(&scatter_test, &scatter_result, 1, MPI_INT, MPI_MIN, scatter_root, comm);
545
546      if(rank == scatter_root && scatter_result)  printf("root = %d : \t test MPI_Scatter \t OK\n", scatter_root);
547      if(rank == scatter_root && !scatter_result) printf("root = %d : \t test MPI_Scatter \t FAILED\n", scatter_root);
548    }
549   
550    MPI_Barrier(comm);
551
552    // TEST OF SCATTERV
553    {
554
555      int scatterv_root;
556 
557      if(rank == 0) scatterv_root = rand() % size;
558 
559      MPI_Bcast(&scatterv_root, 1, MPI_INT, 0, comm);
560 
561      std::vector<int>sendbuf(2*size, rank);
562      std::vector<int>recvbuf(2, -1);
563      std::vector<int>sendcounts(size, 2);
564      std::vector<int>displs(size, 0);
565
566      for(int i=0; i<size; i++) displs[i] = 2*(size-1-i);
567
568      if(rank == scatterv_root) 
569      {
570        for(int i=0; i<size; i++) 
571        {
572          sendbuf[2*i] = i;
573          sendbuf[2*i+1] = size;
574        }
575      }
576
577
578      MPI_Scatterv(sendbuf.data(), sendcounts.data(), displs.data(), MPI_INT, recvbuf.data(), 2, MPI_INT, scatterv_root, comm);
579
580      //printf("ID = %d : %d %d\n", rank, recvbuf[0], recvbuf[1]);
581
582      int scatterv_test = 1;
583
584     
585      if( abs(recvbuf[0]-(size-1-rank)) > 1.e-10 || abs(recvbuf[1]-size) > 1.e-10 )
586      {
587        scatterv_test = 0; printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], rank);
588      } 
589   
590
591      int scatterv_result;
592      MPI_Reduce(&scatterv_test, &scatterv_result, 1, MPI_INT, MPI_MIN, scatterv_root, comm);
593
594      if(rank == scatterv_root && scatterv_result)  printf("root = %d : \t test MPI_Scatterv \t OK\n", scatterv_root);
595      if(rank == scatterv_root && !scatterv_result) printf("root = %d : \t test MPI_Scatterv \t FAILED\n", scatterv_root);
596    }
597
598    MPI_Barrier(comm);
599
600    // TEST OF ALLTOALL
601    {
602
603      std::vector<int>sendbuf(size, rank);
604      std::vector<int>recvbuf(size, -1);
605           
606
607      MPI_Alltoall(sendbuf.data(), 1, MPI_INT, recvbuf.data(), 1, MPI_INT, comm);
608
609      int alltoall_result = 1;
610
611     
612      for(int i=0; i<size; i++)
613      if( abs(recvbuf[i]-i) > 1.e-10 )
614      {
615        alltoall_result = 0; printf("%d  id = %d\n", recvbuf[i], rank);
616      } 
617   
618      if(rank == 0 && alltoall_result)  printf("            \t test MPI_Alltoall \t OK\n");
619      if(rank == 0 && !alltoall_result) printf("            \t test MPI_Alltoall \t FAILED\n");
620    }
621
622    // TEST OF SCAN
623    {
624 
625      std::vector<int>sendbuf(2, rank);
626      std::vector<int>recvbuf(2, -1);
627
628      MPI_Op op = MPI_SUM;
629           
630
631      MPI_Scan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, comm);
632
633      int scan_test = 1;
634
635      // printf(" ID=%d : %d  %d \n", rank, recvbuf[0], recvbuf[1]);
636     
637      if((op == MPI_SUM && (abs(recvbuf[0]-rank*(rank+1)/2) > 1.e-10 || abs(recvbuf[1]-rank*(rank+1)/2) > 1.e-10) ) ||
638         (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
639         (op == MPI_MAX && (abs(recvbuf[0] - rank) > 1.e-10 || abs(recvbuf[1] - rank) > 1.e-10) ) )
640      {
641        scan_test = 0; //printf("%d  id = %d\n", recvbuf[i], rank);
642      } 
643
644      int scan_result;
645      MPI_Reduce(&scan_test, &scan_result, 1, MPI_INT, MPI_MIN, 0, comm);
646   
647      if(rank == 0 && scan_result)  printf("            \t test MPI_Scan \t\t OK\n");
648      if(rank == 0 && !scan_result) printf("            \t test MPI_Scan \t\t FAILED\n");
649    }
650
651
652    // TEST OF EXSCAN
653    {
654 
655      std::vector<int>sendbuf(2, rank);
656      std::vector<int>recvbuf(2, -1);
657
658      MPI_Op op = MPI_SUM;
659           
660
661      MPI_Exscan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, comm);
662
663      int exscan_test = 1;
664
665      // printf(" ID=%d : %d  %d \n", rank, recvbuf[0], recvbuf[1]);
666     
667      if(rank >0)
668      if((op == MPI_SUM && (abs(recvbuf[0]-rank*(rank-1)/2) > 1.e-10 || abs(recvbuf[1]-rank*(rank-1)/2) > 1.e-10) ) ||
669         (op == MPI_MIN && (abs(recvbuf[0] ) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  || 
670         (op == MPI_MAX && (abs(recvbuf[0] - rank+1) > 1.e-10 || abs(recvbuf[1] - rank+1) > 1.e-10) ) )
671      {
672        exscan_test = 0; //printf("%d  id = %d\n", recvbuf[i], rank);
673      } 
674
675      int exscan_result;
676      MPI_Reduce(&exscan_test, &exscan_result, 1, MPI_INT, MPI_MIN, 0, comm);
677   
678      if(rank == 0 && exscan_result)  printf("            \t test MPI_Exscan \t OK\n");
679      if(rank == 0 && !exscan_result) printf("            \t test MPI_Exscan \t FAILED\n");
680    }
681
682
683
684    // TEST OF COMM_SPLIT
685    {
686
687      MPI_Barrier(comm);
688      int rank, size;
689      MPI_Comm_rank(comm, &rank);
690      MPI_Comm_size(comm, &size);
691   
692      int color = rand()%3;
693      int key = rand()%5;
694     
695      int color2 = rand()%3;
696      int key2 = rand()%5;
697 
698      MPI_Comm split_comm;
699      MPI_Comm_split(comm, color, key, &split_comm);
700
701     
702      MPI_Comm split_comm2;
703      MPI_Comm_split(comm, color2, key2, &split_comm2);
704
705
706   
707      int split_rank, split_size;
708      MPI_Comm_rank(split_comm, &split_rank);
709      MPI_Comm_size(split_comm, &split_size);
710   
711#ifdef _Memory_check   
712      printf("rank = %d, color = %d, key = %d, split_rank = %d, local_rank=%d\n", rank, color, key, split_rank, split_comm->ep_comm_ptr->size_rank_info[1].first);
713#endif
714
715      MPI_Barrier(comm);
716      MPI_Barrier(comm);
717      MPI_Barrier(comm);
718     
719      if(rank == 0) printf("            \t tMPI_Comm_split \t OK\n");
720     
721      MPI_Barrier(comm);
722      MPI_Barrier(comm);
723     
724      int bcast_buf_size=100;
725     
726      std::vector<int> bcast_buf(bcast_buf_size, 0);
727     
728      if(split_rank==0) bcast_buf.assign(bcast_buf_size, (color+1)*split_size);
729     
730      MPI_Bcast(bcast_buf.data(), bcast_buf_size, MPI_INT, 0, split_comm);
731     
732      int bcast_test = 0;
733      for(int i=0; i<bcast_buf_size; i++)
734      {
735        if(bcast_buf[i] != (color+1)*split_size)
736          bcast_test = 1;
737      }
738 
739      int bcast_result;
740 
741      MPI_Reduce(&bcast_test, &bcast_result, 1, MPI_INT, MPI_SUM, 0, comm);
742 
743      MPI_Barrier(split_comm);
744      MPI_Comm_free(&split_comm);
745     
746      MPI_Barrier(split_comm2);
747      MPI_Comm_free(&split_comm2);
748     
749     
750      if(bcast_result == 0 && rank == 0)  printf("            \t test MPI_Bcast for split comm\t OK\n");
751      if(bcast_result != 0 && rank == 0)  printf("            \t test MPI_Bcast for split comm\t FAILED %d\n", bcast_result);
752     
753    }
754   
755    MPI_Barrier(comm);
756    MPI_Barrier(comm);
757    MPI_Barrier(comm);
758   
759    // TESE OF INTERCOMM_CREATE
760    {
761      MPI_Barrier(comm);
762     
763      int rank, size;
764      MPI_Comm_rank(comm, &rank);
765      MPI_Comm_size(comm, &size);
766
767      int config = 1;
768      if(config=1)
769      {
770        assert(size == 16 && omp_get_num_threads()==4);
771      }
772     
773      int tab_color[16] = {2, 2, 2, 1, 2, 1, 1, 2, 2, 2, 2, 2, 2, 1, 1, 1}; // used for config 1
774      int tab_key[16]   = {2, 1, 4, 1, 0, 4, 3, 3, 4, 3, 4, 4, 4, 0, 0, 2}; // used for config 1
775
776      int color = tab_color[rank];
777      int key = tab_key[rank];
778     
779 
780      MPI_Comm split_comm;
781      MPI_Comm_split(comm, color, key, &split_comm);
782
783   
784      int split_rank, split_size;
785      MPI_Comm_rank(split_comm, &split_rank);
786      MPI_Comm_size(split_comm, &split_size);
787
788
789     
790
791      MPI_Barrier(comm);
792      MPI_Barrier(comm);
793     
794      if(rank == 0) printf("            \t MPI_Comm_split \t OK\n");
795     
796      MPI_Barrier(comm);
797      MPI_Barrier(comm);
798     
799     
800     
801     
802     
803      int local_leader = 0;
804      int remote_leader = color==2? 13: 4; // used for config 1
805
806      MPI_Comm peer_comm = comm;
807
808      MPI_Comm inter_comm;
809      MPI_Intercomm_create(split_comm, local_leader, peer_comm, remote_leader, 99, &inter_comm);
810
811      int inter_rank, inter_size, remote_size;
812      MPI_Comm_rank(inter_comm, &inter_rank);
813      MPI_Comm_size(inter_comm, &inter_size);
814      MPI_Comm_remote_size(inter_comm, &remote_size);
815     
816     
817      MPI_Barrier(comm);
818      MPI_Barrier(comm);
819
820      if(rank == 0) printf("            \t MPI_Intercomm_create \t OK\n");
821
822      printf("rank = %d, split_rank = %d, split_size = %d, inter_rank=%d, inter_size=%d, remote_size=%d\n", rank, split_rank, split_size, inter_rank, inter_size, remote_size);
823
824     
825      MPI_Barrier(comm);
826      MPI_Barrier(comm);
827
828      if(color==2 && split_rank==0)
829      {
830        double sendbuf[9]={1.1, 2.2, 3.3, 4.4, 5.5, 6.6, 7.7, 8.8, 9.9};
831        MPI_Request send_request;
832        MPI_Status send_status;
833        MPI_Isend(sendbuf, 9, MPI_DOUBLE, 0, 10, inter_comm, &send_request);
834        MPI_Wait(&send_request, &send_status);
835      }
836
837      if(color==1 && split_rank==0)
838      {
839        double recvbuf[9];
840        MPI_Request recv_request;
841        MPI_Status recv_status;
842        MPI_Irecv(recvbuf, 9, MPI_DOUBLE, 0, 10, inter_comm, &recv_request);
843        MPI_Wait(&recv_request, &recv_status);
844        for(int i=0; i<9; i++)
845        {
846          printf("recvbuf[%d] = %lf\n", i, recvbuf[i]);
847        }
848      }
849
850      MPI_Barrier(comm);
851      MPI_Barrier(comm);
852
853      if(rank == 0) printf("            \t Test iP2P for intercomm \t OK\n");
854     
855     
856
857
858      MPI_Barrier(comm);
859      MPI_Barrier(comm);
860
861      MPI_Barrier(split_comm);
862      MPI_Comm_free(&split_comm);
863
864
865      MPI_Barrier(comm);
866      MPI_Barrier(comm);
867
868      MPI_Comm inter_comm_dup;
869      MPI_Comm_dup(inter_comm, &inter_comm_dup);
870
871      int inter_comm_dup_size;
872      int inter_comm_dup_remote_size;
873      MPI_Comm_size(inter_comm_dup, &inter_comm_dup_size);
874
875      MPI_Comm_remote_size(inter_comm_dup, &inter_comm_dup_remote_size);
876
877      bool high = inter_comm_dup_size>inter_comm_dup_remote_size;
878
879
880      //printf("rank = %d, high = %d, inter_comm_dup_size = %d, inter_comm_dup_remote_size = %d\n", rank, high, inter_comm_dup_size, inter_comm_dup_remote_size);
881
882      MPI_Comm inter_comm_dup_merged;
883
884      MPI_Intercomm_merge(inter_comm_dup, high, &inter_comm_dup_merged);
885     
886      int inter_comm_dup_merged_rank;
887      MPI_Comm_rank(inter_comm_dup_merged, &inter_comm_dup_merged_rank);
888
889      int inter_comm_dup_merged_size;
890      MPI_Comm_size(inter_comm_dup_merged, &inter_comm_dup_merged_size);
891
892      //printf("rank = %d, inter_comm_dup_merged_rank = %d, inter_comm_dup_merged_size = %d\n", rank, inter_comm_dup_merged_rank, inter_comm_dup_merged_size);
893     
894      // TEST OF TESTALL
895     
896        int merged_size, merged_rank;
897        MPI_Comm_rank(inter_comm_dup_merged, &merged_rank);
898        MPI_Comm_size(inter_comm_dup_merged, &merged_size);
899       
900        int left = merged_rank>0? merged_rank-1 : merged_size-1;
901        int right = (merged_rank+1) % merged_size;
902       
903        //printf("rank = %d, left = %d, right = %d\n", merged_rank, left, right);
904       
905        int N=10000;
906        int *left_buf = new int[N];
907        int *right_buf = new int[N];
908               
909        for(int i=0; i<N; i++)
910        {
911          right_buf[i] = merged_rank*100000+i;
912        }
913       
914        MPI_Request request[2];
915        MPI_Status status[2];
916       
917        MPI_Irecv(left_buf, N, MPI_INT, left, 0, inter_comm_dup_merged, &request[0]);
918        MPI_Isend(right_buf, N, MPI_INT, right, 0, inter_comm_dup_merged, &request[1]);
919       
920       
921        int flag;
922        MPI_Testall(2, request, &flag, status);
923     
924        printf("rank = %d, flag = %d\n", merged_rank, flag);
925       
926        while(!flag) MPI_Testall(2, request, &flag, status);
927        //if(!flag)  MPI_Waitall(2, request, status);
928       
929        int recv_count;
930        MPI_Get_count(&status[0], MPI_INT, &recv_count);
931       
932        MPI_Barrier(inter_comm_dup_merged);
933       
934        printf("rank = %d, recv_count = %d, left_buf[5-10] = %d\t%d\t%d\t%d\t%d\t%d\n", merged_rank, recv_count, left_buf[5], left_buf[6], left_buf[7], left_buf[8], left_buf[9], left_buf[10]);
935                       
936        delete[] left_buf;
937        delete[] right_buf;
938     
939     
940
941      // TEST OF GATHER
942      {
943        int gather_root = 99;
944 
945        if(inter_comm_dup_merged_rank == 0) 
946        {
947          gather_root = rand() % inter_comm_dup_merged_size;
948        }
949 
950        MPI_Bcast(&gather_root, 1, MPI_INT, 0, inter_comm_dup_merged);
951
952        double sendbuf[2];
953        sendbuf[0] = inter_comm_dup_merged_rank * 1.0;
954        sendbuf[1] = inter_comm_dup_merged_size * (-1.0);
955
956        std::vector<double>recvbuf(2*inter_comm_dup_merged_size, 0);
957
958        MPI_Gather(sendbuf, 2, MPI_DOUBLE, recvbuf.data(), 2, MPI_DOUBLE, gather_root, inter_comm_dup_merged);
959
960        bool gather_result = true;
961
962        if(inter_comm_dup_merged_rank == gather_root)
963        {
964          for(int i=0; i<inter_comm_dup_merged_size; i++)
965          {
966            if(abs(recvbuf[2*i] - i) > 1.e-10 || abs(recvbuf[2*i+1] + inter_comm_dup_merged_size) > 1.e-10)
967            {
968              gather_result = false;
969              break;
970            } 
971          }
972
973          if(gather_result) printf("root = %d : \t test MPI_Gather for merged comm\t OK \n", gather_root);
974          else              printf("root = %d : \t test MPI_Gather for merged comm\t FAILED\n", gather_root);
975        }
976      }
977
978      // TEST OF ALLREDUCE
979      {
980 
981        int sendbuf[2];
982        sendbuf[0] = inter_comm_dup_merged_rank;
983        sendbuf[1] = -inter_comm_dup_merged_size;
984
985        std::vector<int>recvbuf(2, 0);
986
987        MPI_Op op = MPI_MIN;
988
989        MPI_Allreduce(sendbuf, recvbuf.data(), 2, MPI_INT, op, inter_comm_dup_merged);
990
991
992        int allreduce_test = 1;
993
994     
995        if((op == MPI_SUM && (abs(recvbuf[0]-(inter_comm_dup_merged_size-1)*inter_comm_dup_merged_size/2) > 1.e-10 || abs(recvbuf[1] + inter_comm_dup_merged_size * inter_comm_dup_merged_size) > 1.e-10) ) ||
996           (op == MPI_MAX && (abs(recvbuf[0]-(inter_comm_dup_merged_size-1)) > 1.e-10 || abs(recvbuf[1] + inter_comm_dup_merged_size) > 1.e-10) )               ||
997           (op == MPI_MIN && (abs(recvbuf[0]) > 1.e-10 || abs(recvbuf[1] + inter_comm_dup_merged_size) > 1.e-10) ) )
998        {
999          allreduce_test = 0; printf("%d %d\n", recvbuf[0], recvbuf[1]);
1000        } 
1001     
1002
1003        int allreduce_result;
1004        MPI_Reduce(&allreduce_test, &allreduce_result, 1, MPI_INT, MPI_MIN, 0, inter_comm_dup_merged);
1005
1006        if(inter_comm_dup_merged_rank == 0 && allreduce_result)  printf("            \t test MPI_Allreduce for merged comm \t OK\n");
1007        if(inter_comm_dup_merged_rank == 0 && !allreduce_result) printf("            \t test MPI_Allreduce for merged comm \t FAILED\n");
1008   
1009      }
1010
1011      // TEST OF EXSCAN
1012      /*{
1013 
1014        std::vector<int>sendbuf(2, inter_comm_dup_merged_rank);
1015        std::vector<int>recvbuf(2, -1);
1016
1017        MPI_Op op = MPI_SUM;
1018           
1019
1020        MPI_Exscan(sendbuf.data(), recvbuf.data(), 2, MPI_INT, op, inter_comm_dup_merged);
1021
1022        int exscan_test = 1;
1023
1024        if(inter_comm_dup_merged_rank >0)
1025        if((op == MPI_SUM && (abs(recvbuf[0]-inter_comm_dup_merged_rank*(inter_comm_dup_merged_rank-1)/2) > 1.e-10 || abs(recvbuf[1]-inter_comm_dup_merged_rank*(inter_comm_dup_merged_rank-1)/2) > 1.e-10) ) ||
1026           (op == MPI_MIN && (abs(recvbuf[0] ) > 1.e-10 || abs(recvbuf[1]) > 1.e-10) )  ||
1027           (op == MPI_MAX && (abs(recvbuf[0] - inter_comm_dup_merged_rank+1) > 1.e-10 || abs(recvbuf[1] - inter_comm_dup_merged_rank+1) > 1.e-10) ) )
1028        {
1029          exscan_test = 0;
1030        }
1031
1032        //printf(" ID=%d : sendbuf = (%d, %d), recvbuf = (%d, %d), exscan_test = %d \n", inter_comm_dup_merged_rank, sendbuf[0], sendbuf[1], recvbuf[0], recvbuf[1], exscan_test);
1033       
1034        int exscan_result;
1035        MPI_Reduce(&exscan_test, &exscan_result, 1, MPI_INT, MPI_MIN, 0, inter_comm_dup_merged);
1036   
1037        if(inter_comm_dup_merged_rank == 0 && exscan_result)  printf("            \t test MPI_Exscan for merged comm \t OK\n");
1038        if(inter_comm_dup_merged_rank == 0 && !exscan_result) printf("            \t test MPI_Exscan for merged comm \t FAILED %d\n", exscan_result);
1039      }*/
1040
1041      // TEST OF SCATTERV
1042      {
1043
1044        int scatterv_root;
1045 
1046        if(inter_comm_dup_merged_rank == 0) scatterv_root = rand() % inter_comm_dup_merged_size;
1047 
1048        MPI_Bcast(&scatterv_root, 1, MPI_INT, 0, inter_comm_dup_merged);
1049 
1050        std::vector<int>sendbuf(2*inter_comm_dup_merged_size, inter_comm_dup_merged_rank);
1051        std::vector<int>recvbuf(2, -1);
1052        std::vector<int>sendcounts(inter_comm_dup_merged_size, 2);
1053        std::vector<int>displs(inter_comm_dup_merged_size, 0);
1054
1055        for(int i=0; i<inter_comm_dup_merged_size; i++) displs[i] = 2*(inter_comm_dup_merged_size-1-i);
1056
1057        if(inter_comm_dup_merged_rank == scatterv_root) 
1058        {
1059          for(int i=0; i<inter_comm_dup_merged_size; i++) 
1060          {
1061            sendbuf[2*i] = i;
1062            sendbuf[2*i+1] = inter_comm_dup_merged_size;
1063          }
1064        }
1065
1066
1067        MPI_Scatterv(sendbuf.data(), sendcounts.data(), displs.data(), MPI_INT, recvbuf.data(), 2, MPI_INT, scatterv_root, inter_comm_dup_merged);
1068
1069        //printf("ID = %d : %d %d\n", inter_comm_dup_merged_rank, recvbuf[0], recvbuf[1]);
1070
1071        int scatterv_test = 1;
1072
1073     
1074        if( abs(recvbuf[0]-(inter_comm_dup_merged_size-1-inter_comm_dup_merged_rank)) > 1.e-10 || abs(recvbuf[1]-inter_comm_dup_merged_size) > 1.e-10 )
1075        {
1076          scatterv_test = 0; printf("%d %d  id = %d\n", recvbuf[0], recvbuf[1], inter_comm_dup_merged_rank);
1077        } 
1078   
1079
1080        int scatterv_result;
1081        MPI_Reduce(&scatterv_test, &scatterv_result, 1, MPI_INT, MPI_MIN, scatterv_root, inter_comm_dup_merged);
1082
1083        if(inter_comm_dup_merged_rank == scatterv_root && scatterv_result)  printf("root = %d : \t test MPI_Scatterv for merged comm \t OK\n", scatterv_root);
1084        if(inter_comm_dup_merged_rank == scatterv_root && !scatterv_result) printf("root = %d : \t test MPI_Scatterv for merged comm \t FAILED\n", scatterv_root);
1085      }
1086
1087
1088
1089
1090      MPI_Barrier(comm);
1091      MPI_Barrier(comm);
1092
1093
1094      MPI_Comm_free(&inter_comm_dup);
1095
1096      MPI_Barrier(comm);
1097      MPI_Barrier(comm);
1098
1099
1100      MPI_Comm_free(&inter_comm_dup_merged);
1101
1102
1103
1104      MPI_Barrier(comm);
1105      MPI_Barrier(comm);
1106
1107      MPI_Barrier(inter_comm);
1108      MPI_Comm_free(&inter_comm);
1109     
1110
1111      /*
1112      MPI_Barrier(comm);
1113      if(rank == 0) printf("\tMPI_Intercomm_create OK\n");
1114      MPI_Barrier(comm);
1115
1116   
1117
1118      int high=color;
1119      MPI_Comm intra_comm;
1120      MPI_Intercomm_merge(inter_comm, high, &intra_comm);
1121   
1122      int intra_rank, intra_size;
1123      MPI_Comm_rank(intra_comm, &intra_rank);
1124      MPI_Comm_size(intra_comm, &intra_size);
1125
1126      MPI_Barrier(comm);
1127      if(rank == 0) printf("\tMPI_Intercomm_merge OK\n");
1128      MPI_Barrier(comm);
1129   
1130   
1131
1132      //check_test_gatherv(comm);
1133     
1134      MPI_Barrier(comm);
1135      MPI_Comm_free(&inter_comm);
1136      */
1137    }
1138 
1139    MPI_Barrier(comm);
1140    MPI_Comm_free(&comm);
1141  }
1142
1143/*
1144  int num_threads;
1145  if(mpi_rank < mpi_size-2)
1146  {
1147    printf("Proc %d is client\n", mpi_rank);
1148    num_threads = 2;//+mpi_rank;
1149  }
1150  else
1151  {
1152    printf("Proc %d is server\n", mpi_rank);
1153    num_threads = 1;
1154  }
1155 
1156  omp_set_num_threads(num_threads);
1157
1158  #pragma omp parallel default(shared) firstprivate(num_threads)
1159  {
1160    int num_ep = num_threads;
1161    MPI_Info info;
1162
1163    //printf("omp_get_thread_num() = %d, omp_get_num_threads() = %d, num_threads = %d\n", omp_get_thread_num(), omp_get_num_threads(), num_threads);
1164    MPI_Comm *ep_comm;
1165    #pragma omp master
1166    {
1167      MPI_Comm *ep_comm;
1168      MPI_Comm_create_endpoints(MPI_COMM_WORLD->mpi_comm, num_ep, info, ep_comm);
1169      passage = ep_comm; 
1170    }
1171
1172    #pragma omp barrier
1173
1174
1175    MPI_Comm comm; // this should act as EP_COMM_WORLD
1176    comm = passage[omp_get_thread_num()];
1177   
1178    int rank, size;
1179    MPI_Comm_rank(comm, &rank);
1180    MPI_Comm_size(comm, &size);
1181   
1182   
1183
1184    bool isClient = false;
1185    bool isServer = false;
1186
1187    if(omp_get_num_threads()>1) isClient = true;
1188    else isServer = true;
1189
1190    printf("mpi_rank = %d, ep_rank = %d, isClient = %d\n", mpi_rank, rank, isClient);
1191
1192    MPI_Win ep_win;
1193    MPI_Aint buf_size=1;
1194    int buf = rank;
1195    int local_buf = rank;
1196    int result_buf = -1;
1197    MPI_Win_create(&buf, buf_size, sizeof(int), info, comm, &ep_win);
1198    MPI_Barrier(comm);
1199   
1200    // MPI_Win_fence(MPI_MODE_NOPRECEDE, ep_win);
1201
1202    MPI_Barrier(comm);
1203    sleep(0.2);
1204    MPI_Barrier(comm);
1205
1206    MPI_Win_fence(0, ep_win);
1207
1208    if(rank == 0)
1209    {
1210      local_buf = 99;
1211      MPI_Aint displs=0;
1212      MPI_Put(&local_buf, 1, MPI_INT, size-1, displs, 1, MPI_INT, ep_win);
1213    }
1214
1215    if(rank == size-2)
1216    {
1217      MPI_Aint displs(0);
1218      MPI_Get(&local_buf, 1, MPI_INT, 2, displs, 1, MPI_INT, ep_win);
1219    }
1220
1221    MPI_Win_fence(0, ep_win);
1222
1223    if(rank == 1)
1224    {
1225      MPI_Aint displs=0;
1226      MPI_Accumulate(&local_buf, 1, MPI_INT, size-1, displs, 1, MPI_INT, MPI_REPLACE, ep_win);
1227    }
1228
1229
1230    MPI_Barrier(comm);
1231
1232    MPI_Win_fence(0, ep_win);
1233
1234    if(rank == 2)
1235    {
1236      MPI_Aint displs = 0;
1237      MPI_Get_accumulate(&local_buf, 1, MPI_INT, &result_buf,
1238                         1, MPI_INT, size-2, displs,
1239                         1, MPI_INT, MPI_SUM, ep_win);
1240    }
1241   
1242    MPI_Win_fence(0, ep_win);
1243   
1244    if(rank == 6)
1245    {
1246      MPI_Aint displs = 0;
1247      MPI_Fetch_and_op(&local_buf, &result_buf, MPI_INT, size-1, displs,
1248                       MPI_SUM, ep_win);
1249    }
1250
1251    MPI_Win_fence(0, ep_win);
1252
1253    if(rank == 7)
1254    {
1255      MPI_Aint displs = 0;
1256      MPI_Compare_and_swap(&local_buf, &buf, &result_buf, MPI_INT, size-1, displs, ep_win);
1257    }
1258
1259    MPI_Win_fence(0, ep_win);
1260
1261    //::MPI_Compare_and_swap(origin_addr, compare_addr, result_addr, to_mpi_type(datatype), target_mpi_rank, to_mpi_aint(target_disp), to_mpi_win(win.server_win[target_local_rank]));
1262
1263    MPI_Win ep_win_allocated;
1264    int* baseptr = new int[10];
1265    MPI_Aint base_size = 4;
1266
1267    MPI_Win_allocate (base_size, sizeof(int), info, comm, baseptr, &ep_win_allocated);
1268
1269    MPI_Win_fence(0, ep_win_allocated);
1270
1271    MPI_Win_free(&ep_win_allocated);
1272    delete[] baseptr;
1273
1274    MPI_Win_free(&ep_win);
1275    printf("rank = %d, buf = %d, local_buf = %d, result_buf = %d\n", rank, buf, local_buf, result_buf);
1276   
1277    MPI_Comm_free(&comm);
1278
1279  }
1280*/
1281  MPI_Finalize();
1282
1283}
Note: See TracBrowser for help on using the repository browser.