Ignore:
Timestamp:
11/19/18 16:28:03 (5 years ago)
Author:
yushan
Message:

branch_openmp merged with trunk r1597

File:
1 edited

Legend:

Unmodified
Added
Removed
  • XIOS/dev/dev_trunk_omp/extern/remap/src/mapper.cpp

    r1158 r1602  
    1212 
    1313#include "mapper.hpp" 
     14using namespace ep_lib; 
    1415 
    1516namespace sphereRemap { 
     17 
     18extern CRemapGrid srcGrid; 
     19#pragma omp threadprivate(srcGrid) 
     20 
     21extern CRemapGrid tgtGrid; 
     22#pragma omp threadprivate(tgtGrid) 
     23 
    1624 
    1725/* A subdivition of an array into N sub-arays 
     
    303311                        MPI_Issend(sendValue[rank],  nbRecvElement[rank], MPI_DOUBLE, rank, 0, communicator, &sendRequest[nbSendRequest]); 
    304312                        nbSendRequest++; 
    305                         MPI_Issend(sendArea[rank],  nbRecvElement[rank], MPI_DOUBLE, rank, 0, communicator, &sendRequest[nbSendRequest]); 
     313                        MPI_Issend(sendArea[rank],  nbRecvElement[rank], MPI_DOUBLE, rank, 1, communicator, &sendRequest[nbSendRequest]); 
    306314                        nbSendRequest++; 
    307315                        if (order == 2) 
    308316                        { 
    309317                                MPI_Issend(sendGrad[rank], 3*nbRecvElement[rank]*(NMAX+1), 
    310                                                                 MPI_DOUBLE, rank, 0, communicator, &sendRequest[nbSendRequest]); 
     318                                                                MPI_DOUBLE, rank, 2, communicator, &sendRequest[nbSendRequest]); 
    311319                                nbSendRequest++; 
    312                                 MPI_Issend(sendNeighIds[rank], 4*nbRecvElement[rank]*(NMAX+1), MPI_INT, rank, 0, communicator, &sendRequest[nbSendRequest]); 
     320                                MPI_Issend(sendNeighIds[rank], 4*nbRecvElement[rank]*(NMAX+1), MPI_INT, rank, 3, communicator, &sendRequest[nbSendRequest]); 
    313321//ym  --> attention taille GloId 
    314322                                nbSendRequest++; 
     
    316324                        else 
    317325                        { 
    318                                 MPI_Issend(sendNeighIds[rank], 4*nbRecvElement[rank], MPI_INT, rank, 0, communicator, &sendRequest[nbSendRequest]); 
     326                                MPI_Issend(sendNeighIds[rank], 4*nbRecvElement[rank], MPI_INT, rank, 4, communicator, &sendRequest[nbSendRequest]); 
    319327//ym  --> attention taille GloId 
    320328                                nbSendRequest++; 
     
    325333                        MPI_Irecv(recvValue[rank],  nbSendElement[rank], MPI_DOUBLE, rank, 0, communicator, &recvRequest[nbRecvRequest]); 
    326334                        nbRecvRequest++; 
    327                         MPI_Irecv(recvArea[rank],  nbSendElement[rank], MPI_DOUBLE, rank, 0, communicator, &recvRequest[nbRecvRequest]); 
     335                        MPI_Irecv(recvArea[rank],  nbSendElement[rank], MPI_DOUBLE, rank, 1, communicator, &recvRequest[nbRecvRequest]); 
    328336                        nbRecvRequest++; 
    329337                        if (order == 2) 
    330338                        { 
    331339                                MPI_Irecv(recvGrad[rank], 3*nbSendElement[rank]*(NMAX+1), 
    332                                                 MPI_DOUBLE, rank, 0, communicator, &recvRequest[nbRecvRequest]); 
     340                                                MPI_DOUBLE, rank, 2, communicator, &recvRequest[nbRecvRequest]); 
    333341                                nbRecvRequest++; 
    334                                 MPI_Irecv(recvNeighIds[rank], 4*nbSendElement[rank]*(NMAX+1), MPI_INT, rank, 0, communicator, &recvRequest[nbRecvRequest]); 
     342                                MPI_Irecv(recvNeighIds[rank], 4*nbSendElement[rank]*(NMAX+1), MPI_INT, rank, 3, communicator, &recvRequest[nbRecvRequest]); 
    335343//ym  --> attention taille GloId 
    336344                                nbRecvRequest++; 
     
    338346                        else 
    339347                        { 
    340                                 MPI_Irecv(recvNeighIds[rank], 4*nbSendElement[rank], MPI_INT, rank, 0, communicator, &recvRequest[nbRecvRequest]); 
     348                                MPI_Irecv(recvNeighIds[rank], 4*nbSendElement[rank], MPI_INT, rank, 4, communicator, &recvRequest[nbRecvRequest]); 
    341349//ym  --> attention taille GloId 
    342350                                nbRecvRequest++; 
Note: See TracChangeset for help on using the changeset viewer.