Viendo ejemplos de como podría mandar datos a los demás nodos en cierto orden y que estos me los regresen también en cierto orden me encontré con una serie de métodos que nos sirvan para la comunicación colectiva.
Uno de los comandos utilizados con mas frecuencia en la comunicación colectiva es:
Broadcast: Bcast(buffer,size,datatype,root,communicator)
En el nodo cuyo rango MPI es igual al root: Induce la distribución de los datos en la memoria de los demás nodos.
En todos los demás nodos: se llena la memoria con datos recibidos desde el nodo root
Otros comandos frecuentes son:
Scatter()/Scatterv(): Envía un vector de datos desde un nodo (por lo general en nodo root) de manera que cada nodo recibe una parte.
Gather()/Gatherv(): Recoge las partes de un vector que son distribuidos en todos los nodos, en el buffer de un nodo (por lo general del nodo root)
Allgather()/Allgatherv(): Recoge las partes de un vector de manera que cada nodo se obtiene un conjunto completo de todas las partes.
Alltoall()/Alltoallv(): Intercambia partes de una colección de vectores.
La variante -v es utilizada para datos de un tamaño no-uniforme.
y este es un codigo ejemplo, para ver el funcionamiento de algunos metodos.
lo que da como resultado
Nomino a Jose Guadalupe por su ultima entrada
http://elisa.dyndns-web.com/progra/ComunicacionMPI
Uno de los comandos utilizados con mas frecuencia en la comunicación colectiva es:
Broadcast: Bcast(buffer,size,datatype,root,communicator)
En el nodo cuyo rango MPI es igual al root: Induce la distribución de los datos en la memoria de los demás nodos.
En todos los demás nodos: se llena la memoria con datos recibidos desde el nodo root
Otros comandos frecuentes son:
Scatter()/Scatterv(): Envía un vector de datos desde un nodo (por lo general en nodo root) de manera que cada nodo recibe una parte.
Gather()/Gatherv(): Recoge las partes de un vector que son distribuidos en todos los nodos, en el buffer de un nodo (por lo general del nodo root)
Allgather()/Allgatherv(): Recoge las partes de un vector de manera que cada nodo se obtiene un conjunto completo de todas las partes.
Alltoall()/Alltoallv(): Intercambia partes de una colección de vectores.
La variante -v es utilizada para datos de un tamaño no-uniforme.
y este es un codigo ejemplo, para ver el funcionamiento de algunos metodos.
import mpi4py.MPI as MPI, cPickle, numpy comm=MPI.COMMWORLD mpi_size = comm.Get_size() mpi_rank = comm.Get_rank() def pybroadcast_master(x): x_str = cPickle.dumps(x) buf_xlen = numpy.array( [len( x_str )], dtype=numpy.uint32 ) # MPI Collective Command: comm.Bcast([buf_xlen, 1, MPI.INT], 0) buf_xdata = numpy.array([ord(c) for c in x_str], dtype = numpy.uint8) # MPI Collective Command: comm.Bcast([buf_xdata, len(x_str), MPI .CHAR],0 ) return x def pybroadcast_slave(): buf_xlen=numpy.zeros(1, dtype=numpy.uint32) #MPI Collective Command: comm.Bcast([buf_xlen, 1, MPI.INT]) nbytes = bufxlen[0] recv = numpy.zeros(nbytes, dtype=numpy.uint8) # MPI Collective Command: comm.Bcast([recv, nbytes, MPI.CHAR], 0) return cPickle.loads( ””.join([chr(x) for x in recv]) ) def pybroadcast( x=None ): if mpi_rank == 0: return pybroadcast_master(x) else: return pybroadcast_slave() the_data = None if mpi_rank == 0: n = int(raw input(”Please give a number: ” )) the_data = [x*x for x in range (n)] mydata = pybroadcast(the_data) print ”I am node %d/%d and have data %s\n”%\ (mpi_rank, mpi_size, str(mydata))
lo que da como resultado
Nomino a Jose Guadalupe por su ultima entrada
http://elisa.dyndns-web.com/progra/ComunicacionMPI
Bien; 5+5.
ResponderEliminar