Programación Paralela Distribuida_MUII

Descripción

El objetivo de la asignatura es llegar a conocer y adquirir experiencia en las principales tecnologías de desarrollo de aplicaciones paralelas y distribuidas, abarcando un rango de plataformas hardware que se extiende desde los sistemas multi-core, de memoria compartida, y multi-GPUs hasta los grandes multicomputadores paralelos, de memoria distribuida, incluyendo soluciones basadas en entrada/salida paralela, todo ello dentro del ámbito de la computación de alto rendimiento (HPC, High Performance Computing).

Se verá OpenMP para programar multiprocesadores de memoria compartida, MPI para programar máquinas de memoria distribuida, vectorización para explotar las unidades vectoriales de los procesadores actuales así como los Many Integrated Cores de Intel (MIC) y CUDA para programar GPUs. Tanto los MICs como las GPUs se usan a modo de coprocesadores dentro de clusters más grandes (memoria distribuida) donde cada nodo es un multiprocesador (memoria compartida).

      • Enlace a Web propia de la asignatura aquí