Computación paralela y distribuida

Clave: 10B6125


No. de horas: 72


Créditos: 5


Tipo de asignatura: Optativa


Fecha de elaboración: 2015-05-15



Objetivo general:


El alumno aprenderá los conceptos básicos de arquitectura decomputadoras paralelas, tendrá la capacidad de programar a nivel de hilos encomputadoras con arquitectura de múltiples núcleos y a nivel de procesos en un ambiente de cómputo distribuido. Además, aprenderá a programar procesadoresgráficos en el ambiente CUDA.


Temas:


  1.   Introducción al cómputo  paralelo
  2.   Programación en memoria compartida
  3.   Programación en memoria distribuida
  4.   Introducción a CUDA
  5.   Manejo de memoria
  6.   Programación con CUDA


Bibliografía:


[1] Gerassimos Barlas, Multicore and GPU programming: An integrated Approach, Elsevier 2015.  [2] John Cheng, Max Grossman and Ty McKercher, Professional CUDA C programming, John Wiley & Sons, 2014.
[2] Shane Cook, CUDA Programming: A developer’s Guide to Parallel Computimg with GPUs, Elsevier, 2013.
[3] Nicholas Wilt, The CUDA Handbook A comprehensive Guide to GPU Programming, Addison-Wesley, 2013.
[4] Nvidia Ed., CUDA C Programming Guide, versión 7.0, Nvidia, 2015.
[5] Nvdia Ed., CUDA C Best Practices Guide, version 7.0, Nvidia, 2015.
[6] Peter Pacheco. An introduction to Parallel Programming, Morgan Kaufmann, 2011.