Computación paralela y distribuida
Clave: 10B6125
No. de horas: 72
Créditos: 5
Tipo de asignatura: Optativa
Fecha de elaboración: 2015-05-15
Objetivo general:
El alumno aprenderá los conceptos básicos de arquitectura decomputadoras paralelas, tendrá la capacidad de programar a nivel de hilos encomputadoras con arquitectura de múltiples núcleos y a nivel de procesos en un ambiente de cómputo distribuido. Además, aprenderá a programar procesadoresgráficos en el ambiente CUDA.
Temas:
- Introducción al cómputo paralelo
- Programación en memoria compartida
- Programación en memoria distribuida
- Introducción a CUDA
- Manejo de memoria
- Programación con CUDA
Bibliografía:
[1] Gerassimos Barlas, Multicore and GPU programming: An integrated Approach, Elsevier 2015. [2] John Cheng, Max Grossman and Ty McKercher, Professional CUDA C programming, John Wiley & Sons, 2014.
[2] Shane Cook, CUDA Programming: A developer’s Guide to Parallel Computimg with GPUs, Elsevier, 2013.
[3] Nicholas Wilt, The CUDA Handbook A comprehensive Guide to GPU Programming, Addison-Wesley, 2013.
[4] Nvidia Ed., CUDA C Programming Guide, versión 7.0, Nvidia, 2015.
[5] Nvdia Ed., CUDA C Best Practices Guide, version 7.0, Nvidia, 2015.
[6] Peter Pacheco. An introduction to Parallel Programming, Morgan Kaufmann, 2011.