Análisis de estrategias de distribución dinámica de trabajo en el paradigma master worker sobre un cluster de multicore

Detalles Bibliográficos
Autor Principal: Torres, Rocío Nahime
Otros autores o Colaboradores: Pantaleo, Facundo Adrián, De Giusti, Laura Cristina (Director/a), Chichizola, Franco (Director/a)
Formato: Tesis
Lengua:español
Datos de publicación: 2014
Temas:
Acceso en línea:Consultar en el Cátalogo
Descripción Física:152 p. : il. col. + 2 CD-ROM
Tabla de Contenidos:
  • 1. INTRODUCCIÓN
  • 1.1 Procesamiento Paralelo
  • 1.1.1 Concurrencia y paralelismo
  • 1.1.2 Cómputo distribuido y paralelismo
  • 1.2 Ventajas del procesamiento paralelo
  • 1.2.1 Resolver problemas más grandes
  • 1.2.2 Resolver problemas con límite de tiempo
  • 1.2.3 Resolver problemas con mayor precisión
  • 1.2.4 Límites en el cómputo serial
  • 1.3 Limitaciones del procesamiento paralelo
  • 1.4 Límites en el sistema de memoria
  • 1.4.1 Mejorando la latencia de memoria mediante el uso de chaches
  • 1.4.2 Impacto del ancho de banda
  • 1.5 Definiciones y conceptos básicos
  • 2. ARQUITECTURAS PARALELAS
  • 2.1 Memoria compartida
  • 2.1.1 Multicores
  • 2.1.2 Modelo de comunicación
  • 2.1.2.1 Hilos
  • 2.1.2.2 Pthread
  • 2.2 Memoria distribuida
  • 2.2.1 Cluster
  • 2.2.2 Modelo de comunicación
  • 2.2.2.1 Operaciones send y receive
  • 2.2.2.2 Costo de la comunicación
  • 2.2.2.3 MPI
  • 2.3 Memoria compartida distribuida
  • 2.3.1 Cluster de multicores
  • 2.3.2 Modelo de comunicación
  • 3.DISEÑO DE APLICACIONES
  • 3.1 Etapas de diseño
  • 3.1.1 Etapa de particionamiento
  • 3.1.2 Etapa de comunicación
  • 3.1.3 Etapa de aglomeración
  • 3.1.3.1 Incrementando la granularidad
  • 3.1.4 Etapa de mapeo
  • 3.1.4.1 Mapeo estático
  • 3.1.4.1.1 Mapeos basados en el particionamiento de datos
  • 3.1.4.2 Mapeo dinámico
  • 3.1.4.2.1 Esquema centralizado
  • 3.1.4.2.2 Esquema distribuido
  • 3.2 Paradigmas de programación
  • 3.2.1 Paradigma Master-Worker
  • 3.2.1.1 Modelo Uno
  • 3.2.1.2 Modelo Dos
  • 3.2.1.3 Modelo Tres
  • 4. EVALUACIÓN DE SISTEMAS PARALELOS
  • 4.1 Fuentes de overhead
  • 4.1.1 Interacción entre procesos
  • 4.1.2 Ocio de los procesadores
  • 4.1.3 Cómputo extra asociado a la paralelización
  • 4.2 Métricas
  • 4.2.1 Tiempo de ejecución
  • 4.2.2 Desbalance de carga
  • 4.2.3 Speedup
  • 4.2.4 Eficiencia
  • 4.2.5 Escalabilidad
  • 5. PROBLEMA "N-REINAS"
  • 5.1 Origen del problema
  • 5.2 Descripción del problema
  • 5.3 Algoritmo secuencial
  • 5.4 Algoritmo paralelo
  • 5.4.1 Solución con pasaje de mensajes
  • 5.4.1.1 Un nivel de master
  • 5.4.1.2 Dos niveles de master
  • 5.4.2 Solución Hibrida
  • 6. PROBLEMA "BÚSQUEDA DE SIMILITUD MÁXIMA EN SECUENCIAS DE ADN"
  • 6.1 Bioinformática
  • 6.1.1 ¿Qué es?
  • 6.1.2 ¿Porque es importante?
  • 6.2 Descripción del problema
  • 6.2.1 Conceptos preliminares
  • 6.2.2 Alineación de secuencias
  • 6.2.3 Subsecuencias
  • 6.2.4 Similitud local y global
  • 6.2.5 Algoritmo Smith-Waterman
  • 6.3 Algoritmo secuencial
  • 6.4 Algoritmo paralelo
  • 6.4.1 Solución con pasaje de mensajes
  • 6.4.1.1 Un nivel de master
  • 6.4.1.2 Dos niveles de master
  • 6.4.2 Solución Hibrida
  • 7.EXPERIMENTACIÓN
  • 7.1 Arquitectura utilizada
  • 7.2 N-reinas
  • 7.2.1 Comparación de las tres soluciones
  • 7.2.2 Análisis del comportamiento cuando crece la arquirectura
  • 7.3 Búsqueda de similitud máxima entre secuencias de ADN
  • 7.3.1 Comparación de las tres soluciones
  • 7.3.2 Análisis del comportamiento cuando crece la arquirectura
  • 8. CONCLUSIONES
  • 9. APÉNDICE A - DETALLE DE LOS RESULTADOS PARA "N-REINAS"
  • 10. APÉNDICE B-DETALLE DE LOS RESULTADOS PARA "BÚSQUEDA DE SIMILITUD MÁXIMA EN SECUENCIAS DE ADN"
  • 11. APÉNDICE C - CÓDIGOS DEL PROBLEMA "N-REINAS"
  • 12. APÉNDICE D – CÓDIGOS DEL PROBLEMA "BÚSQUEDA DE SIMILITUD MÁXIMA EN SECUENCIAS DE ADN"
  • 13. ANEXO A – PHTREADS
  • 14. ANEXO B – MPI
  • 15. BIBLIOGRAFÍA