Reconocimiento de gestos dinámicos

Detalles Bibliográficos
Autor Principal: Quiroga, Facundo Manuel
Otros autores o Colaboradores: Lanzarini, Laura Cristina (Director/a), Corbalán, Leonardo César (Codirector/a)
Formato: Tesis
Lengua:español
Datos de publicación: 2014
Temas:
Acceso en línea:http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977
Consultar en el Cátalogo
Descripción Física:xii, 218 p. : il. + 2 CD-ROM
Tabla de Contenidos:
  • Resumen
  • Prefacio
  • Métodos
  • 1. Aprendizaje Automático
  • 1.1. Introducción
  • 1.2. Un ejemplo: Reconocimiento de Gestos
  • 1.3. Aplicaciones
  • 1.4. Entrenamiento Supervisado y No Supervisado
  • 1.5. Clasificación
  • 1.5.1. El Perceptrón
  • 1.5.2. Experimentos de clasificación
  • 1.5.3. Generalización .
  • 1.5.4. Sobre-especialización y regularización
  • 1.5.5. Modelo de clasificación con estructura probabilística
  • 1.5.6. Modelo de clasificación multiclase
  • 1.6. Resumen
  • 2. Maquinas de Vectores de Soporte (SVM)
  • 2.1. Introducción
  • 2.2. Clasificador de Márgen Máximo
  • 2.3. Modelo de Márgenes Suaves
  • 2.4. Forma Dual
  • 2.5. Análisis de los valores de αi
  • 2.6. El truco del Kernel
  • 2.7. Adaptación para el reconocimiento multiclase
  • 2.8. Resumen
  • 3. Redes neuronales
  • 3.1. Introducción
  • 3.2. Modelos de redes neuronales artificiales
  • 3.2.1. El Perceptrón: una red neuronal simple
  • 3.3. Redes Feedforward
  • 3.3.1. Varias clases
  • 3.3.2. Capas ocultas
  • 3.3.3. Funciones no lineales
  • 3.3.4. Algoritmo de entrenamiento Backpropagation
  • 3.4. Redes Competitivas
  • 3.4.1. Aprendizaje competitivo en redes "El ganador se lo lleva todo"
  • 3.5. Resumen
  • 4. Gestos
  • 4.1. Introducción
  • 4.2. Clasificaciones
  • 4.2.1. Clasificación de McNeill
  • 4.2.2. Clasificación para su reconocimiento
  • 4.3. Modelado y propiedades de los gestos dinámicos
  • 4.3.1. Modelo de gestos con parametrización temporal
  • 4.3.2. Modelo de gestos con parametrización por longitud de arco
  • 4.4. Resumen
  • II
  • Aplicaciones
  • 5. Bases de datos y características para el reconocimiento de gestos
  • 5.1.Introducción
  • 5.2.Base de datos de gestos de letras y números arábigos (LNHG)
  • 5.3.El Kinect y su SDK
  • 5.3.1. Kinect
  • 5.3.2. SDK y Algoritmo de tracking del cuerpo
  • 5.4.Preprocesamiento
  • 5.4.1. Rotación
  • 5.4.2. Suavizado
  • 5.4.3. Re-muestreo
  • 5.5.Características
  • 5.5.1. Versiones discretas de las propiedades de los gestos
  • 5.6. Base de datos de gestos Celebi2013
  • 5.7. Resumen
  • 6. El Clasificador Neuronal Competitivo (CNC)
  • 6.1. Introducción
  • 6.2. Clasificador Neuronal Competitivo
  • 6.2.1. Adaptación y funcionamiento de cada red
  • 6.2.2. Combinación de los resultados de cada red
  • 6.2.3. Bagging
  • 6.2.4. Entrada al CNC
  • 6.3. Modelos de reconocimiento a comparar
  • 6.3.1. Support Vector Machine (SVM)
  • 6.3.2. Redes Neuronales Feedforward (FF)
  • 6.3.3. Clasificador basado en templates
  • 6.4. Resumen
  • 7. Experimentos y resultados
  • 7.1. Introducción
  • 7.2. Experimentos con base de datos LNHG
  • 7.2.1. SVM
  • 7.2.2. Feedforward
  • 7.2.3. Templates
  • 7.2.4. CNC
  • 7.2.5. Comparación
  • 7.3. Experimentos con base de datos Celebi2013
  • 7.4. Resumen
  • 8. Conclusiones generales y trabajos futuros
  • A. Aprendizaje automático
  • A.1. Validación cruzada
  • A.1.1. VC de k-iteraciones
  • A.1.2. VC dejando-uno-afuera
  • A.1.3. VC aleatoria
  • A.1.4. VC estratificada
  • A.1.5. Pruebas de hipótesis con VC
  • A.2. Funciones de pérdida
  • B. SVM
  • B.1. Condiciones KKT, Lagrangiano y Dual de Wolfe
  • B.1.1. Condiciones KKT
  • B.1.2. Problema Dual
  • B.2. Algoritmo de optimización SMO
  • B.2.1. Optimización de L D
  • B.2.2. Regla de actualización para α1 y α2
  • B.2.3. Elección de las variables αi y α j y pseudocódigo del algoritmo
  • B.2.4. Función optimize(i, j)
  • B.2.5. Derivación de la regla de actualización de SMO
  • C. Redes neuronales
  • C.1. Backpropagation
  • C.1.1. Backpropagation con una red de dos capas y neuro-nas lineales
  • C.1.2. Derivación de ∂E j con una red de tres capas
  • ∂W
  • C.1.3. Derivación de ∂E j para cualquier topología de red
  • ∂W
  • C.2. Consideraciones para aplicar Backpropagation
  • C.2.1. Overfitting
  • C.2.2. Mínimos locales
  • C.2.3. Algoritmo de entrenamiento Resilient Backpropaga-tion