Reconocimiento de gestos dinámicos
Autor Principal: | |
---|---|
Otros autores o Colaboradores: | , |
Formato: | Tesis |
Lengua: | español |
Datos de publicación: |
2014
|
Temas: | |
Acceso en línea: | http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977 Consultar en el Cátalogo |
Descripción Física: | xii, 218 p. : il. + 2 CD-ROM |
Tabla de Contenidos:
- Resumen
- Prefacio
- Métodos
- 1. Aprendizaje Automático
- 1.1. Introducción
- 1.2. Un ejemplo: Reconocimiento de Gestos
- 1.3. Aplicaciones
- 1.4. Entrenamiento Supervisado y No Supervisado
- 1.5. Clasificación
- 1.5.1. El Perceptrón
- 1.5.2. Experimentos de clasificación
- 1.5.3. Generalización .
- 1.5.4. Sobre-especialización y regularización
- 1.5.5. Modelo de clasificación con estructura probabilística
- 1.5.6. Modelo de clasificación multiclase
- 1.6. Resumen
- 2. Maquinas de Vectores de Soporte (SVM)
- 2.1. Introducción
- 2.2. Clasificador de Márgen Máximo
- 2.3. Modelo de Márgenes Suaves
- 2.4. Forma Dual
- 2.5. Análisis de los valores de αi
- 2.6. El truco del Kernel
- 2.7. Adaptación para el reconocimiento multiclase
- 2.8. Resumen
- 3. Redes neuronales
- 3.1. Introducción
- 3.2. Modelos de redes neuronales artificiales
- 3.2.1. El Perceptrón: una red neuronal simple
- 3.3. Redes Feedforward
- 3.3.1. Varias clases
- 3.3.2. Capas ocultas
- 3.3.3. Funciones no lineales
- 3.3.4. Algoritmo de entrenamiento Backpropagation
- 3.4. Redes Competitivas
- 3.4.1. Aprendizaje competitivo en redes "El ganador se lo lleva todo"
- 3.5. Resumen
- 4. Gestos
- 4.1. Introducción
- 4.2. Clasificaciones
- 4.2.1. Clasificación de McNeill
- 4.2.2. Clasificación para su reconocimiento
- 4.3. Modelado y propiedades de los gestos dinámicos
- 4.3.1. Modelo de gestos con parametrización temporal
- 4.3.2. Modelo de gestos con parametrización por longitud de arco
- 4.4. Resumen
- II
- Aplicaciones
- 5. Bases de datos y características para el reconocimiento de gestos
- 5.1.Introducción
- 5.2.Base de datos de gestos de letras y números arábigos (LNHG)
- 5.3.El Kinect y su SDK
- 5.3.1. Kinect
- 5.3.2. SDK y Algoritmo de tracking del cuerpo
- 5.4.Preprocesamiento
- 5.4.1. Rotación
- 5.4.2. Suavizado
- 5.4.3. Re-muestreo
- 5.5.Características
- 5.5.1. Versiones discretas de las propiedades de los gestos
- 5.6. Base de datos de gestos Celebi2013
- 5.7. Resumen
- 6. El Clasificador Neuronal Competitivo (CNC)
- 6.1. Introducción
- 6.2. Clasificador Neuronal Competitivo
- 6.2.1. Adaptación y funcionamiento de cada red
- 6.2.2. Combinación de los resultados de cada red
- 6.2.3. Bagging
- 6.2.4. Entrada al CNC
- 6.3. Modelos de reconocimiento a comparar
- 6.3.1. Support Vector Machine (SVM)
- 6.3.2. Redes Neuronales Feedforward (FF)
- 6.3.3. Clasificador basado en templates
- 6.4. Resumen
- 7. Experimentos y resultados
- 7.1. Introducción
- 7.2. Experimentos con base de datos LNHG
- 7.2.1. SVM
- 7.2.2. Feedforward
- 7.2.3. Templates
- 7.2.4. CNC
- 7.2.5. Comparación
- 7.3. Experimentos con base de datos Celebi2013
- 7.4. Resumen
- 8. Conclusiones generales y trabajos futuros
- A. Aprendizaje automático
- A.1. Validación cruzada
- A.1.1. VC de k-iteraciones
- A.1.2. VC dejando-uno-afuera
- A.1.3. VC aleatoria
- A.1.4. VC estratificada
- A.1.5. Pruebas de hipótesis con VC
- A.2. Funciones de pérdida
- B. SVM
- B.1. Condiciones KKT, Lagrangiano y Dual de Wolfe
- B.1.1. Condiciones KKT
- B.1.2. Problema Dual
- B.2. Algoritmo de optimización SMO
- B.2.1. Optimización de L D
- B.2.2. Regla de actualización para α1 y α2
- B.2.3. Elección de las variables αi y α j y pseudocódigo del algoritmo
- B.2.4. Función optimize(i, j)
- B.2.5. Derivación de la regla de actualización de SMO
- C. Redes neuronales
- C.1. Backpropagation
- C.1.1. Backpropagation con una red de dos capas y neuro-nas lineales
- C.1.2. Derivación de ∂E j con una red de tres capas
- ∂W
- C.1.3. Derivación de ∂E j para cualquier topología de red
- ∂W
- C.2. Consideraciones para aplicar Backpropagation
- C.2.1. Overfitting
- C.2.2. Mínimos locales
- C.2.3. Algoritmo de entrenamiento Resilient Backpropaga-tion