Reconocimiento de gestos dinámicos

Detalles Bibliográficos
Autor Principal: Quiroga, Facundo Manuel
Otros autores o Colaboradores: Lanzarini, Laura Cristina (Director/a), Corbalán, Leonardo César (Codirector/a)
Formato: Tesis
Lengua:español
Datos de publicación: 2014
Temas:
Acceso en línea:http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977
Consultar en el Cátalogo
Descripción Física:xii, 218 p. : il. + 2 CD-ROM

MARC

LEADER 00000nam a2200000 a 4500
003 AR-LpUFIB
005 20250423183200.0
008 230201s2014 ag a rm 000 0 spa d
024 8 |a DIF-M6941  |b 7106  |z DIF006341 
040 |a AR-LpUFIB  |b spa  |c AR-LpUFIB 
100 1 |a Quiroga, Facundo Manuel  |9 48512 
245 1 0 |a Reconocimiento de gestos dinámicos 
260 |c 2014 
300 |a xii, 218 p. :  |b il. +  |e 2 CD-ROM 
502 |a  Tesina (Licenciatura en Informática) - Universidad Nacional de La Plata, Facultad de Informática, 2014. 
505 0 |a  Resumen -- Prefacio -- Métodos -- 1. Aprendizaje Automático -- 1.1. Introducción -- 1.2. Un ejemplo: Reconocimiento de Gestos -- 1.3. Aplicaciones -- 1.4. Entrenamiento Supervisado y No Supervisado -- 1.5. Clasificación -- 1.5.1. El Perceptrón -- 1.5.2. Experimentos de clasificación -- 1.5.3. Generalización . -- 1.5.4. Sobre-especialización y regularización -- 1.5.5. Modelo de clasificación con estructura probabilística -- 1.5.6. Modelo de clasificación multiclase -- 1.6. Resumen -- 2. Maquinas de Vectores de Soporte (SVM) -- 2.1. Introducción -- 2.2. Clasificador de Márgen Máximo -- 2.3. Modelo de Márgenes Suaves -- 2.4. Forma Dual -- 2.5. Análisis de los valores de αi -- 2.6. El truco del Kernel -- 2.7. Adaptación para el reconocimiento multiclase -- 2.8. Resumen -- 3. Redes neuronales -- 3.1. Introducción -- 3.2. Modelos de redes neuronales artificiales -- 3.2.1. El Perceptrón: una red neuronal simple -- 3.3. Redes Feedforward -- 3.3.1. Varias clases -- 3.3.2. Capas ocultas -- 3.3.3. Funciones no lineales -- 3.3.4. Algoritmo de entrenamiento Backpropagation -- 3.4. Redes Competitivas -- 3.4.1. Aprendizaje competitivo en redes "El ganador se lo lleva todo" -- 3.5. Resumen -- 4. Gestos -- 4.1. Introducción -- 4.2. Clasificaciones -- 4.2.1. Clasificación de McNeill -- 4.2.2. Clasificación para su reconocimiento -- 4.3. Modelado y propiedades de los gestos dinámicos -- 4.3.1. Modelo de gestos con parametrización temporal -- 4.3.2. Modelo de gestos con parametrización por longitud de arco -- 4.4. Resumen -- II -- Aplicaciones -- 5. Bases de datos y características para el reconocimiento de gestos -- 5.1.Introducción -- 5.2.Base de datos de gestos de letras y números arábigos (LNHG) -- 5.3.El Kinect y su SDK -- 5.3.1. Kinect -- 5.3.2. SDK y Algoritmo de tracking del cuerpo -- 5.4.Preprocesamiento -- 5.4.1. Rotación -- 5.4.2. Suavizado -- 5.4.3. Re-muestreo -- 5.5.Características -- 5.5.1. Versiones discretas de las propiedades de los gestos -- 5.6. Base de datos de gestos Celebi2013 -- 5.7. Resumen -- 6. El Clasificador Neuronal Competitivo (CNC) -- 6.1. Introducción -- 6.2. Clasificador Neuronal Competitivo -- 6.2.1. Adaptación y funcionamiento de cada red -- 6.2.2. Combinación de los resultados de cada red -- 6.2.3. Bagging -- 6.2.4. Entrada al CNC -- 6.3. Modelos de reconocimiento a comparar -- 6.3.1. Support Vector Machine (SVM) -- 6.3.2. Redes Neuronales Feedforward (FF) -- 6.3.3. Clasificador basado en templates -- 6.4. Resumen -- -- 7. Experimentos y resultados -- 7.1. Introducción -- 7.2. Experimentos con base de datos LNHG -- 7.2.1. SVM -- 7.2.2. Feedforward -- 7.2.3. Templates -- 7.2.4. CNC -- 7.2.5. Comparación -- 7.3. Experimentos con base de datos Celebi2013 -- 7.4. Resumen -- 8. Conclusiones generales y trabajos futuros -- A. Aprendizaje automático -- A.1. Validación cruzada -- A.1.1. VC de k-iteraciones -- A.1.2. VC dejando-uno-afuera -- A.1.3. VC aleatoria -- A.1.4. VC estratificada -- A.1.5. Pruebas de hipótesis con VC -- A.2. Funciones de pérdida -- B. SVM -- B.1. Condiciones KKT, Lagrangiano y Dual de Wolfe -- B.1.1. Condiciones KKT -- B.1.2. Problema Dual -- B.2. Algoritmo de optimización SMO -- B.2.1. Optimización de L D -- B.2.2. Regla de actualización para α1 y α2 -- B.2.3. Elección de las variables αi y α j y pseudocódigo del algoritmo -- B.2.4. Función optimize(i, j) -- B.2.5. Derivación de la regla de actualización de SMO -- C. Redes neuronales -- C.1. Backpropagation -- C.1.1. Backpropagation con una red de dos capas y neuro-nas lineales -- C.1.2. Derivación de ∂E j con una red de tres capas -- ∂W -- C.1.3. Derivación de ∂E j para cualquier topología de red -- ∂W -- C.2. Consideraciones para aplicar Backpropagation -- C.2.1. Overfitting -- C.2.2. Mínimos locales -- C.2.3. Algoritmo de entrenamiento Resilient Backpropaga-tion 
650 4 |a PROCESAMIENTO DE SEÑALES  |9 43074 
650 4 |a APRENDIZAJE AUTOMÁTICO  |9 42949 
650 4 |a REDES NEURONALES  |9 42953 
653 |a reconocimiento de gestos 
653 |a clasificación 
653 |a máquinas de vectores de soporte 
653 |a kinect 
700 1 |a Lanzarini, Laura Cristina ,  |e Director/a  |9 43377 
700 1 |a Corbalán, Leonardo César ,  |e Codirector/a  |9 44782 
856 4 0 |u  http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977 
942 |c TE 
952 |0 0  |1 0  |4 0  |6 TES_1411  |7 1  |9 81306  |a DIF  |b DIF  |d 2025-03-11  |i DIF-04357  |l 0  |o TES 14/11   |p DIF-04357  |r 2025-03-11 17:04:28  |w 2025-03-11  |x  CD 760-761  |y TE 
952 |0 0  |1 0  |4 0  |7 3  |8 BD  |9 81307  |a DIF  |b DIF  |d 2025-03-11  |l 0  |r 2025-03-11 17:04:28  |u http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977  |w 2025-03-11  |y TE 
999 |c 56122  |d 56122