|
|
|
|
LEADER |
00000nam a2200000 a 4500 |
003 |
AR-LpUFIB |
005 |
20250423183200.0 |
008 |
230201s2014 ag a rm 000 0 spa d |
024 |
8 |
|
|a DIF-M6941
|b 7106
|z DIF006341
|
040 |
|
|
|a AR-LpUFIB
|b spa
|c AR-LpUFIB
|
100 |
1 |
|
|a Quiroga, Facundo Manuel
|9 48512
|
245 |
1 |
0 |
|a Reconocimiento de gestos dinámicos
|
260 |
|
|
|c 2014
|
300 |
|
|
|a xii, 218 p. :
|b il. +
|e 2 CD-ROM
|
502 |
|
|
|a Tesina (Licenciatura en Informática) - Universidad Nacional de La Plata, Facultad de Informática, 2014.
|
505 |
0 |
|
|a Resumen -- Prefacio -- Métodos -- 1. Aprendizaje Automático -- 1.1. Introducción -- 1.2. Un ejemplo: Reconocimiento de Gestos -- 1.3. Aplicaciones -- 1.4. Entrenamiento Supervisado y No Supervisado -- 1.5. Clasificación -- 1.5.1. El Perceptrón -- 1.5.2. Experimentos de clasificación -- 1.5.3. Generalización . -- 1.5.4. Sobre-especialización y regularización -- 1.5.5. Modelo de clasificación con estructura probabilística -- 1.5.6. Modelo de clasificación multiclase -- 1.6. Resumen -- 2. Maquinas de Vectores de Soporte (SVM) -- 2.1. Introducción -- 2.2. Clasificador de Márgen Máximo -- 2.3. Modelo de Márgenes Suaves -- 2.4. Forma Dual -- 2.5. Análisis de los valores de αi -- 2.6. El truco del Kernel -- 2.7. Adaptación para el reconocimiento multiclase -- 2.8. Resumen -- 3. Redes neuronales -- 3.1. Introducción -- 3.2. Modelos de redes neuronales artificiales -- 3.2.1. El Perceptrón: una red neuronal simple -- 3.3. Redes Feedforward -- 3.3.1. Varias clases -- 3.3.2. Capas ocultas -- 3.3.3. Funciones no lineales -- 3.3.4. Algoritmo de entrenamiento Backpropagation -- 3.4. Redes Competitivas -- 3.4.1. Aprendizaje competitivo en redes "El ganador se lo lleva todo" -- 3.5. Resumen -- 4. Gestos -- 4.1. Introducción -- 4.2. Clasificaciones -- 4.2.1. Clasificación de McNeill -- 4.2.2. Clasificación para su reconocimiento -- 4.3. Modelado y propiedades de los gestos dinámicos -- 4.3.1. Modelo de gestos con parametrización temporal -- 4.3.2. Modelo de gestos con parametrización por longitud de arco -- 4.4. Resumen -- II -- Aplicaciones -- 5. Bases de datos y características para el reconocimiento de gestos -- 5.1.Introducción -- 5.2.Base de datos de gestos de letras y números arábigos (LNHG) -- 5.3.El Kinect y su SDK -- 5.3.1. Kinect -- 5.3.2. SDK y Algoritmo de tracking del cuerpo -- 5.4.Preprocesamiento -- 5.4.1. Rotación -- 5.4.2. Suavizado -- 5.4.3. Re-muestreo -- 5.5.Características -- 5.5.1. Versiones discretas de las propiedades de los gestos -- 5.6. Base de datos de gestos Celebi2013 -- 5.7. Resumen -- 6. El Clasificador Neuronal Competitivo (CNC) -- 6.1. Introducción -- 6.2. Clasificador Neuronal Competitivo -- 6.2.1. Adaptación y funcionamiento de cada red -- 6.2.2. Combinación de los resultados de cada red -- 6.2.3. Bagging -- 6.2.4. Entrada al CNC -- 6.3. Modelos de reconocimiento a comparar -- 6.3.1. Support Vector Machine (SVM) -- 6.3.2. Redes Neuronales Feedforward (FF) -- 6.3.3. Clasificador basado en templates -- 6.4. Resumen -- -- 7. Experimentos y resultados -- 7.1. Introducción -- 7.2. Experimentos con base de datos LNHG -- 7.2.1. SVM -- 7.2.2. Feedforward -- 7.2.3. Templates -- 7.2.4. CNC -- 7.2.5. Comparación -- 7.3. Experimentos con base de datos Celebi2013 -- 7.4. Resumen -- 8. Conclusiones generales y trabajos futuros -- A. Aprendizaje automático -- A.1. Validación cruzada -- A.1.1. VC de k-iteraciones -- A.1.2. VC dejando-uno-afuera -- A.1.3. VC aleatoria -- A.1.4. VC estratificada -- A.1.5. Pruebas de hipótesis con VC -- A.2. Funciones de pérdida -- B. SVM -- B.1. Condiciones KKT, Lagrangiano y Dual de Wolfe -- B.1.1. Condiciones KKT -- B.1.2. Problema Dual -- B.2. Algoritmo de optimización SMO -- B.2.1. Optimización de L D -- B.2.2. Regla de actualización para α1 y α2 -- B.2.3. Elección de las variables αi y α j y pseudocódigo del algoritmo -- B.2.4. Función optimize(i, j) -- B.2.5. Derivación de la regla de actualización de SMO -- C. Redes neuronales -- C.1. Backpropagation -- C.1.1. Backpropagation con una red de dos capas y neuro-nas lineales -- C.1.2. Derivación de ∂E j con una red de tres capas -- ∂W -- C.1.3. Derivación de ∂E j para cualquier topología de red -- ∂W -- C.2. Consideraciones para aplicar Backpropagation -- C.2.1. Overfitting -- C.2.2. Mínimos locales -- C.2.3. Algoritmo de entrenamiento Resilient Backpropaga-tion
|
650 |
|
4 |
|a PROCESAMIENTO DE SEÑALES
|9 43074
|
650 |
|
4 |
|a APRENDIZAJE AUTOMÁTICO
|9 42949
|
650 |
|
4 |
|a REDES NEURONALES
|9 42953
|
653 |
|
|
|a reconocimiento de gestos
|
653 |
|
|
|a clasificación
|
653 |
|
|
|a máquinas de vectores de soporte
|
653 |
|
|
|a kinect
|
700 |
1 |
|
|a Lanzarini, Laura Cristina ,
|e Director/a
|9 43377
|
700 |
1 |
|
|a Corbalán, Leonardo César ,
|e Codirector/a
|9 44782
|
856 |
4 |
0 |
|u http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977
|
942 |
|
|
|c TE
|
952 |
|
|
|0 0
|1 0
|4 0
|6 TES_1411
|7 1
|9 81306
|a DIF
|b DIF
|d 2025-03-11
|i DIF-04357
|l 0
|o TES 14/11
|p DIF-04357
|r 2025-03-11 17:04:28
|w 2025-03-11
|x CD 760-761
|y TE
|
952 |
|
|
|0 0
|1 0
|4 0
|7 3
|8 BD
|9 81307
|a DIF
|b DIF
|d 2025-03-11
|l 0
|r 2025-03-11 17:04:28
|u http://catalogo.info.unlp.edu.ar/meran/getDocument.pl?id=977
|w 2025-03-11
|y TE
|
999 |
|
|
|c 56122
|d 56122
|