Resumen
Prefacio
Métodos
1. Aprendizaje Automático
1.1. Introducción
1.2. Un ejemplo: Reconocimiento de Gestos
1.3. Aplicaciones
1.4. Entrenamiento Supervisado y No Supervisado
1.5. Clasificación
1.5.1. El Perceptrón
1.5.2. Experimentos de clasificación
1.5.3. Generalización .
1.5.4. Sobre-especialización y regularización
1.5.5. Modelo de clasificación con estructura probabilística
1.5.6. Modelo de clasificación multiclase
1.6. Resumen
2. Maquinas de Vectores de Soporte (SVM)
2.1. Introducción
2.2. Clasificador de Márgen Máximo
2.3. Modelo de Márgenes Suaves
2.4. Forma Dual
2.5. Análisis de los valores de αi
2.6. El truco del Kernel
2.7. Adaptación para el reconocimiento multiclase
2.8. Resumen
3. Redes neuronales
3.1. Introducción
3.2. Modelos de redes neuronales artificiales
3.2.1. El Perceptrón: una red neuronal simple
3.3. Redes Feedforward
3.3.1. Varias clases
3.3.2. Capas ocultas
3.3.3. Funciones no lineales
3.3.4. Algoritmo de entrenamiento Backpropagation
3.4. Redes Competitivas
3.4.1. Aprendizaje competitivo en redes “El ganador se lo lleva todo”
3.5. Resumen
4. Gestos
4.1. Introducción
4.2. Clasificaciones
4.2.1. Clasificación de McNeill
4.2.2. Clasificación para su reconocimiento
4.3. Modelado y propiedades de los gestos dinámicos
4.3.1. Modelo de gestos con parametrización temporal
4.3.2. Modelo de gestos con parametrización por longitud de arco
4.4. Resumen
II
Aplicaciones
5. Bases de datos y características para el reconocimiento de gestos
5.1.Introducción
5.2.Base de datos de gestos de letras y números arábigos (LNHG)
5.3.El Kinect y su SDK
5.3.1. Kinect
5.3.2. SDK y Algoritmo de tracking del cuerpo
5.4.Preprocesamiento
5.4.1. Rotación
5.4.2. Suavizado
5.4.3. Re-muestreo
5.5.Características
5.5.1. Versiones discretas de las propiedades de los gestos
5.6. Base de datos de gestos Celebi2013
5.7. Resumen
6. El Clasificador Neuronal Competitivo (CNC)
6.1. Introducción
6.2. Clasificador Neuronal Competitivo
6.2.1. Adaptación y funcionamiento de cada red
6.2.2. Combinación de los resultados de cada red
6.2.3. Bagging
6.2.4. Entrada al CNC
6.3. Modelos de reconocimiento a comparar
6.3.1. Support Vector Machine (SVM)
6.3.2. Redes Neuronales Feedforward (FF)
6.3.3. Clasificador basado en templates
6.4. Resumen
7. Experimentos y resultados
7.1. Introducción
7.2. Experimentos con base de datos LNHG
7.2.1. SVM
7.2.2. Feedforward
7.2.3. Templates
7.2.4. CNC
7.2.5. Comparación
7.3. Experimentos con base de datos Celebi2013
7.4. Resumen
8. Conclusiones generales y trabajos futuros
A. Aprendizaje automático
A.1. Validación cruzada
A.1.1. VC de k-iteraciones
A.1.2. VC dejando-uno-afuera
A.1.3. VC aleatoria
A.1.4. VC estratificada
A.1.5. Pruebas de hipótesis con VC
A.2. Funciones de pérdida
B. SVM
B.1. Condiciones KKT, Lagrangiano y Dual de Wolfe
B.1.1. Condiciones KKT
B.1.2. Problema Dual
B.2. Algoritmo de optimización SMO
B.2.1. Optimización de L D
B.2.2. Regla de actualización para α1 y α2
B.2.3. Elección de las variables αi y α j y pseudocódigo del algoritmo
B.2.4. Función optimize(i, j)
B.2.5. Derivación de la regla de actualización de SMO
C. Redes neuronales
C.1. Backpropagation
C.1.1. Backpropagation con una red de dos capas y neuro-nas lineales
C.1.2. Derivación de ∂E j con una red de tres capas
∂W
C.1.3. Derivación de ∂E j para cualquier topología de red
∂W
C.2. Consideraciones para aplicar Backpropagation
C.2.1. Overfitting
C.2.2. Mínimos locales
C.2.3. Algoritmo de entrenamiento Resilient Backpropaga-tion