Capítulo 1: Introducción
1.1 Motivación
1.2 Objetivos
1.2.1 Generales
1.2.2 Específicos
1.3 Resultados esperados
1.4 Estructura de la tesina
Capítulo 2: Información preliminar
2.1 Machine Learning
2.1.1 Problemas de Clasificación y Regresión
2.1.2 Datos de Entrenamiento y de Prueba
2.1.3 Métricas
2.2 Redes Neuronales y Deep Learning
2.3 Entrenamiento
2.3.1 Inicialización de pesos
2.3.2 Regularización
2.3.3 Batch size
2.3.4 Ratio de aprendizaje
2.3.5 Métodos de optimización
SGD
Momentum
RMSProp
Adam
2.3.6 Batch Normalization
2.4 Imágenes
2.5 Redes Neuronales Convolucionales (CNNs)
2.5.1 Estructura de las redes convolucionales
2.5.1.1 Capa convolucional
2.5.1.2 Capa de agrupación
2.5.1.3 Capa totalmente conectada
Capítulo 3: Visualización de Redes Neuronales Convolucionales
3.1 Mapeo de activación de clase (CAM)
3.2 Mapeo de activación de clases ponderado por gradiente (Grad-CAM)
3.3 Explicaciones Locales Interpretables Independientes del Modelo (LIME)
3.4 Explicaciones aditivas SHapley (SHAP)
3.5 Arquitecturas de CNNs consideradas
LeNet-5 [23]
VGG-16 [24]
ResNets [26]
Inception [27]
3.6 Transferencia de aprendizaje (Transfer Learning)
Capítulo 4: Desarrollo.
4.1 Implementaciones de los métodos de visualización
4.1.1 Método CAM
4.1.2 Método Grad-CAM
4.1.3 Método LIME
4.1.4 Método SHAP
4.2 Comparativa entre los métodos vistos para diferentes arquitecturas
4.2.1 Visualización sobre los resultados de VGG16
4.2.2 Visualización sobre los resultados de ResNet50
4.3 Conclusiones e información general
Capítulo 5: Herramienta propuesta
5.1 Herramientas y frameworks adicionales
● Framework para la aplicación web: Flask [40]
● Gestor de entornos - Miniconda [43]
● Librerías para uso de GPU - CUDA [45] y cuDNN[46]
5.2 Decisiones durante el desarrollo
5.3 Funcionamiento de la aplicación
5.3.1 Configuración del método SHAP
5.3.2 Configuración del método LIME
5.3.3 Configuración del método Grad-CAM
5.4 Procesamiento de la imagen
Capítulo 6: Conclusiones y trabajos futuros
Referencias