Inteligencia artificial explicable

Jacinto, Milagros Aylén

Título:
Inteligencia artificial explicable: técnicas de extracción de reglas en redes neuronales artificiales
Autor:
Jacinto, Milagros Aylén
Otros autores / Colaboradores:
 Moschettoni, Martín;  Pons, Claudia Fabiana; [ Director/a]  Pérez, Gabriela; [ Codirector/a] 
Temas:
INTELIGENCIA ARTIFICIAL
URL:
http://sedici.unlp.edu.ar/handle/10915/164808,
Palabras clave:
redes neuronales artificiales, 
Nota de tesis:
Tesina (Licenciatura en Informática) - Universidad Nacional de La Plata. Facultad de Informática, 2024.
Extensión:
1 archivo (2,4 MB) : il. col.
Resumen:
Las redes neuronales artificiales se destacan en tareas complejas, pero su falta de explicabilidad es un claro inconveniente y lleva a denominarlas cajas negras. En muchas aplicaciones, la imposibilidad de comprender y validar el proceso de decisión de un sistema de IA es un claro inconveniente. Por ejemplo, en el diagnóstico médico sería irresponsable y poco prudente depender exclusivamente de las predicciones de un sistema de caja negra. En su lugar, cada decisión debería estar sujeta a una validación adecuada por parte de un profesional experto. Del mismo modo, en numerosos otros contextos, resulta fundamental contar con la capacidad de validar y comprender el funcionamiento de la red neuronal. El uso de modelos de IA explicables e interpretables por humanos es un requisito para ofrecer tal garantía. Como era de esperar, el desarrollo de técnicas para abrir modelos de caja negra ha recibido recientemente mucha atención en la comunidad. Esto incluye el desarrollo de métodos que ayudan a comprender mejor lo que el modelo ha aprendido (es decir, su representación), así como técnicas para explicar predicciones individuales. En el caso de las tareas de clasificación, la extracción de reglas se presenta como una herramienta para mejorar la comprensión de la red y sus resultados. En esta tesina se estudiaron diferentes técnicas de extracción de reglas y sus características en búsqueda de entender como se pueden explicar las redes neuronales artificiales. Se seleccionó una de estas técnicas (RxREN) y se analizó en profundidad su funcionamiento. A partir de RxREN que está orientado a la minería de datos y explicación de los datos originales con los que se entrenó la red neuronal artificial, se diseñó y desarrolló un algoritmo de extracción de reglas llamado FORxREN. FORxREN tiene como objetivo mejorar la explicabilidad de las redes neuronales artificiales debido a que está orientado hacia la extracción de reglas fieles y fácilmente interpretables que puedan esclarecer en parte el razonamiento subyacente de las mismas. FORxREN fue desarrollado en Python, usando bibliotecas populares como Keras, Scikit- Learn y Tensorflow. Se llevaron a cabo pruebas utilizando conjuntos de datos conocidos como Iris, WBC yWine. En este proceso, se entrenaron redes neuronales artificiales, sobre las cuales se aplicó FORxREN para extraer reglas que priorizan la fidelidad y la comprensibilidad. El resultado de esta aplicación consistió en la generación de reglas eles a la red y fácilmente comprensibles.

Puede solicitar más fácilmente el ejemplar con: TES 24/02

Ver índice

La edición contiene los siguientes documentos electrónicos para descargar:

Se cuenta con disponibilidad inmediata para llevar a domicilio.


Disponibilidad Actual Para Préstamo: 1 Disponibilidad Actual Para Sala de Lectura: 0 Cantidad Actual de Reservas: 0 Cantidad Actual de Préstamos: 0

Valoración


Comentarios (0)