Predicción de latencia en microservicios con modelos de deep learning

Lanza, Ezequiel

Título:
Predicción de latencia en microservicios con modelos de deep learning
Autor:
Lanza, Ezequiel
Colaboradores:
Lanzarini, Laura CristinaEstrebou, César Armando
Temas:
DESARROLLO DE SOFTWARE
En:
Congreso Argentino de Ciencias de la Computación (30mo : 2024 : La Plata, Argentina)
Resumen:
La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, operan en cualquier entorno, pueden dividirse en módulos pequeños y son autosuficientes. En sistemas a gran escala, gestionar manualmente aplicaciones con cientos o miles de contenedores es complejo, por lo que la orquestación de contenedores es esencial. Actualmente, Kubernetes es el orquestador open source más utilizado, manejando instancias de microservicios (pequeños servicios independientes que se comunican a través de API) y alojándolos en plataformas adecuadas (Pods). Sin embargo, el rendimiento de los microservicios en un clúster de Kubernetes puede degradarse de manera impredecible, generalmente manifestándose en mayores tiempos de respuesta, un indicador clave de confiabilidad. Este artículo presenta la línea de investigación y las tareas que se están desarrollando en el marco de una tesis correspondiente a la carrera de Maestría en Ciencia de Datos de la Universidad Austral (CABA, Bs.As.) cuyo objetivo es predecir la latencia de respuesta de extremo a extremo en una arquitectura de cloud-native (microservicios) sobre un caso de estudio concreto. Actualmente se está trabajando en el desarrollo de un modelo que sea capaz de predecir la latencia futura de un microservicio usando múltiples variables, estudiando especialmente los modelos basados en Transformers que, si bien han demostrado ser útiles para anticipar comportamientos inestables o para la comprensión de texto, aún no se han utilizado para predecir latencias. Se buscará comparar estas arquitecturas con métodos clásicos ampliamente utilizados para esta predicción, utilizando una implementación de referencia de microservicios para el benchmarking de aplicaciones.
URL/DOI:
http://sedici.unlp.edu.ar/handle/10915/176277
Palabras clave:
aprendizaje profundo
Medio:
Soporte electrónico
Tipo de documento:
Artículo
Descripción física:
1 archivo (396 KB)
Idioma:
Español
Publicación:
, 2024

Puede solicitar más fácilmente el ejemplar con: A1385

Ver estantes

La edición contiene los siguientes documentos electrónicos para descargar:

En este momento no hay ningún ejemplar disponible.


Disponibilidad Actual Para Préstamo: 0 Disponibilidad Actual Para Sala de Lectura: 0 Cantidad Actual de Reservas: 0 Cantidad Actual de Préstamos: 0

Valoración


Comentarios (0)