Aviva, una de las compañías de seguros más antiguas y establecidas del mundo, ha dado un gran paso hacia la innovación tecnológica mediante la implementación de una plataforma MLOps completamente sin servidores. Con presencia en 16 países y un servicio que llega a más de 33 millones de clientes, la compañía se ha propuesto utilizar la inteligencia artificial y el aprendizaje automático para mejorar sus procesos operativos y ofrecer mejores experiencias a sus usuarios.
Con el apoyo de Amazon Web Services (AWS), Aviva ha desarrollado esta plataforma utilizando el Marco de MLOps Empresarial de AWS y Amazon SageMaker. Esta solución permite integrar las mejores prácticas de DevOps en el ciclo de vida del aprendizaje automático, estandarizando el desarrollo de modelos, optimizando su despliegue y garantizando un monitoreo constante de su desempeño en producción.
Uno de los mayores desafíos que enfrentan las organizaciones al implementar modelos de ML es la operación y el despliegue a gran escala, ya que, según un estudio de Gartner, aproximadamente el 47% de los proyectos de ML nunca llegan a producción. Sin embargo, Aviva, que gestiona aproximadamente 400,000 reclamos de seguros al año, ha logrado superar este reto para soportar una carga de trabajo creciente.
Para demostrar la efectividad de su nueva plataforma, Aviva seleccionó el caso de uso «Remedy», un sistema de gestión de reclamaciones que utiliza un enfoque basado en datos para calcular si las reclamaciones de seguros de automóviles califican como pérdida total o son reparables. Este sistema analiza los costos estimados de reparación en comparación con el valor actual de mercado del vehículo y otros datos relevantes, proporcionando recomendaciones a los manejadores de reclamos.
La implementación exitosa del caso de uso «Remedy» no solo sirvió como modelo para futuros proyectos, sino que también mostró el potencial de la plataforma para manejar la industrialización de modelos de ML mediante soluciones preconfiguradas.
La nueva plataforma MLOps de Aviva emplea una arquitectura modular dividida en bloques que abarcan desde redes hasta plantillas de proyectos de Amazon SageMaker. Estos bloques son implementados en cuentas de AWS designadas para desarrollo, pruebas y producción, facilitando la promoción de modelos con procesos consistentes en todas las etapas.
El flujo de trabajo para el modelo de inferencia combina predicciones del modelo, datos externos y lógica de negocios para generar recomendaciones para los manejadores de reclamos. El sistema está diseñado para descartar vehículos, buscar reparaciones o requerir investigaciones adicionales, garantizando que cada decisión esté basada en una información rigurosa y completa.
Aviva ha logrado implementar una solución rentable, reduciendo los costos de infraestructura en un 90% en comparación con la solución de ML local anterior. Esta transformación le ha permitido a Aviva desplegar cientos de casos de uso de ML en semanas en lugar de meses, fortaleciendo así su capacidad para innovar y adaptarse en el dinámico sector de servicios financieros.
vía: AWS machine learning blog