Uno de los pasos más críticos en cualquier canal de aprendizaje automático (ML) operativo es el servicio de inteligencia artificial (IA), una tarea que suele realizar un motor de servicio de IA.
Los motores de servicio de IA evalúan e interpretan datos en la base de conocimiento, manejan la implementación del modelo y monitorean el desempeño. Representan un mundo completamente nuevo en el que las aplicaciones podrán aprovechar las tecnologías de inteligencia artificial para mejorar la eficiencia operativa y resolver problemas comerciales importantes.
Mejores prácticas
He estado trabajando con los clientes de Redis Labs para comprender mejor sus desafíos al llevar la IA a producción y cómo necesitan diseñar sus motores de servicio de IA. Para ayudar, hemos desarrollado una lista de prácticas recomendadas:
Servicio rápido de principio a fin
Si admite aplicaciones en tiempo real, debe asegurarse de que agregar la funcionalidad de IA en su pila tendrá poco o ningún efecto en el rendimiento de la aplicación.
Sin tiempo de inactividad
Como cada transacción incluye potencialmente algún procesamiento de inteligencia artificial, debe mantener una
SLA estándar, preferiblemente de al menos cinco nueves (99,999%) para aplicaciones de misión crítica, utilizando mecanismos probados como replicación, persistencia de datos, zona / rack de disponibilidad múltiple, distribución geográfica activa-activa, copias de seguridad periódicas y recuperación automática de clústeres .
Escalabilidad
Impulsadas por el comportamiento del usuario, muchas aplicaciones están diseñadas para atender casos de uso pico, desde el Black Friday hasta el gran juego. Necesita la flexibilidad para ampliar o ampliar el motor de servicio de IA en función de sus cargas esperadas y actuales.
Soporte para múltiples plataformas
Su motor de servicio de IA debería poder servir modelos de aprendizaje profundo entrenados por plataformas de vanguardia como TensorFlow o PyTorch. Además, los modelos de aprendizaje automático como el bosque aleatorio y la regresión lineal aún brindan una buena capacidad de predicción para muchos casos de uso y deben ser compatibles con su motor de servicio de IA.
Fácil de implementar nuevos modelos
La mayoría de las empresas quieren tener la opción de actualizar con frecuencia sus modelos de acuerdo con las tendencias del mercado o aprovechar nuevas oportunidades. La actualización de un modelo debe ser lo más transparente posible y no afectar el rendimiento de la aplicación.
Supervisión y reentrenamiento del desempeño
Todos quieren saber qué tan bien se está ejecutando el modelo que entrenaron y poder ajustarlo de acuerdo con qué tan bien se desempeña en el mundo real. Asegúrese de exigir que el motor de servicio de IA admita pruebas A / B para comparar el modelo con un modelo predeterminado. El sistema también debe proporcionar herramientas para clasificar la ejecución de IA de sus aplicaciones.
Implementar en todas partes
En la mayoría de los casos, es mejor construir y capacitar en la nube y poder servir donde lo necesite, por ejemplo: en la nube de un proveedor, en múltiples nubes, en las instalaciones, en nubes híbridas o en el borde. El motor de servicio de IA debe ser independiente de la plataforma, basado en tecnología de código abierto y tener un modelo de implementación bien conocido que pueda ejecutarse en CPU, GPU de última generación, motores de alta potencia e incluso un dispositivo Raspberry Pi.
(Foto de Matt Artz en Unsplash)
¿Está interesado en escuchar a los líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo, y Cyber Security & Cloud Expo World Series, ubicadas en el mismo lugar, con los próximos eventos en Silicon Valley, Londres y Ámsterdam.