Bienvenido a este curso 100% práctico y aplicado en el que podrás aprender de forma intuitiva, guiada y paso-a-paso el despliegue de modelos Deep Learning para ambientes de Desarrollo y principalmente para Producción en escenarios de alto desempeño usando la librería TensorFlow 2.0 y la creación de servicios REST.
Estructura temática:
¿Por qué desplegar modelos Deep Learning?
Despliegue en Desarrollo vs Producción
Servidores de despliegue en la Nube: Google Cloud Platform (GCP) y CentOS
Despliegue de modelos en la nube como Servicio Web REST desde cero (APIs)
Gestor de contenedores Docker para despliegues en Producción (Docker Swarm, TensorFlow Serving)
Implementación de llamadas al Servicio Web desde cero
Consideraciones técnicas para el despliegue de modelos Deep Learning
DevOps y Machine Learning / MLOps | IAOps | XXOps
Interoperabilidad de modelos: ONNX.
Despliegue Customizado vs Plataformas
100% práctico:
El curso prioriza el desarrollo de algoritmos en sesiones de laboratorio y actividades de programación 100% hands-on con los que podrás reproducir cada una de las líneas de código con explicaciones muy bien detalladas, sin descuidar los fundamentos teóricos de cada uno de los conceptos descritos.
Herramientas:
Todas las herramientas necesarias para el curso se podrán configurar directamente en la nube de Google; por tanto, no será necesario invertir tiempo en instalaciones de herramienta de forma local.
El curso se desarrolla con las herramientas más populares y de alta madurez del ecosistema de Python 3.0 como:
TensorFlow 2.0
TensorFlow Serving
Flask
FastAPI
El despliegue se realiza utilizando la nube de Google (Google Cloud Platform - GCP) en la que se configura paso a paso una máquina virtual (virtual machine) usando la distribución Linux CentOS como sistema operativo del servidor. Además, se utilizan para el despliegue los siguientes frameworks, librerías y herramientas:
Docker
Docker Swarm
Swagger
Promethous y grafana (Monitoreo)