Azure Data Factory es la plataforma que resuelve estos escenarios de datos. Se trata de un servicio de integración de datos y ETL basado en la nube que le permite crear flujos de trabajo orientados a datos a fin de coordinar el movimiento y la transformación de datos a escala.
¿Cómo funciona?
Data Factory contiene una serie de sistemas interconectados que proporcionan una plataforma completa de un extremo a otro para los ingenieros de datos.
Conectar y recopilar
Las empresas tienen datos de varios tipos que se encuentran en orígenes locales dispares, en la nube, estructurados, no estructurados y semiestructurados, que llegan todos según distintos intervalos y velocidades.
Transformar y enriquecer
Cuando los datos están presentes en un almacén de datos centralizado en la nube, procese o transforme los datos recopilados mediante flujos de datos de asignación de ADF.
Conceptos de nivel superior
Una suscripción de Azure puede tener una o varias instancias de Azure Data Factory (o factorías de datos). Azure Data Factory consta de los siguientes componentes principales.
Pipelines
Actividades
Conjuntos de datos
Servicios vinculados
Flujos de datos
Integration Runtime
Estos componentes funcionan juntos para proporcionar la plataforma en la que pueda crear flujos de trabajo basados en datos con pasos para moverlos y transformarlos.
Canalización
Una factoría de datos puede tener una o más canalizaciones. La canalización es una agrupación lógica de actividades para realizar una unidad de trabajo. Juntas, las actividades de una canalización realizan una tarea.
Nuestro curso te permite aprender a tu ritmo. Si quieres aprender Azure Data Factory, uno de los ofertantes top de la nube requerido por muchas empresas en el mundo, este curso te brindara el conocimiento necesario.
Únete a la comunidad de DataHackers, con más de 50 mil alumnos aprendiendo de temas de Data, Analytics y Cloud.
Aprende, Aplica y Crece con DataHack.