Foto de portada de Azure Data Factory - Sesion 3
Foto de portada de Azure Data Factory - Sesion 3
Avatar for Hazlo con Datos
Presentado por
Hazlo con Datos
Difusion de talleres y recursos sobre inteligencia artificial, big data y cloud. Link Whatsapp: https://chat.whatsapp.com/HwQ4BINcd2U4FTIAb9MTmj
Organizado por
35 asistirán

Azure Data Factory - Sesion 3

Regístrate para ver la dirección
Inscripción
¡Bienvenido! Para unirte al evento, por favor regístrate a continuación.
Acerca del evento

Curso de Azure Data Factory: Desde lo Básico hasta lo Avanzado

Cada sábado tendremos 2 sesiones continuas

Horario: Sábados 11 AM– 1 PM y 3 PM – 5PM  

  1. Sábado 28 de junio

    • ​🕒 11:00 a.m. – 1:00 p.m. → Sesión 1

    • ​🕒 3:00 p.m. – 5:00 p.m. → Sesión 2

  2. Sábado 12 de julio

    • ​🕒 11:00 a.m. – 1:00 p.m. → Sesión 3

    • ​🕒 3:00 p.m. – 5:00 p.m. → Sesión 4

  3. Sábado 19 de julio

    • ​🕒 11:00 a.m. – 1:00 p.m. → Sesión 5

Duracion: 15 Horas academicas / 3 Sábados

🔹 Estructura del Curso:

  • El curso de Azure Data Factory consta de 5 módulos

  • Los primeros 3 módulos son completamente gratuitos. Se enfocan en los fundamentos, diseño de pipelines, y uso dinámico con parámetros.

  • Los módulos 4 y 5 son parte del acceso extendido, con un costo único de $15 USD.


🔹 ¿Qué incluye el acceso extendido de $15 USD?

​Este pequeño aporte cubre:

  • ​Acceso a las grabaciones completas del curso (todas las sesiones)

  • ​Entrega de certificado digital de participación

  • ​Acceso a todos los materiales de clase

  • ​Posibilidad de participar en el proyecto final práctico con retroalimentación

  • ​Soporte para resolver dudas fuera de clase vía canal privado o correo


​Temario

​🧩 Sesión 1: Fundamentos y Primeros Pasos con ADF

​Duración: 2 horas

​Objetivo: Introducir Azure Data Factory y construir flujos ETL básicos

​Temas:

  • ​¿Qué es Azure Data Factory y para qué se utiliza?

  • ​Arquitectura general y componentes principales: Pipelines, Datasets, Linked Services, Actividades

  • ​Crear tu primer pipeline de copia de datos

  • ​Actividades de movimiento y control básico

  • ​Conexiones a Data Lake Storage Gen2 y Blob Storage

  • ​Práctica guiada: Pipeline de copia de archivos entre contenedores


​⚙️ Sesión 2: ETLs Dinámicos y Manejo de Parametrización

​Duración: 2 horas

​Objetivo: Diseñar flujos dinámicos usando parámetros, variables y estructuras de control

​Temas:

  • ​Diferencias entre parámetros y variables

  • ​Actividades de control: If Condition, Switch, ForEach y Until

  • ​Parametrización de datasets y linked services

  • ​Plantillas reutilizables y patrones de desarrollo

  • ​Práctica guiada: Pipeline parametrizado para mover múltiples archivos dinámicamente


​📊 Sesión 3: Integración con Otros Servicios y Data Flow Avanzado

​Duración: 2 horas

​Objetivo: Enriquecer pipelines conectando con servicios externos y aplicando transformaciones avanzadas

​Temas:

  • ​Conexión con Azure SQL Database, Data Lake, Blob, REST APIs

  • ​Actividad Web y manejo de APIs (headers, métodos, autenticación)

  • ​Mapping Data Flows: transformaciones, joins, filter, derived column

  • ​Práctica guiada: Transformaciones con Data Flow en pipeline


​🧠 Sesión 4: Metadata-Driven en ADF

​Duración: 2 horas

​Objetivo: Implementar pipelines gobernados por metadatos para escalar sin replicar lógicas

​Temas:

  • ​¿Qué es una arquitectura metadata-driven?

  • ​Diseño de tabla de control en Azure SQL o CSV (configuración de orígenes y destinos)

  • ​Lectura de metadata con Lookup y ejecución dinámica

  • ​Foreach para orquestar múltiples tareas a partir de una tabla

  • ​Ventajas: escalabilidad, menor mantenimiento, trazabilidad

  • ​Práctica guiada: Construcción de pipeline metadata-driven para múltiples orígenes/destinos


​🚀 Sesión 5: Orquestación, CI/CD y Mejores Prácticas

​Duración: 2 horas

​Objetivo: Automatizar y profesionalizar flujos con DevOps, seguridad y control

​Temas:

  • ​Triggers por horario o evento

  • ​Azure Key Vault: uso seguro de credenciales y secretos

  • ​Integración con Azure DevOps para CI/CD

  • ​Despliegue entre entornos (dev-test-prod)

  • ​Monitoreo, alertas, logs y manejo de errores

  • ​Mejores prácticas para equipos y proyectos reales

  • ​Proyecto Final: Flujo completo desde metadatos hasta despliegue

​💳 Medios de Pago – Curso Azure Data Factory (Módulos 4 y 5)

​Para acceder a los módulos 4 y 5 del curso, además de las grabaciones, materiales completos y tu certificado de participación, realiza tu aporte único de $15 USD (o su equivalente en soles: aprox. S/ 55).

​Para obtener los medios de pago https://wa.link/azuredatafactory


🟢 Yape / Plin


🏦 Transferencia Bancaria (Perú)


🌐 Pago Internacional vía PayPal

Avatar for Hazlo con Datos
Presentado por
Hazlo con Datos
Difusion de talleres y recursos sobre inteligencia artificial, big data y cloud. Link Whatsapp: https://chat.whatsapp.com/HwQ4BINcd2U4FTIAb9MTmj
Organizado por
35 asistirán