


Azure Data Factory
Curso de Azure Data Factory: Desde lo Básico hasta lo Avanzado
Cada sábado tendremos 2 sesiones continuas
Horario: Sábados 11 AM– 1 PM y 3 PM – 5PM
Sábado 28 de junio
🕒 11:00 a.m. – 1:00 p.m. → Sesión 1
🕒 3:00 p.m. – 5:00 p.m. → Sesión 2
Sábado 5 de julio
🕒 11:00 a.m. – 1:00 p.m. → Sesión 3
🕒 3:00 p.m. – 5:00 p.m. → Sesión 4
Sábado 12 de julio
🕒 11:00 a.m. – 1:00 p.m. → Sesión 5
Duracion: 15 Horas academicas / 3 Sábados
🔹 Estructura del Curso:
El curso de Azure Data Factory consta de 5 módulos
Los primeros 3 módulos son completamente gratuitos. Se enfocan en los fundamentos, diseño de pipelines, y uso dinámico con parámetros.
Los módulos 4 y 5 son parte del acceso extendido, con un costo único de $15 USD.
🔹 ¿Qué incluye el acceso extendido de $15 USD?
Este pequeño aporte cubre:
Acceso a las grabaciones completas del curso (todas las sesiones)
Entrega de certificado digital de participación
Acceso a todos los materiales de clase
Posibilidad de participar en el proyecto final práctico con retroalimentación
Soporte para resolver dudas fuera de clase vía canal privado o correo
Temario
🧩 Sesión 1: Fundamentos y Primeros Pasos con ADF
Duración: 2 horas
Objetivo: Introducir Azure Data Factory y construir flujos ETL básicos
Temas:
¿Qué es Azure Data Factory y para qué se utiliza?
Arquitectura general y componentes principales: Pipelines, Datasets, Linked Services, Actividades
Crear tu primer pipeline de copia de datos
Actividades de movimiento y control básico
Conexiones a Data Lake Storage Gen2 y Blob Storage
Práctica guiada: Pipeline de copia de archivos entre contenedores
⚙️ Sesión 2: ETLs Dinámicos y Manejo de Parametrización
Duración: 2 horas
Objetivo: Diseñar flujos dinámicos usando parámetros, variables y estructuras de control
Temas:
Diferencias entre parámetros y variables
Actividades de control: If Condition, Switch, ForEach y Until
Parametrización de datasets y linked services
Plantillas reutilizables y patrones de desarrollo
Práctica guiada: Pipeline parametrizado para mover múltiples archivos dinámicamente
📊 Sesión 3: Integración con Otros Servicios y Data Flow Avanzado
Duración: 2 horas
Objetivo: Enriquecer pipelines conectando con servicios externos y aplicando transformaciones avanzadas
Temas:
Conexión con Azure SQL Database, Data Lake, Blob, REST APIs
Actividad Web y manejo de APIs (headers, métodos, autenticación)
Mapping Data Flows: transformaciones, joins, filter, derived column
Práctica guiada: Transformaciones con Data Flow en pipeline
🧠 Sesión 4: Metadata-Driven en ADF
Duración: 2 horas
Objetivo: Implementar pipelines gobernados por metadatos para escalar sin replicar lógicas
Temas:
¿Qué es una arquitectura metadata-driven?
Diseño de tabla de control en Azure SQL o CSV (configuración de orígenes y destinos)
Lectura de metadata con Lookup y ejecución dinámica
Foreach para orquestar múltiples tareas a partir de una tabla
Ventajas: escalabilidad, menor mantenimiento, trazabilidad
Práctica guiada: Construcción de pipeline metadata-driven para múltiples orígenes/destinos
🚀 Sesión 5: Orquestación, CI/CD y Mejores Prácticas
Duración: 2 horas
Objetivo: Automatizar y profesionalizar flujos con DevOps, seguridad y control
Temas:
Triggers por horario o evento
Azure Key Vault: uso seguro de credenciales y secretos
Integración con Azure DevOps para CI/CD
Despliegue entre entornos (dev-test-prod)
Monitoreo, alertas, logs y manejo de errores
Mejores prácticas para equipos y proyectos reales
Proyecto Final: Flujo completo desde metadatos hasta despliegue
💳 Medios de Pago – Curso Azure Data Factory (Módulos 4 y 5)
Para acceder a los módulos 4 y 5 del curso, además de las grabaciones, materiales completos y tu certificado de participación, realiza tu aporte único de $15 USD (o su equivalente en soles: aprox. S/ 55).
Para obtener los medios de pago https://wa.link/azuredatafactory
🟢 Yape / Plin
🏦 Transferencia Bancaria (Perú)
🌐 Pago Internacional vía PayPal
