Cover Image for Azure Data Factory
Cover Image for Azure Data Factory
Avatar for Hazlo con Datos
Presented by
Hazlo con Datos
Difusion de talleres y recursos sobre inteligencia artificial, big data y cloud. Link Whatsapp: https://chat.whatsapp.com/HwQ4BINcd2U4FTIAb9MTmj
109 Going

Azure Data Factory

Register to See Address
Registration
Welcome! To join the event, please register below.
About Event

Curso de Azure Data Factory: Desde lo Básico hasta lo Avanzado

Cada sábado tendremos 2 sesiones continuas

Horario: Sábados 11 AM– 1 PM y 3 PM – 5PM  

  1. Sábado 28 de junio

    • 🕒 11:00 a.m. – 1:00 p.m. → Sesión 1

    • 🕒 3:00 p.m. – 5:00 p.m. → Sesión 2

  2. Sábado 5 de julio

    • 🕒 11:00 a.m. – 1:00 p.m. → Sesión 3

    • 🕒 3:00 p.m. – 5:00 p.m. → Sesión 4

  3. Sábado 12 de julio

    • 🕒 11:00 a.m. – 1:00 p.m. → Sesión 5

Duracion: 15 Horas academicas / 3 Sábados

🔹 Estructura del Curso:

  • El curso de Azure Data Factory consta de 5 módulos

  • Los primeros 3 módulos son completamente gratuitos. Se enfocan en los fundamentos, diseño de pipelines, y uso dinámico con parámetros.

  • Los módulos 4 y 5 son parte del acceso extendido, con un costo único de $15 USD.


🔹 ¿Qué incluye el acceso extendido de $15 USD?

Este pequeño aporte cubre:

  • Acceso a las grabaciones completas del curso (todas las sesiones)

  • Entrega de certificado digital de participación

  • Acceso a todos los materiales de clase

  • Posibilidad de participar en el proyecto final práctico con retroalimentación

  • Soporte para resolver dudas fuera de clase vía canal privado o correo


Temario

🧩 Sesión 1: Fundamentos y Primeros Pasos con ADF

Duración: 2 horas

Objetivo: Introducir Azure Data Factory y construir flujos ETL básicos

Temas:

  • ¿Qué es Azure Data Factory y para qué se utiliza?

  • Arquitectura general y componentes principales: Pipelines, Datasets, Linked Services, Actividades

  • Crear tu primer pipeline de copia de datos

  • Actividades de movimiento y control básico

  • Conexiones a Data Lake Storage Gen2 y Blob Storage

  • Práctica guiada: Pipeline de copia de archivos entre contenedores


⚙️ Sesión 2: ETLs Dinámicos y Manejo de Parametrización

Duración: 2 horas

Objetivo: Diseñar flujos dinámicos usando parámetros, variables y estructuras de control

Temas:

  • Diferencias entre parámetros y variables

  • Actividades de control: If Condition, Switch, ForEach y Until

  • Parametrización de datasets y linked services

  • Plantillas reutilizables y patrones de desarrollo

  • Práctica guiada: Pipeline parametrizado para mover múltiples archivos dinámicamente


📊 Sesión 3: Integración con Otros Servicios y Data Flow Avanzado

Duración: 2 horas

Objetivo: Enriquecer pipelines conectando con servicios externos y aplicando transformaciones avanzadas

Temas:

  • Conexión con Azure SQL Database, Data Lake, Blob, REST APIs

  • Actividad Web y manejo de APIs (headers, métodos, autenticación)

  • Mapping Data Flows: transformaciones, joins, filter, derived column

  • Práctica guiada: Transformaciones con Data Flow en pipeline


🧠 Sesión 4: Metadata-Driven en ADF

Duración: 2 horas

Objetivo: Implementar pipelines gobernados por metadatos para escalar sin replicar lógicas

Temas:

  • ¿Qué es una arquitectura metadata-driven?

  • Diseño de tabla de control en Azure SQL o CSV (configuración de orígenes y destinos)

  • Lectura de metadata con Lookup y ejecución dinámica

  • Foreach para orquestar múltiples tareas a partir de una tabla

  • Ventajas: escalabilidad, menor mantenimiento, trazabilidad

  • Práctica guiada: Construcción de pipeline metadata-driven para múltiples orígenes/destinos


🚀 Sesión 5: Orquestación, CI/CD y Mejores Prácticas

Duración: 2 horas

Objetivo: Automatizar y profesionalizar flujos con DevOps, seguridad y control

Temas:

  • Triggers por horario o evento

  • Azure Key Vault: uso seguro de credenciales y secretos

  • Integración con Azure DevOps para CI/CD

  • Despliegue entre entornos (dev-test-prod)

  • Monitoreo, alertas, logs y manejo de errores

  • Mejores prácticas para equipos y proyectos reales

  • Proyecto Final: Flujo completo desde metadatos hasta despliegue

💳 Medios de Pago – Curso Azure Data Factory (Módulos 4 y 5)

Para acceder a los módulos 4 y 5 del curso, además de las grabaciones, materiales completos y tu certificado de participación, realiza tu aporte único de $15 USD (o su equivalente en soles: aprox. S/ 55).

Para obtener los medios de pago https://wa.link/azuredatafactory


🟢 Yape / Plin


🏦 Transferencia Bancaria (Perú)


🌐 Pago Internacional vía PayPal

Avatar for Hazlo con Datos
Presented by
Hazlo con Datos
Difusion de talleres y recursos sobre inteligencia artificial, big data y cloud. Link Whatsapp: https://chat.whatsapp.com/HwQ4BINcd2U4FTIAb9MTmj
109 Going