Pasar al contenido principal

Estudiar Técnico en Ingeniería de Datos con Databricks

Adquirí conocimientos y herramientas prácticas en el mundo del Big Data y la ingeniería de datos en la nube utilizando la plataforma líder en el sector: Databricks.

Diseñá e implementá pipelines de ingesta y transformación con Apache Spark, automatizá flujos con Lakeflow Jobs y Declarative Pipelines, gestioná conexiones con Lakeflow Connect y asegurá gobernanza con Unity Catalog.

¿En qué sedes puedo estudiar este Curso Libre?

Metodología 100% virtual

¿Cuánto dura este Curso Libre?

4 módulos bimestrales

 

Potenciá los conocimientos y habilidades necesarios para trabajar con grandes volúmenes de datos, desde la ingesta y procesamiento hasta la automatización y orquestación de tuberías de datos.

  • Técnico orientado a profesionales y entusiastas.
  • Para iniciar el camino en Big Data y ingeniería de datos en la nube.
  • Uso de la plataforma líder: Databricks.
  • Enfoque en conocimientos y herramientas prácticas para trabajar con datos.
  • Metodología 100% online.
  • Laboratorios y casos de estudio.

Título noveno año.

MÓDULO 1: Fundamentos de Computación en la Nube & Databricks

  • Fundamentos de la computación en la nube ( Conceptos básicos, Proveedores : Azure, AWS, GCP).
  • Fundamentos de Databricks. ¿Qué es Databricks? Introducción y arquitectura general.
  • La historia de Databricks.
  • Data Lakehouses e Inteligencia de Datos.
  • Arquitectura de Databricks.
  • Seguridad y Gobernanza en Databricks.
  • Productos y Funcionalidades de Databricks.

MÓDULO 2: Apache Spark - Ingesta de Datos con Lakeflow Connect

  • Introducción a Apache Spark.
  • Arquitectura de ejecución de Apache Spark.
  • Introducción a DataFrames y SQL en Apache Spark.
  • Fundamentos de programación en sistemas distribuidos.
  • Operaciones ETL básicas con la API de DataFrames.

MÓDULO 3: Ingeniería de Datos en Databricks Lakeflow Jobs- Lakeflow Pipelines Despliegue de Cargas de Trabajo con Lakeflow Jobs

  • Introducción a la Ingeniería de Datos en Databricks.
  • Componentes principales de Lakeflow Jobs.
  • Creación y programación de Jobs.
  • Funcionalidades avanzadas de Lakeflow Jobs Construcción de Canalizaciones de Datos con Lakeflow Declarative Pipelines.
  • Fundamentos de Lakeflow Declarative Pipelines.
  • Construcción de canalizaciones declarativas con Lakeflow.

MÓDULO 4: Gestión y Gobernanza de Datos con Unity Catalog- Prep Examen Certificación

  • Gobernanza de datos en Unity Catalog.
  • Organización y patrones de acceso.
  • Seguridad y administración en Unity Catalog.
  • Privilegios en Unity Catalog.
  • Control de acceso detallado.
  • Monitoreo en Lakehouse de datos transformados.

Ingesta de Datos con Lakeflow Connect.

  • Ingeniería de Datos.
  • Introducción a la Ingeniería de Datos en Databricks.
  • Lakeflow Connect: conectores estándar.
  • Lakeflow Connect: conectores administrados.
  • Alternativas de ingesta.