Estudiar Técnico en Ingeniería de Datos con Databricks
Adquirí conocimientos y herramientas prácticas en el mundo del Big Data y la ingeniería de datos en la nube utilizando la plataforma líder en el sector: Databricks.
Diseñá e implementá pipelines de ingesta y transformación con Apache Spark, automatizá flujos con Lakeflow Jobs y Declarative Pipelines, gestioná conexiones con Lakeflow Connect y asegurá gobernanza con Unity Catalog.
¿En qué sedes puedo estudiar este Curso Libre?
Metodología 100% virtual
¿Cuánto dura este Curso Libre?
4 módulos bimestrales
Potenciá los conocimientos y habilidades necesarios para trabajar con grandes volúmenes de datos, desde la ingesta y procesamiento hasta la automatización y orquestación de tuberías de datos.
- Técnico orientado a profesionales y entusiastas.
- Para iniciar el camino en Big Data y ingeniería de datos en la nube.
- Uso de la plataforma líder: Databricks.
- Enfoque en conocimientos y herramientas prácticas para trabajar con datos.
- Metodología 100% online.
- Laboratorios y casos de estudio.
Título noveno año.
MÓDULO 1: Fundamentos de Computación en la Nube & Databricks
- Fundamentos de la computación en la nube ( Conceptos básicos, Proveedores : Azure, AWS, GCP).
- Fundamentos de Databricks. ¿Qué es Databricks? Introducción y arquitectura general.
- La historia de Databricks.
- Data Lakehouses e Inteligencia de Datos.
- Arquitectura de Databricks.
- Seguridad y Gobernanza en Databricks.
- Productos y Funcionalidades de Databricks.
MÓDULO 2: Apache Spark - Ingesta de Datos con Lakeflow Connect
- Introducción a Apache Spark.
- Arquitectura de ejecución de Apache Spark.
- Introducción a DataFrames y SQL en Apache Spark.
- Fundamentos de programación en sistemas distribuidos.
- Operaciones ETL básicas con la API de DataFrames.
MÓDULO 3: Ingeniería de Datos en Databricks Lakeflow Jobs- Lakeflow Pipelines Despliegue de Cargas de Trabajo con Lakeflow Jobs
- Introducción a la Ingeniería de Datos en Databricks.
- Componentes principales de Lakeflow Jobs.
- Creación y programación de Jobs.
- Funcionalidades avanzadas de Lakeflow Jobs Construcción de Canalizaciones de Datos con Lakeflow Declarative Pipelines.
- Fundamentos de Lakeflow Declarative Pipelines.
- Construcción de canalizaciones declarativas con Lakeflow.
MÓDULO 4: Gestión y Gobernanza de Datos con Unity Catalog- Prep Examen Certificación
- Gobernanza de datos en Unity Catalog.
- Organización y patrones de acceso.
- Seguridad y administración en Unity Catalog.
- Privilegios en Unity Catalog.
- Control de acceso detallado.
- Monitoreo en Lakehouse de datos transformados.
Ingesta de Datos con Lakeflow Connect.
- Ingeniería de Datos.
- Introducción a la Ingeniería de Datos en Databricks.
- Lakeflow Connect: conectores estándar.
- Lakeflow Connect: conectores administrados.
- Alternativas de ingesta.