DIPLOMA DE ESPECIALIZACIÓN BUSINESS INTELLIGENCE, ANALYTICS Y BIG DATA
El programa abarcó módulos en Business Intelligence, Advanced Analytics, Big Data Technologies, Agile Data y Workshops prácticos.
BOOTCAMP DE DATA ENGINEER
Data Analytics Fundamentals
El programa especializado en Ingeniería de datos cubrió los fundamentos de Data Analytics, Advanced
Analytics, Git y GitHub, Análisis de Datos con Python, Despliegue de APIs de Datos con Python, desarrollo de
Big Data, y procesamiento en tiempo real con Apache Spark y Kafka.
DATA ENGINEERING AZURE SPECIALIZATION
Azure Specialization
El programa especializado en servicios de nube AZURE incluyó una introducción a cloud computing con Azure,
almacenamiento de datos con Azure y Azure Synapse, procesamiento de datos con Azure Databricks y Azure Synapse,
programación de pipelines de datos con Azure Datafactory y Databricks, programación de pipelines de datos con Azure Datafactory y Synapse,
transmisión de datos con Azure, mentoría y talleres de certificación, así como un proyecto final.
DATABRICKS
Databricks Data Engineer
El programa abarcó el uso de Workspaces de Ciencia e Ingeniería de Datos, procesamiento de datos con Spark,
administración de datos con Delta Lake, construcción de pipelines con Delta Live Tables, uso de SQL y Python,
despliegue de cargas de trabajo con Databricks Workflows, gestión del acceso a datos con Unity Catalog, recursos de cómputo y Unity Catalog,
control de acceso a datos con Unity Catalog, así como patrones y mejores prácticas de Unity Catalog.
Spark y Python con PySpark en AWS para Big Data
El curso "Spark y Python con PySpark en AWS para Big Data" cubrió temas como Big Data y la computación paralela, configuración de Spark con AWS,
RDDs en PySpark, Spark SQL y Spark MLLib.
Máster Snowflake - Data Warehouse en la Nube
El curso "Máster Snowflake - Data Warehouse en la Nube" abarcó la arquitectura y almacenamiento de datos,
la carga de datos desde diferentes tipos de fuentes estructuradas y no estructuradas, la configuración de carga de datos masivos en tiempo real con Snowpipe,
la carga de datos desde plataformas en la nube como AWS y GCP, y la conexión de Snowflake con Power BI y Python.
Construcción y Consumo de APIs
El curso "Construcción y Consumo de APIs" incluyó la creación de rutas, generación de endpoints mediante distintos métodos HTTP, manejo de parámetros por la URL,
parámetros query string, y parámetros request body. También cubrió la implementación de MongoDB y PostgreSQL, así como el upload de archivos.
Git en Cloud
El curso "Git en Cloud" abarcó la creación de cuentas en GitHub y GitLab, la instalación en Windows, macOS y Linux,
la configuración de SSH y Push, así como la gestión de cambios mediante comandos como undo changes, cambios en un archivo,
stage, commit-revert y commit-reset. También se enfocó en la creación y fusión de ramas, y en la operación de Push y Pull a un repositorio remoto.
Airflow 2.0
El curso "Airflow 2.0" incluyó la configuración del ambiente de trabajo, la construcción de ETL utilizando DAGs, Tasks, Hooks y XComs,
y el desarrollo de ETLs consumiendo servicios en AWS, Azure y GCP. También se abordó el diseño de ETL con PySpark en Google Cloud.
Python - Contrucción de Sitios Web
El curso "Python - Construcción de Sitios Web" abarcó la creación de un sitio web con Python, el diseño y la implementación de una base de datos para almacenar información,
el desarrollo de una estructura HTML para el sitio web, y la creación de un template administrador para gestionar el sitio web.
Big Data con Hadoop y Spark
El curso "Big Data con Hadoop y Spark" cubrió la gestión de archivos distribuidos con HDFS, el procesamiento de datos distribuidos con MapReduce,
la importación y consulta de datos estructurados con Hive e Impala, el procesamiento ETL de datos con Pig, y el procesamiento de datos en tiempo real con Spark.
SQL Server
El curso "SQL Server" abarcó la instalación y configuración de SQL Server en Windows, los tipos de datos y sus propiedades, así como la creación de vistas,
procedimientos almacenados (Store Procedures), triggers y tipos de datos. Incluyó el manejo de relaciones y restricciones entre tablas,
la manipulación de registros con comandos DML como INSERT, UPDATE, DELETE y SELECT, el uso de cláusulas SQL, funciones de agregación, operadores lógicos, estructuras de control y la automatización con procedimientos almacenados.
Pentaho Profesional Data Integration
El curso "Pentaho Profesional Data Integration" cubrió los componentes de Input y Output, así como los componentes de Scripting, LookUp, Joins, Utility y Flow.
También incluyó el uso de componentes de transferencia de archivos, la migración de datos y la automatización de procesos.
Especialización en .NET DEVELOPER SPECIALIST
El programa incluyó el desarrollo de aplicaciones para Windows, la programación con Microsoft ADO.NET, y un taller de desarrollo .NET.