Curriculum

Experiencia Laboral

Arquitecto de datos 2021 - 2023 | Edpyme Acceso Crediticio S.A


En mi función como Arquitecto de datos, lideré la creación estratégica de modelos de base de datos, diseñados para optimizar la estructura y accesibilidad de la información:

  • Desarrollar modelos de base de datos.
  • Construir, integrar, automatizar y gestionar procesos de almacenamiento de datos.
  • Analizar y desarrollar Datamarts.
  • Diseñar e implementar paneles de control visuales con Power Bi.

  • Logros destacados:


  • Implementé un proceso ETL batch diario que optimizó la migración de datos y mejoró la integridad para análisis.
  • Desarrollé Datamarts especializados que facilitaron la gestión de datos para diferentes departamentos.
  • Creé paneles visuales interactivos que mejoraron la toma de decisiones basada en datos.



  • Coordinador de desarrollo 2018 - 2021 | Edpyme Acceso Crediticio S.A


    En mi rol como Coordinador de Desarrollo, lideré exitosamente equipos de desarrollo, fomentando un entorno colaborativo y orientado a resultados. Mi responsabilidad incluyó:

  • Liderar equipo de desarrollo.
  • Elaborar planes de desarrollo e implementación de tareas.

  • Logros destacados:

  • Automatización de Procesos Batch para Información Auditada: Coordiné con las áreas de Riesgos, Contabilidad, Finanzas y Operaciones para identificar necesidades específicas. Implementé procesos batch para la información auditada por la entidad supervisora, logrando una automatización eficiente y un envío preciso de los datos.



  • Analista de desarrollo 2015 - 2018 | Edpyme Acceso Crediticio S.A


    En mi rol como Analista de desarrollo, desempeñé un papel clave en la optimización de procesos a través de:

  • Identificar y mejorar procesos.
  • Definir y comunicar los requerimientos de usuarios.
  • Elaborar planes basados en los requerimientos de usuarios. Elaboración de documentación técnica.

  • Logros destacados:

  • Implementación de Herramientas ETL: Inicié y lideré la implementación de herramientas ETL para agilizar y optimizar los procesos de transferencia de datos entre diferentes servidores, mejorando la eficiencia y la integridad de los datos.



  • Programador 2011 - 2015 | Edpyme Acceso Crediticio S.A


    Durante mi tiempo como Programador, desempeñé un papel fundamental en la garantía de la eficiencia operativa mediante:

  • Mantenimiento y actualización de programas.
  • Identificar y corregir códigos de programación.
  • Desarrollar requerimientos.
  • Controlar y validar procesos.



  • Programador en desarrollo .NET 2009 - 2010 | Kourus TEC


    En mi rol como Programador en Desarrollo .NET, Contribuí activamente al desarrollo de requerimientos, participando en la creación de soluciones robustas y eficientes

  • Coordinar y desarrollar requerimientos.
  • Controlar y validar procesos.



  • Practicante de laboratorio 2008 - 2009 | Universidad Alas Peruanas


    Durante mi práctica en la Escuela de Ingeniería de Sistemas e Informática, asumí la responsabilidad de supervisar y mantener equipos de cómputo para garantizar su funcionamiento.

  • Supervisar el mantenimiento de equipos de cómputo.
  • Instalación de software.
  • Formación

    2024

    El Instituto Latinoamericano de Empresas y Negocios (ILEN)

    DIPLOMA DE ESPECIALIZACIÓN BUSINESS INTELLIGENCE, ANALYTICS Y BIG DATA


    El programa abarcó módulos en Business Intelligence, Advanced Analytics, Big Data Technologies, Agile Data y Workshops prácticos.


    2024

    Datapath

    BOOTCAMP DE DATA ENGINEER


    Data Analytics Fundamentals

    El programa especializado en Ingeniería de datos cubrió los fundamentos de Data Analytics, Advanced Analytics, Git y GitHub, Análisis de Datos con Python, Despliegue de APIs de Datos con Python, desarrollo de Big Data, y procesamiento en tiempo real con Apache Spark y Kafka.


    2024

    Datapath

    DATA ENGINEERING AZURE SPECIALIZATION


    Azure Specialization

    El programa especializado en servicios de nube AZURE incluyó una introducción a cloud computing con Azure, almacenamiento de datos con Azure y Azure Synapse, procesamiento de datos con Azure Databricks y Azure Synapse, programación de pipelines de datos con Azure Datafactory y Databricks, programación de pipelines de datos con Azure Datafactory y Synapse, transmisión de datos con Azure, mentoría y talleres de certificación, así como un proyecto final.


    2024

    Datapath

    DATABRICKS


    Databricks Data Engineer

    El programa abarcó el uso de Workspaces de Ciencia e Ingeniería de Datos, procesamiento de datos con Spark, administración de datos con Delta Lake, construcción de pipelines con Delta Live Tables, uso de SQL y Python, despliegue de cargas de trabajo con Databricks Workflows, gestión del acceso a datos con Unity Catalog, recursos de cómputo y Unity Catalog, control de acceso a datos con Unity Catalog, así como patrones y mejores prácticas de Unity Catalog.


    2024

    Udemy

    Spark y Python con PySpark en AWS para Big Data


    El curso "Spark y Python con PySpark en AWS para Big Data" cubrió temas como Big Data y la computación paralela, configuración de Spark con AWS, RDDs en PySpark, Spark SQL y Spark MLLib.


    2024

    Udemy

    Máster Snowflake - Data Warehouse en la Nube


    El curso "Máster Snowflake - Data Warehouse en la Nube" abarcó la arquitectura y almacenamiento de datos, la carga de datos desde diferentes tipos de fuentes estructuradas y no estructuradas, la configuración de carga de datos masivos en tiempo real con Snowpipe, la carga de datos desde plataformas en la nube como AWS y GCP, y la conexión de Snowflake con Power BI y Python.


    2024

    Datapath

    Construcción y Consumo de APIs


    El curso "Construcción y Consumo de APIs" incluyó la creación de rutas, generación de endpoints mediante distintos métodos HTTP, manejo de parámetros por la URL, parámetros query string, y parámetros request body. También cubrió la implementación de MongoDB y PostgreSQL, así como el upload de archivos.


    2023

    Datapath

    Git en Cloud


    El curso "Git en Cloud" abarcó la creación de cuentas en GitHub y GitLab, la instalación en Windows, macOS y Linux, la configuración de SSH y Push, así como la gestión de cambios mediante comandos como undo changes, cambios en un archivo, stage, commit-revert y commit-reset. También se enfocó en la creación y fusión de ramas, y en la operación de Push y Pull a un repositorio remoto.


    2023

    Datapath

    Airflow 2.0


    El curso "Airflow 2.0" incluyó la configuración del ambiente de trabajo, la construcción de ETL utilizando DAGs, Tasks, Hooks y XComs, y el desarrollo de ETLs consumiendo servicios en AWS, Azure y GCP. También se abordó el diseño de ETL con PySpark en Google Cloud.


    2023

    Udemy

    Python - Contrucción de Sitios Web


    El curso "Python - Construcción de Sitios Web" abarcó la creación de un sitio web con Python, el diseño y la implementación de una base de datos para almacenar información, el desarrollo de una estructura HTML para el sitio web, y la creación de un template administrador para gestionar el sitio web.


    2023

    Udemy

    Big Data con Hadoop y Spark


    El curso "Big Data con Hadoop y Spark" cubrió la gestión de archivos distribuidos con HDFS, el procesamiento de datos distribuidos con MapReduce, la importación y consulta de datos estructurados con Hive e Impala, el procesamiento ETL de datos con Pig, y el procesamiento de datos en tiempo real con Spark.


    2021

    Udemy

    SQL Server


    El curso "SQL Server" abarcó la instalación y configuración de SQL Server en Windows, los tipos de datos y sus propiedades, así como la creación de vistas, procedimientos almacenados (Store Procedures), triggers y tipos de datos. Incluyó el manejo de relaciones y restricciones entre tablas, la manipulación de registros con comandos DML como INSERT, UPDATE, DELETE y SELECT, el uso de cláusulas SQL, funciones de agregación, operadores lógicos, estructuras de control y la automatización con procedimientos almacenados.


    2020

    Pentaho Peru

    Pentaho Profesional Data Integration


    El curso "Pentaho Profesional Data Integration" cubrió los componentes de Input y Output, así como los componentes de Scripting, LookUp, Joins, Utility y Flow. También incluyó el uso de componentes de transferencia de archivos, la migración de datos y la automatización de procesos.


    2009

    Universidad Nacional de Ingeniería

    Especialización en .NET DEVELOPER SPECIALIST


    El programa incluyó el desarrollo de aplicaciones para Windows, la programación con Microsoft ADO.NET, y un taller de desarrollo .NET.




    Especialización



    Databricks Lakehouse Fundamentals



    Especialización



    Bootcamp



    Diplomado



    Certificados

    Business Intelligence Foundation Professional Certification BIFPC

    Ver certificado 09 de Febrero del 2024

    Spark y Python con PySpark en AWS para Big Data

    Ver certificado 18 de Enero del 2024

    Máster Snowflake - Data Warehouse en la Nube

    Ver certificado 18 de Enero del 2024

    Especialización en .NET DEVELOPER SPECIALIST

    Ver certificado 16 de Agosto del 2009