




**Acerca de Curotec:** Somos una empresa líder a nivel mundial en servicios de software especializada en el desarrollo de proyectos a nivel empresarial para clientes de todo el mundo. Nuestro equipo es una combinación única de diversas habilidades, culturas y antecedentes: un verdadero crisol de talentos. Uno de los aspectos más gratificantes de trabajar en Curotec es la oportunidad de aprender algo nuevo cada día, no solo sobre tecnología, sino también sobre nuestros increíbles miembros del equipo. Visite nuestro sitio web para descubrir más sobre quiénes somos y qué hacemos. Estamos buscando un Ingeniero Senior de Datos para apoyar la ingesta, procesamiento y sincronización de datos en nuestra plataforma de análisis. Este puesto se centra en el uso de cuadernos de Python para ingerir datos mediante API en el Lago de Datos y Almacén de Datos de Microsoft Fabric, con algunos datos que se sincronizan con una base de datos de Synapse Analytics para necesidades más amplias de informes. El candidato ideal tendrá experiencia práctica trabajando con la ingesta de datos basada en API y arquitecturas modernas de datos, incluyendo la implementación de la arquitectura en capas Medallion (Bronce, Plata, Oro) para una organización óptima de datos y gestión de calidad, con puntos adicionales por experiencia con APIs de marketing como Google Ads, Google Business Profile y Google Analytics 4. **Este es un puesto remoto. Aceptamos solicitudes de todo el mundo, pero este puesto tiene preferencia por candidatos de LATAM para asegurar una colaboración más fluida con nuestro equipo actual** **Responsabilidades principales** * Crear y mantener cuadernos de Python para ingerir datos desde APIs de terceros * Diseñar e implementar la arquitectura en capas Medallion (Bronce, Plata, Oro) para organizar datos estructurados y refinar progresivamente los datos * Almacenar y gestionar datos dentro del Lago de Datos y Almacén de Microsoft Fabric utilizando formatos de archivo delta parquet * Configurar tuberías de datos y sincronizar conjuntos clave de datos con Azure Synapse Analytics * Desarrollar procesos de transformación de datos basados en PySpark a través de las capas Bronce, Plata y Oro * Colaborar con desarrolladores, analistas y partes interesadas para garantizar la disponibilidad y precisión de los datos * Monitorear, probar y optimizar flujos de datos para confiabilidad y rendimiento * Documentar procesos y contribuir a las mejores prácticas para la ingesta y transformación de datos **Tecnologías que utilizarás** Ingesta y Procesamiento: * Python (Cuadernos) * PySpark Almacenamiento y Almacenamiento de Datos: * Lago de Datos y Almacén de Datos de Microsoft Fabric * Archivos Delta Parquet * Sincronización e Informes: * Azure Synapse Analytics * Nube y Herramientas: * Azure Data Factory, Azure DevOps * Experiencia sólida con Python para ingesta y transformación de datos * Dominio de PySpark para el procesamiento de grandes volúmenes de datos; * Competencia en el trabajo con APIs RESTful y manejo de grandes conjuntos de datos; * Experiencia con Microsoft Fabric o plataformas modernas de datos similares; * Comprensión de la arquitectura Medallion (capas Bronce, Plata, Oro) y conceptos de data lakehouse; * Experiencia trabajando con Delta Lake y formatos de archivo parquet; * Comprensión de conceptos de almacenamiento de datos y ajuste de rendimiento; * Conocimiento de flujos de trabajo basados en la nube, especialmente dentro del entorno Azure. **Deseable** * Experiencia con APIs de marketing como Google Ads o Google Analytics 4; * Conocimiento del diseño de tuberías en Azure Synapse y Data Factory; * Comprensión del modelado de datos para casos de uso de análisis e informes; * Experiencia con herramientas de codificación de IA; * Experiencia con Fivetran, Aribyte y Riverly. **Beneficios** Salario competitivo Posibilidad de crecer y avanzar en tu carrera Asistir a conferencias virtuales para desarrolladores Trabajar en proyectos innovadores y emocionantes


