




Resumen del Puesto: Diseñar, construir y mantener arquitecturas de datos escalables en entornos cloud, garantizando la ingesta, procesamiento y disponibilidad de datos para analítica avanzada, BI y modelos de IA. Puntos Destacados: 1. Diseño e implementación de pipelines de datos en la nube 2. Gestión y optimización de data lakes y data warehouses 3. Ingesta de datos en tiempo real y automatización de despliegues **PROPOSITO:** Diseñar, construir y mantener arquitecturas de datos escalables en entornos cloud (principalmente Azure), garantizando la ingesta, procesamiento y disponibilidad de datos batch y en streaming para analítica avanzada, BI y modelos de IA. **RESPONSABILIDADES:** * Diseñar pipelines de datos * Implementar soluciones de ingesta en tiempo real (event\-driven) * Desarrollar procesos ETL/ELT eficientes y escalables * Gestionar almacenamiento en data lakes y data warehouses * Optimizar rendimiento y costos en plataformas cloud * Asegurar calidad, gobernanza y linaje de datos * Integrar fuentes diversas (APIs, bases de datos, eventos, IoT) * Automatizar despliegues (CI/CD) de pipelines de datos * Monitorear y resolver incidentes en pipelines productivos **STACK TECNOLÓGICO:** * Suite de productos Azure * Databricks * Apache Spark (PySpark / Scala) * Apache Kafka (deseable) * Python (obligatorio y avanzado) * SQL (avanzado) * CI/CD pipelines **DOMINIO DE:** * Modelado de datos * Manejo de datos masivos (Big Data) * Particionamiento y optimización * Manejo de formatos (Parquet, Avro, JSON) * Seguridad y gobierno de datos (RBAC, políticas) **CONDICIONES:** * Vigencia: 3 meses (con posibilidad de llegar a 6\) * Experiencia: mínimo 2 a 3 años efectivos en el rol * Asistencia a oficina: 3 veces por semana Enviar CV con foto (excluyente) a reclutamiento@programate.pe con el asunto: ingeniero de datos Sueldo: S/.4,800\.00 \- S/.5,500\.00 al mes Lugar de trabajo: Híbrido en San Borja, Lima


