




Resumen del Puesto: Buscamos un Ingeniero de Datos con experiencia en metodologías ágiles, análisis de grandes volúmenes de datos, desarrollo de pipelines ELT y profundo conocimiento de ecosistemas Azure y AWS. Puntos Destacados: 1. Experiencia en metodologías ágiles y equipos multidisciplinarios. 2. Expertise en ecosistemas Azure y AWS para datos. 3. Desarrollo de data pipelines ELT/ELT y gestión de infraestructura como código. Poseer Conocimientos y experiencia trabajando con metodologías agiles como SCRUM junto a equipos multidisciplinarios. ✓ Haber trabajado con diversas herramientas de visualización e Inteligencia de Negocios como Power BI y lenguajes de programación para analizar y sintetizar información compleja como R, Python. ✓ Manipulacion de grandes cantidades de datos de diferentes orígenes ya sea estructurados como base de datos relacionales (MySQL, PostgreSQL, SQL Server, Oracle, Informix y Teradata), semiestructurada obtenidas mediante el consumo de APIs como los son archivos JSON y XML, así mismo bases NoSQL como MongoDB. ✓ Expertise en el desarrollo de data pipelines para procesos ELT/ ELT con diferentes orígenes de datos ya sea estructurados como semi estructurados utilizando diversos lenguajes de programación como Python/PySpark, PL/SQL. y T\-SQL la carga de Datamarks , DWH , Datalake y LakeHouse. ✓ Expertise y conocimiento en el ecosistema de Azure, especializado en Azure Data Factory para la orquestación de pipelines, Azure Databricks para la implementación de notebooks con PySpark para la transformación de datos, Azure Event Hubs para la implementación de sistemas de mensajería en tiempo real, Azure Stream Analíticas y Azure Data Explorer para el análisis en tiempo real, Azure DevOps para control de versiones y el CI/CD, Azure Synapse Analytics para el análisis de datos estructurados a gran escala, Azure SQL para data estructurada y Azure Data Lake Store para el almacenamiento de datos sin procesar. ✓ Expertise y conocimiento en el ecosistema de AWS, especializado en Amazon Glue para la orquestación y creación de pipelines ETL/ELT, Amazon CodeCommit para control de versiones, Amazon Athena para el análisis de datos sobre Amazon S3 y Amazon S3 para el almacenamiento de datos sin procesar, Amazon Redshift para la construcción del DWH, Amazon DynamoDB para el almacenamiento no relaciona de los datos, Amazon Step Function para la orquestación y Amazon CloudWatch para el monitoreo y logging. ✓ Sólida experiencia en la implementación de pipelines CI/CD para automatizar la entrega y despliegue a entornos productivos, utilizando servicios de control de versiones como GitLab. ✓ Expertise en la gestión de infraestructura como código (IaC), usando Terraform y AWS CloudFormation para el aprovisionamiento y mantenimiento de entornos en la nube de forma eficiente y escalable. ✓ Adicionalmente tener conocimientos y experiencia en herramientas de orquestación como Apache Aiflow y desarrollo de APIs en Python usando el framework FastApi PROGRAMAS Y HERRRAMIENTAS DE ANALISIS ✓ Microsoft Office Avanzado: Word, Power Point, Excel (Macros con VBA) ✓ Software de Estadística: R\- Estudio, SPPS. ✓ Software de BI: M.Power BI. ✓ Lenguajes de Programación: SQL, R y Python, Java. ✓ Gestor de Base de Datos: MySQL, PostgreSQL, Oracle, Informix, SQL Server, Teradata ✓ Base datos NoSQL: MongoDB ✓ Big data: Impala, Hadoop, Apache Spark, Big query, Databricks, Apache Kafka ✓ Control de Versiones: Git, Git Lab, Bitbucket ✓ Software de Planificación de Proyectos: Jira ✓ Software Orquestación: ADF, Apache Airflow y Amazon Glue ✓ Sistemas Operativos: Windows Server y Linux ESPECIALIDAD : Ingeniero Informático, Ingeniero de Sistemas, Ingeniero de Software .TIEMPO DE EXPERIENCIA MINIMA REQUERIDA : \+ 5 años mínimo experiencia solida y demostrable en Integraciones Oracle / AWS, en proyectos de data sector banca, retail o seguros Tipo de puesto: Temporal Sueldo: S/.4,500\.00 \- S/.6,000\.00 al mes Lugar de trabajo: Empleo remoto


