




**Requisitos** **Formación** · Bachiller o egresado en ingeniería de sistemas, computación, informática, estadística, industrial o carreras afines. **Experiencia** · Mínimo 4 años en manejo de Servicios Google Cloud Platform. · Mínimo 4 años en Business Intelligence en gestión e implementación de proyectos. · Mínimo 4 años en explotación de bases de datos (Oracle o SQL). · Mínimo 4 años en gestión bajo metodologías ágiles (Scrum). **Conocimientos** · Lenguajes de programación Jira y Github. · Cloud Computing, Analytics y Big Data. · Servicios Google Cloud Platform: BigQuery, Cloud Dataflow, Cloud Composer, Cloud Storage, CloudWatch, Cloud Functions. · Diseño, construcción y mantenimiento de sistema de procesamiento de datos. · Modelamiento de datos. · Virtualización y despliegue en Cloud. · Nivel intermedio/alto en Java, Python/Scala (Tratamiento, Exposición de datos\- APIs). **Competencias** · Comunicación fluida. · Habilidad de análisis. · Pensamiento crítico. · Enfoque en resultados. · Trabajo en equipo **Habilidades** · Idioma inglés intermedio\- avanzado · Manejar múltiples lenguajes de programación para procesar y transformar datos. · Manejar informes y reportes a las diversas áreas, entrega de dashboards, flujogramas y automatización de procesos operativos. · Interés por las nuevas tendencias en el procesamiento de grandes volúmenes de Datos (Big Data). **Funciones** · Desarrollar un proceso para transformar los datos de la empresa para que puedan ser analizados y utilizados por los científicos de datos. · Diseñar, desarrollar, probar y desplegar procesos de extracción, transformación y carga (ETL) de datos estructurados y no estructurados a la nube (Google). · Procesamiento de información de gran volumen utilizando tecnologías de Big Data en la nube (Google). · Realizar consultas complejas sobre los datos, asegurando la accesibilidad y el buen funcionamiento del sistema. · Optimizar el rendimiento del ecosistema de Big Data. · Optimizar código Python para ejecutarlo en C o Java. · Uso de herramientas de versionado e integración continua. · Participar en asegurar el cumplimiento y la gobernanza durante el uso de los datos. · Realizar construcciones y automatizaciones para aumentar la eficiencia y reducir aún más los costes de la nube. · Colaborar con los clientes para resolver los desafíos de la nube, especialmente los relacionados con la ingeniería de datos. · Crear, generar y supervisar el rendimiento de las aplicaciones en la nube para detectar posibles fallos y resolver los problemas de rendimiento. · Coordinar y ejecutar la limpieza de datos para que se conviertan en un conjunto homogéneo. · Garantizar la seguridad de la información de cualquier acceso malicioso. · Educar y entrenar. · Participar en asegurar el cumplimiento y la gobernanza durante el uso de los datos. · Plantear estrategia de carga para fuentes de datos. · Proponer modelo que soporte la carga de datos y tener reuniones con los modeladores de la tribu data para sustentar la necesidad. · Plantear mejoras y optimización en los procesos de carga. Tipo de puesto: Tiempo completo Sueldo: S/.3,500\.00 \- S/.5,500\.00 al mes Pregunta(s) de postulación: * ¿Tienes disponibilidad inmediata? * ¿Cuántos años de experiencia tienes en el puesto? * ¿Has participado en proyectos laborales con la nube de GCP? (Indicar nivel: básico, intermedio o avanzado) * ¿Tienes disponibilidad para trabajar de manera híbrida? * ¿Cuáles son tus pretensiones salariales? (indicar monto) Lugar de trabajo: Empleo presencial


