




**¿Quiénes somos?** Kashio es una empresa que desarrolla tecnología financiera para ayudar a las empresas a adoptar pagos digitales y automatizar sus operaciones financieras de cuentas por cobrar y cuentas por pagar. Prestamos servicios a más de 400 empresas en sectores como educación, finanzas, administración de propiedades y servicios públicos, con la meta de expandirnos a cinco mercados en los próximos dos años. Nos destacamos por ofrecer soluciones innovadoras, seguras e intuitivas, con un equipo apasionado que impulsa la inclusión financiera y la eficiencia operativa. **¿A quiénes buscamos?** Buscamos un **Data Engineer** con experiencia en el ecosistema fintech y en la construcción de pipelines de datos. Este perfil será clave para liderar la estrategia de datos, asegurando la calidad y eficiencia en nuestros procesos de ingesta y transformación de datos. **¿Qué es lo que harás?** **Liderazgo Técnico y Estrategia de Datos:** * Definir, diseñar y mantener pipelines de datos robustos y escalables para ingesta, transformación y carga (ETL/ELT) utilizando mejores prácticas y patrones modernos. * Establecer estándares de codificación, diseño modular y buenas prácticas para el desarrollo de procesos de datos. * Investigar, evaluar e implementar nuevas herramientas y tecnologías (on\-premise o cloud) para mejorar la eficiencia, confiabilidad y trazabilidad de los flujos de datos. * Liderar la integración de pipelines en flujos de CI/CD y fomentar una cultura “DataOps” en el equipo. **Desarrollo y Mantenimiento de Soluciones de Datos:** * Diseñar, implementar y mantener flujos de datos utilizando herramientas como Apache Airflow, DBT, Spark, y servicios de nube (Dataflow, Glue, Synapse). * Crear scripts y procesos ETL/ELT reutilizables y configurables mediante metadatos. * Optimizar queries y estructuras de datos en warehouses como BigQuery, Redshift, o Azure Synapse. * Asegurar calidad de datos mediante validaciones automáticas, testing continuo y alertas proactivas. **Mentoría y Desarrollo del Equipo:** * Mentorizar a otros ingenieros (datos, QA, backend) en patrones de diseño de datos, transformación eficiente y herramientas como DBT o Airflow. * Fomentar buenas prácticas en ingeniería de datos dentro del equipo de desarrollo. * Facilitar sesiones de capacitación interna sobre herramientas cloud, prácticas ETL modernas y herramientas de monitoreo. **Colaboración y Proceso:** * Colaborar estrechamente con equipos de desarrollo, DevOps y producto para entender necesidades de datos desde fases tempranas del desarrollo. * Participar activamente en ceremonias ágiles (planning, dailies, retros) como miembro técnico clave. * Asegurar la trazabilidad de los datos desde origen hasta capa de consumo (lineage). **Métricas y Calidad de Datos:** * Definir y dar seguimiento a métricas clave como: latencia de pipelines, volumen procesado, calidad de datos, tasa de fallos, SLA/SLO. * Establecer dashboards de observabilidad para flujos críticos de datos. * Reportar errores, anomalías o cuellos de botella de manera clara y priorizada. **Requerimientos del puesto:** **Formación requerida:** * Grado Universitario en Ingeniería de Sistemas, Informática o Ciencias de la Computación. Deseable, maestría en Ingeniería de Datos o Big Data, Ciencia de Datos, Analítica o Inteligencia Artificial. **Experiencia laboral:** * Mínimo 5 años de experiencia en Ingeniería de Datos. * Mínimo 3 años diseñando y operando pipelines de datos en producción. * Experiencia trabajando en entornos ágiles y orientados a producto. * Conocimiento sólido de modelado de datos, particionamiento y gobernanza. **Conocimientos técnicos obligatorios:** * Programación en Python, SQL, y Spark (avanzado). * Frameworks de orquestación de datos (Airflow, Prefect). * Procesamiento distribuido (Apache Spark, PySpark). * Manejo de bases de datos relacionales y NoSQL (PostgreSQL, MongoDB, Redshift). **Competencias requeridas:** * Habilidades de comunicación efectiva. * Capacidad de liderazgo y mentoría. * Fuerte capacidad analítica y de resolución de problemas. * Proactividad y autonomía. **Condiciones del Trabajo:** * **Contrato:** Plazo fijo con posibilidad de renovación. * **Modalidad:** Remoto. * **Horario:** Lunes a viernes de 9 am a 6 pm (Hora Perú). * **Beneficios:** Oportunidad de liderar la estrategia de datos en una fintech en crecimiento. Ambiente de trabajo dinámico, colaborativo e innovador. Posibilidades de desarrollo profesional y aprendizaje continuo. EPS 100% cubierta. Posibilidad de participar en stock options de la compañía. Tipo de puesto: Tiempo completo Sueldo: S/.5,500\.00 \- S/.7,000\.00 al mes Pregunta(s) de postulación: * El horario de trabajo es de Lunes a Viernes de 09:00 am a 06 pm (hora peruana). Y el rango salarial es de USD 1000 a 1500\. ¿Estás de acuerdo? * ¿Puedes describir un proyecto en el que hayas diseñado y mantenido pipelines de datos? ¿Cuáles fueron los principales desafíos que enfrentaste y cómo los superaste? * ¿Cómo aseguras la calidad de los datos en los procesos de ingesta y transformación? ¿Qué herramientas o metodologías has utilizado para implementar validaciones y pruebas? * ¿Qué experiencia tienes con la implementación de herramientas de orquestación de datos como Apache Airflow o Prefect? ¿Cómo las has utilizado para mejorar la eficiencia de los flujos de trabajo? * En tu opinión, ¿cuáles son las mejores prácticas en la ingeniería de datos y cómo las has aplicado en tus proyectos anteriores? Lugar de trabajo: Empleo remoto


