Trabajarás con todas las diferentes áreas para entender las necesidades de analítica que les permita tomar decisiones, refinar los requerimientos con el apoyo de ingeniero datos y presentar análisis y aprendizajes a partir de los datos. Entender las diferentes necesidades de datos de las áreas y convertirlos en tareas accionables, alineadas con los estándares de calidad y manejo de datos de Tranqui. Trabajar bajo una cultura DataOps que permita ser eficientes en la automatización y gestión de despliegue de infraestructura de recursos y catalogación de insumos organizacionales. Proponer y construir automatizaciones que eliminen tareas repetitivas en el ciclo de datos, asegurando procesos más rápidos, consistentes y confiables. Diseñar e implementar arquitecturas que soporten millones de eventos sin comprometer velocidad. Colaborar con el equipo de ingeniería y producto para planear, construir y mejorar componentes y arquitecturas, garantizando calidad de código y datos, mientras nos movemos rápido. Aplicar buenas prácticas de desarrollo seguro alineadas con estándares de la industria (ej. OWASP) para garantizar la integridad y confidencialidad de la información. Experiencia de 3 a 5 años construyendo soluciones en entornos productivos de datos. Sólida experiencia en bases de datos transaccionales y analíticas (ej. PostgreSQL, BigQuery, Redshift). Experiencia diseñando o manteniendo pipelines de datos (ETL/ELT, orquestación, streaming o batch). Experiencia profesional programando en Python (procesamiento de datos, automatización, librerías como Pandas, etc) Experiencia colaborando en equipos de desarrollo de software: revisiones de PR, buenas prácticas de versionamiento, testing básico. Buen criterio para escribir código claro, seguro y mantenible, aplicando principios de desarrollo seguro.
Trabajamos con Spark en AWS Glue para ETL, complementado con Lambda y ECS. En streaming usamos API Gateway, SQS, SNS, Kinesis Data Streams y Firehose. Nuestra arquitectura es tipo Lakehouse con Apache Iceberg, datos Parquet en S3 y Redshift como Data Warehouse. Postgres es la fuente principal de datos transaccionales.
Optimizar y mantener pipelines de datos, modelar y construir el Data Warehouse y datamarts, diseñar componentes reutilizables, mejorar consultas y ETLs, aplicar gobierno de datos (DAMA) y data contracts. Se espera iniciativa, independencia, buena comunicación y capacidad para proponer mejoras e integrar nuevas tecnologías (incluyendo IA).
Grandes retos técnicos. Somos una StartUp, continuamente estamos innovando y para eso necesitamos estar siempre aprendiendo nuevas técnicas y corriendo experimentos, cuestionando la forma en la que entendemos y construimos nuestras soluciones. Este es un sitio ideal para crecer y aprender. Excelente cultura laboral. Nos tomamos muy en serio la construcción de la cultura Tranqui, continuamente estamos implementando procesos y estrategias para asegurar el bienestar de todos nuestros empleados.
Get similar opportunities delivered to your inbox. Free, no account needed!