Data Engineer - Enhance & Operate
Slalom
Software Engineering, Data Science
Remote
Posted on Feb 15, 2026
- Spanish Description to Follow
Slalom’s Enhance & Operate (E&O) team is looking for a hands-on Data Engineer who enjoys building and improving data pipelines and keeping production platforms running smoothly. In this role, you’ll support a modern Snowflake + Azure Data Factory (ADF) Enterprise Data Warehouse (EDW) ecosystem, combining data engineering fundamentals with operational excellence—monitoring pipelines, resolving incidents, developing code enhancements, and continuously improving reliability and performance in a service-oriented environment.
You’ll work with a highly collaborative, cross-regional delivery model (“all-shore”) and partner closely with both technical and non-technical stakeholders.
Work schedule: This role may require shift coverage between 12:00 AM – 12:00 AM Central Time (CT) (rotations may apply depending on team needs).
What You’ll Do
- Build, enhance, and troubleshoot Azure Data Factory (ADF) pipelines and Snowflake ELT/ETL processes.
- Monitor daily/weekly/monthly data batch cycles and respond quickly to job failures, latency, or data-quality issues.
- Diagnose and resolve production incidents within Service-Level Agreements (SLA) targets using SQL, Python, platform logs, documentation, and runbooks.
- Perform root cause analysis (RCA), write documentation of findings, and implement fixes to prevent recurrence of issues.
- Drive operational improvements: automation, alert tuning, performance optimization, and reliability enhancements.
- Work within ITIL/ITSM workflows (ticketing, incident/problem management, change processes) and communicate clearly with both technical and business stakeholders.
- Collaborate with teammates across regions—sharing context early, documenting decisions, and maintaining strong handoffs.
What You Bring
- A proactive, data platform service-focused mindset: you will own incidents, issues, and development work end-to-end and follow your work through to resolution.
- A Problem-solving mindset; Willingness to learn and understand how issues and resolutions fit into the EDW system design
- Experience in working independently on assigned work; but also, comfortable collaborating with others to investigate and resolve issues; comfortable sharing concepts and information about issue resolution with teammates
- 2-3 years of experience in data engineering, ETL/ELT development, or production support for data platforms.
- Strong SQL skills (debugging, performance awareness, data validation).
- Strong Python skills (troubleshooting, scripting, automation).
- Hands-on experience with Snowflake and Azure Data Factory (ADF).
- Comfort working in a fast-paced, consulting-oriented environment where priorities shift and outcomes matter.
- Experience with ServiceNow, Control-M, Azure DevOps, Git-based workflows, and/or CI/CD.
- Exposure to data observability/monitoring patterns, alerting, and platform logging.
- Familiarity with modern data tooling (e.g., dbt) or cloud data ecosystem patterns.
- Comfortable working in English in a day-to-day delivery environment (technical + collaboration).
- Clear, professional communication with global client and Slalom contacts.
At Slalom, you’ll join a people-first culture that values customer outcomes, delivery excellence, and continuous learning. You’ll have the opportunity to deepen your cloud data engineering skills, contribute meaningful platform improvements, and grow alongside a rapidly expanding LATAM Data community with strong cross-region partnership and support.
What Success Looks Like (first 3–6 Months)
- You can independently troubleshoot common ADF/Snowflake failures and stabilize recurring issues.
- You consistently meet incident response expectations and communicate status clearly.
- You deliver at least a few measurable improvements (automation, reduced failures, faster recovery, better monitoring).
- You’re a trusted partner to teammates and stakeholders—reliable, proactive, and collaborative.
Slalom is a fiercely human business and technology consulting company that leads with outcomes to bring more value, in all ways, always. From strategy through delivery, our agile teams across 52 offices in 12 countries collaborate with clients to bring powerful customer experiences, innovative ways of working, and new products and services to life. We are trusted by leaders across the Global 1000, many successful enterprise and mid-market companies, and 500+ public sector organizations to improve operations, drive growth, and create value. At Slalom, we believe that together, we can move faster, dream bigger, and build better tomorrows for all.
Ingeniero(a) de Datos – Enhance & Operate (E&O)
Acerca del rol
El equipo de Enhance & Operate (E&O) de Slalom está buscando un(a) Ingeniero(a) de Datos práctico (hands-on) que disfrute construir y mejorar pipelines de datos así como mantener las plataformas de producción operando sin problemas. En este rol, apoyarás a un ecosistema moderno de Enterprise Data Warehouse (EDW) basado en Snowflake + Azure Data Factory (ADF), combinando fundamentos de ingeniería de datos con excelencia operativa: monitoreo de pipelines, resolución de incidentes, desarrollo de mejoras de código y mejora continua de la confiabilidad y el rendimiento en un entorno orientado a servicios.
Trabajarás con un modelo de entrega altamente colaborativo y multirregional (“all‑shore”) y colaborarás estrechamente con stakeholders tanto técnicos como no técnicos.
Horario de trabajo: Este rol puede requerir cobertura por turnos entre 12:00 AM – 12:00 AM Hora Central (CT) (pueden aplicar rotaciones según las necesidades del equipo).
Lo que harás
- Construir, mejorar y solucionar problemas en pipelines de Azure Data Factory (ADF) y procesos ELT/ETL en Snowflake.
- Monitorear ciclos de procesamiento de datos diarios, semanales y mensuales, y responder rápidamente ante fallas de jobs, latencia o problemas de calidad de datos.
- Diagnosticar y resolver incidentes de producción dentro de los objetivos de SLA, utilizando SQL, Python, logs de plataforma, documentación y runbooks.
- Realizar análisis de causa raíz (RCA), documentar hallazgos e implementar correcciones para prevenir la recurrencia de problemas.
- Impulsar mejoras operativas: automatización, ajuste de alertas, optimización del rendimiento y mejoras de confiabilidad.
- Trabajar dentro de flujos ITIL/ITSM (tickets, gestión de incidentes/problemas, procesos de cambio) y comunicarte claramente con stakeholders técnicos y de negocio.
- Colaborar con compañeros/as de distintas regiones, compartiendo contexto de forma temprana, documentando decisiones y asegurando transiciones efectivas.
Requerido
- Mentalidad proactiva y orientada al servicio de plataformas de datos: te harás cargo de incidentes, issues y trabajo de desarrollo de principio a fin, acompañando cada caso hasta su resolución.
- Mentalidad de resolución de problemas; disposición para aprender y comprender cómo los issues y sus soluciones encajan dentro del diseño del EDW.
- Experiencia trabajando de manera independiente en tareas asignadas, así como comodidad para colaborar con otros en la investigación y resolución de problemas, y para compartir conceptos e información sobre la resolución de issues con el equipo.
- 2–3 años de experiencia en ingeniería de datos, desarrollo ETL/ELT o soporte en producción de plataformas de datos.
- Sólidos conocimientos de SQL (debugging, conciencia de rendimiento, validación de datos).
- Sólidas habilidades en Python (troubleshooting, scripting, automatización).
- Experiencia práctica con Snowflake y Azure Data Factory (ADF).
- Comodidad para trabajar en un entorno dinámico y orientado a consultoría, donde las prioridades cambian y los resultados importan.
- Experiencia con ServiceNow, Control‑M, Azure DevOps, flujos de trabajo basados en Git y/o CI/CD.
- Exposición a patrones de observabilidad y monitoreo de datos, alertamiento y logging de plataformas.
- Familiaridad con herramientas modernas de datos (por ejemplo, dbt) o patrones de ecosistemas de datos en la nube.
- Comodidad para trabajar en inglés en un entorno de entrega diaria (técnico y colaborativo).
- Comunicación clara y profesional con clientes globales y contactos de Slalom.
En Slalom, te unirás a una cultura centrada en las personas que valora los resultados para el cliente, la excelencia en la entrega y el aprendizaje continuo. Tendrás la oportunidad de profundizar tus habilidades en ingeniería de datos en la nube, contribuir con mejoras significativas a las plataformas y crecer junto a una comunidad de Datos en LATAM en rápida expansión, con una sólida colaboración y apoyo entre regiones.
Cómo se ve el éxito (primeros 3–6 meses)
- Puedes solucionar de forma independiente fallas comunes de ADF/Snowflake y estabilizar problemas recurrentes.
- Cumples consistentemente con las expectativas de respuesta a incidentes y comunicas el estado de manera clara.
- Entregas al menos algunas mejoras medibles (automatización, reducción de fallas, recuperación más rápida, mejor monitoreo).
- Eres un/a socio/a de confianza para compañeros/as y stakeholders: confiable, proactivo/a y colaborativo/a.