




Resumen: Únase como Arquitecto de Datos / Ingeniero Principal para diseñar plataformas de datos escalables, diseñar y entregar datamarts, tuberías de ingesta y procesos ETL, garantizando la calidad e integridad de los datos. Aspectos destacados: 1. Diseñar plataformas y servicios de datos escalables 2. Diseñar y entregar datamarts, tuberías de ingesta y procesos ETL 3. Colaborar con los interesados para evolucionar las capacidades de datos Buscamos un **Arquitecto de Datos / Ingeniero Principal** para diseñar plataformas y servicios de datos escalables que respalden decisiones empresariales críticas. Usted diseñará y entregará datamarts, tuberías de ingesta y procesos ETL, garantizando al mismo tiempo la calidad, integridad y rendimiento de los datos. Únase al equipo para colaborar estrechamente con los interesados y ayudar a evolucionar nuestras capacidades de datos: ¡postúlese hoy mismo! **Responsabilidades** * Diseñar y entregar soluciones de datos escalables, incluidos datamarts, tuberías de ingesta y procesos ETL, alineados con las necesidades empresariales y operativas * Diseñar modelos de datos eficientes que garanticen la calidad e integridad de los datos, optimizando al mismo tiempo el rendimiento del análisis * Desarrollar y ajustar consultas SQL (se prefiere Databricks SQL), trabajos Spark y código Python (PySpark), utilizando Airflow para la orquestación * Integrar diversas fuentes de datos mediante API REST y crear modelos que mejoren la accesibilidad y el análisis de los datos * Coordinarse con los interesados empresariales para alinear las soluciones de datos con las necesidades organizacionales, trabajando en sprints ágiles y atendiendo solicitudes ad\-hoc * Elaborar documentación clara y completa para permitir un uso efectivo de los activos de datos organizacionales * Compartir buenas prácticas y conocimientos especializados para apoyar el aprendizaje y crecimiento continuos del equipo **Requisitos** * Experiencia comprobada de 9\+ años en Ingeniería de Datos, centrada en el diseño y ajuste de soluciones de datos escalables * Experiencia práctica con SQL (se prefiere Databricks SQL), Spark y Python, incluidos PySpark y Airflow * Experiencia práctica en la construcción de tuberías ETL y la conexión de datos mediante API REST * Conocimientos sólidos de servicios de AWS y tecnologías de big data, incluidas bases de datos relacionales y almacenamiento columnar como Redshift * Comprensión profunda de enfoques avanzados de modelado e integración de datos para análisis de alto rendimiento * Habilidades claras de comunicación y documentación, con una mentalidad colaborativa y centrada en el equipo * Capacidad para adaptarse e introducir nuevas tecnologías conforme evolucionen las prioridades empresariales * Competencia avanzada en inglés (B2\+/C1\)


