




Resumen: Buscamos un Ingeniero Líder de Data DevOps con sólida experiencia en Google Cloud Platform para liderar iniciativas de infraestructura de datos en la nube, centrándose en la automatización y optimización de flujos de trabajo de datos mientras se garantiza una alta disponibilidad. Aspectos destacados: 1. Liderar iniciativas de infraestructura de datos en la nube con experiencia en GCP 2. Diseñar sistemas escalables de datos en la nube mediante servicios de GCP 3. Automatizar y optimizar flujos de trabajo de datos con Python y herramientas de Infraestructura como Código (IaC) Estamos contratando a un Ingeniero Líder de Data DevOps con sólida experiencia en Google Cloud Platform para liderar iniciativas de infraestructura de datos en la nube. Se centrará en la automatización y optimización de flujos de trabajo de datos, manteniendo al mismo tiempo una alta disponibilidad. Únase a nosotros para dar forma al futuro de nuestras plataformas de datos. **Responsabilidades** * Diseñar sistemas escalables de datos en la nube mediante servicios de GCP como DataFlow, GCS, BigQuery, Dataproc y Cloud Composer * Utilizar herramientas de Infraestructura como Código (IaC), como Terraform, para implementar y supervisar la infraestructura * Colaborar con equipos de ingeniería de datos para automatizar flujos de trabajo de datos aprovechando Python * Construir y mantener canalizaciones de CI/CD con Jenkins, GitLab CI o GitHub Actions para despliegues eficientes * Trabajar con equipos multidisciplinarios para optimizar el rendimiento y la fiabilidad de la plataforma de datos * Administrar herramientas de datos basadas en la nube, incluidas Apache Spark, Apache Kafka y Apache Airflow * Identificar y resolver incidencias para garantizar la solidez y escalabilidad de las soluciones de datos en la nube **Requisitos** * Más de 5 años de experiencia en plataformas en la nube, principalmente utilizando servicios de GCP como BigQuery, Cloud Composer y Dataproc * Competencia avanzada en programación Python y SQL para construir canalizaciones de datos * Experiencia con marcos de Infraestructura como Código (IaC), como Terraform o CloudFormation * Capacidad para construir canalizaciones de CI/CD con Jenkins, GitHub Actions o GitLab CI * Experiencia con entornos Linux y scripting * Conocimientos fundamentales de redes, incluidos TCP/IP, DNS y NAT * Competencia en la implementación de herramientas como Apache Spark, Apache Airflow o la pila ELK **Deseable** * Familiaridad con otras plataformas en la nube como AWS o Azure, incluidos ECS, S3, Data Lake o Synapse * Capacidad para trabajar con herramientas de IaC como Ansible * Experiencia previa con diversas herramientas de automatización de flujos de trabajo de datos


