




Resumen: Buscamos un Ingeniero Senior de DevOps de Datos con experiencia en Google Cloud Platform (GCP) para el diseño, la automatización y la optimización de infraestructuras de datos en la nube dentro de un equipo de datos en expansión. Aspectos destacados: 1. Avance su carrera con tecnologías innovadoras de datos en la nube 2. Diseñe e infraestructura de datos en la nube automatizada en GCP 3. Colabore con ingenieros de datos en flujos de trabajo basados en Python Estamos contratando un Ingeniero Senior de DevOps de Datos con experiencia en Google Cloud Platform para unirse a nuestro equipo de datos en expansión. Usted será responsable del diseño, la automatización y la optimización de la infraestructura de datos en la nube. Únase a nosotros para avanzar en su carrera trabajando con tecnologías innovadoras de datos en la nube. **Responsabilidades** * Construir infraestructura de datos en la nube utilizando servicios de GCP como DataFlow, GCS y Cloud Composer * Implementar soluciones de Infraestructura como Código (IaC) mediante Terraform para automatizar despliegues y monitoreo * Colaborar con ingenieros de datos para desarrollar flujos de trabajo eficientes basados en Python\-y * Configurar canalizaciones de CI/CD con Jenkins, GitLab CI o GitHub Actions para despliegues confiables * Mejorar el rendimiento y la disponibilidad de las plataformas de datos colaborando con equipos * Gestionar herramientas de datos en la nube como Apache Spark, Kafka y Apache Airflow * Identificar y resolver problemas de confiabilidad y escalabilidad en los sistemas de datos en la nube **Requisitos** * 3\+ años de experiencia en entornos en la nube de GCP, incluidos BigQuery, Cloud Composer y Dataproc * Conocimientos sólidos en Python y SQL para operaciones de canalizaciones de datos * Conocimiento de herramientas de Infraestructura como Código (IaC), como Terraform o CloudFormation * Experiencia integrando canalizaciones de CI/CD mediante Jenkins, GitHub Actions o GitLab CI * Conocimientos previos en sistemas operativos Linux y scripting en shell * Comprensión de protocolos de red, incluidos TCP/IP, DNS y NAT * Competencia con Apache Spark, Apache Airflow o la pila ELK **Deseable** * Experiencia con servicios en la nube de AWS o Azure, como ECS, S3, Data Lake o Synapse * Capacidad para trabajar con otras herramientas de IaC, como Ansible * Experiencia demostrada con otras herramientas adicionales de automatización de flujos de trabajo de datos


