




Resumen: Dirigir el diseño y la optimización de la infraestructura de datos y la automatización de flujos de trabajo en Azure, garantizando una alta eficiencia, estabilidad y rendimiento de las canalizaciones. Aspectos destacados: 1. Dirigir el diseño y la optimización de la infraestructura de datos en Azure. 2. Automatizar las operaciones de datos con Python para mejorar la fiabilidad. 3. Colaborar con los equipos para optimizar la escalabilidad del sistema de datos. Invitamos a un Ingeniero Senior de Data DevOps a unirse a nuestro equipo y liderar el diseño y la optimización de la infraestructura de datos y la automatización de flujos de trabajo en Azure. Este puesto implica crear soluciones de datos escalables y colaborar estrechamente con los equipos de ingeniería de datos y otros equipos para garantizar una alta eficiencia, estabilidad y rendimiento de las canalizaciones. ¡Postúlese ahora para formar parte de nuestro innovador equipo de datos! **Responsabilidades** * Diseñar, implementar y mantener la infraestructura de datos utilizando servicios de Azure, incluidos Data Lake, Databricks, Synapse y Data Factory * Colaborar con ingeniería de datos para construir y mantener canalizaciones y flujos de trabajo eficientes * Automatizar las operaciones de datos con Python para mejorar la fiabilidad y la eficiencia * Gestionar canalizaciones CI/CD mediante Jenkins, GitHub Actions o tecnologías similares * Trabajar junto con equipos multifuncionales para optimizar la escalabilidad, fiabilidad y rendimiento del sistema de datos * Instalar y configurar herramientas de datos como Apache Spark y Kafka en entornos en la nube y locales * Supervisar continuamente los sistemas de datos para identificar y resolver problemas de rendimiento y escalabilidad * Diagnosticar y solucionar desafíos complejos en plataformas de datos y procesos de canalización **Requisitos** * Mínimo 3 años de experiencia en Ingeniería de Datos o puestos similares * Amplia experiencia en programación Python para flujos de trabajo de procesamiento por lotes * Conocimientos avanzados de SQL para consultar y gestionar conjuntos de datos extensos * Experiencia profunda en servicios en la nube de Azure para infraestructura de datos * Conocimientos prácticos de herramientas de Infraestructura como Código (IaC), como Ansible, Terraform o CloudFormation * Capacidad para configurar y mantener canalizaciones CI/CD mediante Jenkins, GitHub Actions o similares * Experiencia con herramientas de datos como Spark, Airflow o R para la gestión de flujos de trabajo * Conocimientos avanzados del sistema operativo Linux, incluidos scripting y administración del sistema * Comprensión exhaustiva de protocolos de red como TCP, UDP, ICMP, DHCP, DNS y NAT * Competencia en inglés a nivel B2+ tanto escrito como hablado **Deseable** * Familiaridad con otras plataformas en la nube, como AWS o GCP * Experiencia con Kubernetes para la orquestación de contenedores en flujos de trabajo de datos * Conocimientos de herramientas de supervisión y observabilidad, como Prometheus, Grafana o Azure Monitor * Exposición a tecnologías Big Data y flujos de análisis complejos * Experiencia práctica en gobernanza y mejores prácticas de seguridad de datos en la nube


