




Resumen: Buscamos un experimentado Ingeniero Senior de Data DevOps especializado en AWS para liderar el diseño de infraestructura, la automatización y la innovación en un entorno de datos en la nube. Aspectos destacados: 1. Liderar el diseño de infraestructura y las estrategias de automatización 2. Mentorizar a colegas e impulsar la innovación en entornos de datos en la nube 3. Colaborar con equipos multifuncionales en soluciones en la nube de alto impacto Buscamos un experimentado Ingeniero Senior de Data DevOps especializado en AWS para construir, perfeccionar y proteger una infraestructura de datos en la nube escalable. En este puesto, usted liderará las estrategias de diseño e infraestructura automatizada, mentorizará a colegas y colaborará con equipos multifuncionales para entregar soluciones en la nube de alto impacto. Únase a nosotros para aportar su experiencia e impulsar la innovación en nuestro entorno de datos en la nube. **Responsabilidades** * Diseñar e implementar una infraestructura de datos escalable con servicios de AWS, incluidos ECS, RDS, Athena, Glue, S3, EBS, CloudFormation, IAM y Redshift * Desarrollar y mantener flujos de trabajo complejos de automatización mediante herramientas de Infraestructura como Código como Terraform y AWS CloudFormation * Trabajar estrechamente con los equipos de ingeniería de datos y análisis para mejorar el rendimiento de canalizaciones de datos a gran escala utilizando Python y herramientas nativas de AWS * Establecer y aplicar las mejores prácticas para la gestión de canalizaciones CI/CD en entornos AWS mediante GitHub Actions, AWS CodePipeline, Jenkins o similares * Mejorar la escalabilidad, fiabilidad, rendimiento y eficiencia de costos de las plataformas de datos en la nube * Evaluar e integrar herramientas avanzadas de procesamiento de datos, como Apache Airflow y Apache Spark en AWS EMR * Solucionar y resolver problemas complejos que afecten a sistemas alojados en AWS mediante análisis de causas fundamentales para incidentes críticos * Implementar configuraciones robustas de IAM, políticas de seguridad, cifrado y mejores prácticas de AWS para reforzar la seguridad y cumplimiento de los datos * Gestionar la planificación de capacidad, la optimización de recursos y el control de costos para componentes clave de la plataforma de datos * Brindar orientación experta y mentoría a los miembros del equipo, promoviendo las mejores prácticas en todo el equipo **Requisitos** * Experiencia mínima de 3 años en Ingeniería de Datos, DevOps o roles relacionados centrados en infraestructura en la nube y automatización * Habilidades avanzadas de programación en Python para scripting, automatización y optimización de flujos de trabajo * Experiencia comprobada en SQL para el manejo de conjuntos de datos a gran escala * Amplia experiencia práctica con servicios de infraestructura de datos de AWS, como Redshift, Glue, EMR y Athena * Conocimientos sólidos de herramientas de Infraestructura como Código como Terraform, AWS CloudFormation o Ansible * Capacidad demostrada para implementar y mantener canalizaciones CI/CD mediante Jenkins, GitHub Actions, AWS CodePipeline o similares * Experiencia práctica con herramientas de procesamiento y orquestación de datos distribuidos como Apache Spark y Apache Airflow * Habilidades avanzadas de administración de sistemas Linux y ajuste de rendimiento en entornos en la nube * Conocimientos exhaustivos de protocolos de red, incluidos TCP, UDP, ICMP, DNS y NAT, en contextos en la nube * Experiencia diseñando y automatizando la implementación de infraestructura a gran escala mediante Terraform o equivalente * Experticia en la instalación, configuración y operación de plataformas de datos como Apache Kafka y NiFi * Capacidad para liderar proyectos complejos y mentorizar a miembros junior y de nivel intermedio del equipo * Dominio profesional del inglés (nivel B2 o superior) **Deseable** * Experiencia con otras plataformas en la nube como Azure o GCP, incluidas arquitecturas híbridas y multi-nube * Familiaridad con lenguajes de programación estadística como R y herramientas de visualización de datos como Tableau o Power BI * Conocimiento de herramientas avanzadas de CI/CD más allá de las plataformas principales, como Bamboo * Experiencia con soluciones de datos híbridas y locales que garanticen flujos de datos seguros y escalables * Antecedentes en entornos contenerizados utilizando Kubernetes, Docker o AWS ECS/EKS


