




Resumen: Buscamos un Ingeniero Senior de Data DevOps con amplia experiencia en AWS para arquitecturar, mejorar y optimizar infraestructuras de datos en la nube robustas, escalables y seguras. Aspectos destacados: 1. Arquitecturar y optimizar infraestructuras de datos robustas, escalables y seguras en AWS 2. Dirigir decisiones técnicas estratégicas sobre el diseño de infraestructura y la automatización 3. Colaborar con equipos multifuncionales para entregar soluciones de impacto Buscamos un **Ingeniero Senior de Data DevOps altamente calificado y experimentado con profunda experiencia en AWS**, para arquitecturar, mejorar y optimizar infraestructuras de datos en la nube robustas, escalables y seguras. En este puesto, asumirá la responsabilidad de las decisiones estratégicas y técnicas relacionadas con el diseño de infraestructura y la automatización, mentorizará a los miembros del equipo y desempeñará un papel fundamental para garantizar la escalabilidad, fiabilidad y seguridad. Trabajará estrechamente con equipos y partes interesadas multifuncionales para entregar soluciones de impacto. **Responsabilidades** * Diseñar, implementar y mejorar continuamente infraestructuras de datos escalables mediante servicios de AWS como ECS, RDS, Athena, Glue, S3, EBS, CloudFormation, IAM y Redshift * Arquitecturar e implementar flujos de trabajo complejos de automatización, aprovechando herramientas de Infraestructura como Código (IaC) como Terraform y AWS CloudFormation * Colaborar con equipos de ingeniería de datos y análisis para optimizar canalizaciones y flujos de trabajo de datos a gran escala y alto rendimiento mediante Python, AWS Glue y otras herramientas nativas de AWS * Definir y aplicar buenas prácticas para la gestión y supervisión de canalizaciones CI/CD adaptadas a entornos AWS, utilizando herramientas como GitHub Actions, AWS CodePipeline, Jenkins u otras similares * Mejorar el rendimiento, escalabilidad, fiabilidad y eficiencia de costos de plataformas y sistemas de datos alojados en la nube * Evaluar e integrar herramientas avanzadas de datos, incluidas Apache Airflow, Apache Spark (AWS EMR) u otras tecnologías similares, para mejorar los flujos de procesamiento de datos * Resolver desafíos complejos de resolución de problemas en sistemas alojados en AWS, garantizando estabilidad, escalabilidad y seguridad, además de realizar análisis de causa raíz para incidentes críticos * Desarrollar e implementar configuraciones robustas de IAM, políticas de seguridad, modelos de cifrado y mejores prácticas de AWS para mejorar la seguridad de los datos y el cumplimiento normativo * Ejecutar estrategias de planificación de capacidad, optimización de recursos y gestión de costos para componentes clave de la plataforma de datos * Brindar orientación técnica, experiencia y apoyo a los miembros del equipo, al tiempo que fomenta las mejores prácticas en todo el equipo **Requisitos** * 3\+ años de experiencia profesional en Ingeniería de Datos, DevOps o campos relacionados, con fuerte énfasis en infraestructura en la nube y automatización * Conocimientos avanzados de programación en Python, incluida la capacidad de crear scripts, automatizar y optimizar flujos de trabajo complejos * Experiencia comprobada con SQL para gestionar y consultar conjuntos de datos a gran escala * Amplia experiencia gestionando infraestructuras de datos en AWS, incluido el uso avanzado de servicios como Redshift, Glue, EMR y Athena * Conocimientos profundos de herramientas de Infraestructura como Código (IaC), tales como Terraform, AWS CloudFormation o Ansible, para implementaciones y automatizaciones a gran escala * Capacidad demostrada para operacionalizar canalizaciones CI/CD mediante herramientas como Jenkins, GitHub Actions, AWS CodePipeline u otras plataformas similares * Experiencia significativa práctica con herramientas de procesamiento y orquestación de datos distribuidos, como Apache Spark, Apache Airflow u otros sistemas similares * Conocimientos avanzados de administración de sistemas Linux y ajuste de rendimiento en entornos basados en la nube * Comprensión integral de protocolos de red, incluidos TCP, UDP, ICMP, DNS y NAT, especialmente en contextos en la nube * Experiencia práctica arquitecturando y automatizando implementaciones de infraestructura a gran escala mediante Terraform u otras herramientas similares * Experiencia comprobada instalando, configurando y operando plataformas avanzadas de datos, como Apache Kafka, NiFi u otras herramientas de canalizaciones de datos a gran escala * Capacidad para liderar y ejecutar proyectos complejos de forma efectiva, mientras se brinda mentoría y apoyo a miembros junior y de nivel medio del equipo * Dominio profesional del inglés (nivel B2\) **Deseable** * Experiencia práctica con otras plataformas en la nube, como Azure o GCP, incluido el diseño de arquitecturas multi-nube e híbridas * Conocimiento de herramientas y lenguajes estadísticos para análisis de datos, como R, o plataformas de visualización de datos como Tableau o Power BI * Conocimiento de plataformas avanzadas de CI/CD, como Bamboo u otras más allá de las herramientas principales * Experiencia implementando soluciones en entornos híbridos y locales (on-premises), coordinando flujos de datos seguros y escalables entre ellos * Antecedentes en evaluación y soporte de entornos contenerizados, aprovechando tecnologías como Kubernetes, Docker o AWS ECS/EKS


