




Resumen: Buscamos un Ingeniero Senior de Software de Datos para diseñar, implementar y mantener sistemas de integración de datos y construir canalizaciones de datos optimizadas aprovechando Apache Spark, Azure y Python. Aspectos destacados: 1. Trabajar en un proyecto de alto impacto para una marca reconocida a nivel mundial 2. Contribuir a soluciones innovadoras de datos que apoyen el crecimiento empresarial 3. Colaborar con equipos multifuncionales Estamos buscando un Ingeniero Senior de Software de Datos remoto para unirse a nuestro equipo. Este puesto requiere un profesional altamente calificado con experiencia especializada en Apache Spark, Microsoft Azure y Python. Usted trabajará en un proyecto de alto\-impacto para una marca reconocida a nivel mundial, contribuyendo al desarrollo de soluciones innovadoras de datos que respalden el crecimiento y el éxito empresarial. **Responsabilidades** * Colaborar con equipos multifuncionales para diseñar, implementar y mantener sistemas de integración de datos * Construir y optimizar canalizaciones de datos aprovechando Apache Spark, Microsoft Azure y Python * Asegurar que las canalizaciones de datos sean escalables, fiables y mantenibles * Convertir modelos de ciencia de datos en aplicaciones listas para producción * Desarrollar y apoyar modelos de pronóstico para informar las decisiones estratégicas empresariales * Mantener la calidad y coherencia de los datos en todas las fuentes de datos * Supervisar y mejorar las canalizaciones de datos para garantizar un procesamiento eficiente de los datos * Trabajar con científicos de datos para crear e implementar modelos de aprendizaje automático * Refinar y mejorar continuamente las soluciones de integración de datos para satisfacer los requisitos empresariales cambiantes * Mantenerse informado sobre las tendencias y tecnologías emergentes en ingeniería de software de datos **Requisitos** * Un mínimo de 3 años de experiencia en ingeniería de software de datos o en un puesto relacionado * Conocimientos avanzados de Apache Spark, Microsoft Azure y Python * Comprensión profunda de modelos de pronóstico, prácticas de MLOps y conceptos de ciencia de datos * Experiencia práctica con Databricks para construir y optimizar canalizaciones de datos * Capacidad comprobada para implementar modelos de ciencia de datos en entornos de producción * Competencia en el uso de Git para control de versiones * Amplios conocimientos de los conceptos de Azure, incluidas las nubes, regiones, ADLS y servicios de computación * Habilidades analíticas y de resolución de problemas excepcionales, con capacidad para pensar críticamente e innovar soluciones * Experiencia trabajando en entornos de desarrollo ágiles * Excelentes habilidades escritas y orales de comunicación en inglés, al nivel B2\+ **Deseable** * Experiencia con Pandas para manipulación y análisis de datos * Conocimientos profundos de SQL y sistemas de bases de datos relacionales * Comprensión de modelos estadísticos y experiencia desarrollándolos mediante Python o Spark * Familiaridad con herramientas y tecnologías de aprendizaje automático


