




Resumen: Únase como Ingeniero Senior de Software de Datos para diseñar, construir y mantener soluciones innovadoras de integración y tuberías de datos para una marca líder. Aspectos destacados: 1. Trabajar en proyectos de alto impacto para una marca líder mundial 2. Desarrollar y optimizar tuberías de datos utilizando tecnologías de vanguardia 3. Transformar modelos de ciencia de datos en soluciones listas para producción Buscamos un Ingeniero Senior de Software de Datos remoto para unirse a nuestro equipo. Este puesto requiere un experto técnico con una sólida experiencia en Apache Spark, Microsoft Azure y Python. Tendrá la oportunidad de trabajar en un proyecto de alto impacto para una de las marcas más importantes del mundo, contribuyendo a soluciones innovadoras de datos que impulsen el éxito empresarial. **Responsabilidades** * Colaborar estrechamente con equipos multifuncionales para diseñar, construir y mantener soluciones de integración de datos * Desarrollar y optimizar tuberías de datos utilizando Apache Spark, Microsoft Azure y Python * Garantizar que las tuberías de datos sean fiables, escalables y fáciles de mantener * Transformar modelos de ciencia de datos en soluciones listas para producción * Crear y mantener modelos de pronóstico para apoyar los procesos de toma de decisiones empresariales * Asegurar la coherencia y calidad de los datos en todas las fuentes de datos * Supervisar y ajustar finamente las tuberías de datos para un procesamiento eficiente y efectivo de los datos * Colaborar con científicos de datos para desarrollar e implementar modelos de aprendizaje automático * Mejorar y perfeccionar continuamente la solución de integración de datos para satisfacer las necesidades empresariales cambiantes * Mantenerse actualizado sobre las tecnologías emergentes y las mejores prácticas en ingeniería de software de datos **Requisitos** * Al menos 3 años de experiencia en ingeniería de software de datos o un puesto similar * Conocimientos avanzados en Apache Spark, Microsoft Azure y Python * Sólida comprensión de modelos de pronóstico, MLOps y principios de ciencia de datos * Experiencia práctica con Databricks para construir, mantener y optimizar tuberías de datos * Capacidad demostrada para llevar modelos de ciencia de datos a entornos productivos * Competencia en el uso de Git para control de versiones * Conocimiento sólido de los conceptos de Azure, incluidas nubes, regiones, ADLS y computación * Excelentes habilidades analíticas y de resolución de problemas, con capacidad para pensar de forma crítica y creativa * Experiencia trabajando en equipos y entornos de desarrollo ágiles * Excelentes habilidades de comunicación en inglés, tanto verbales como escritas, nivel B2+ **Deseable** * Experiencia utilizando Pandas para manipulación y análisis de datos * Amplios conocimientos de SQL y estructuras de bases de datos relacionales * Comprensión de modelos estadísticos y experiencia en el desarrollo de modelos con Python o Spark * Familiaridad con herramientas y tecnologías del ámbito del aprendizaje automático


