




Buscamos un **Ingeniero Senior de Big Data** altamente cualificado para unirse a nuestro equipo **remoto**, trabajando en proyectos apasionantes en el campo de la ingeniería de datos y el análisis de datos. En este puesto, será responsable de escribir pipelines de procesamiento por lotes utilizando Spark Scala, colaborar con equipos de ingesta para crear nuevos pipelines, solucionar y corregir incidencias en producción, probar el código desarrollado, implementar pruebas unitarias e integrales, y desplegar soluciones en producción. También será responsable de la modelización de datos, así como de leer datos desde Kafka y procesarlos en modo por lotes. **Responsabilidades** * Escribir pipelines de procesamiento por lotes, colaborando con equipos de ingesta para crear nuevos pipelines * Solucionar y corregir incidencias en producción, probar el código desarrollado e implementar pruebas unitarias e integrales * Realizar modelización de datos para nuevos productos de datos y leer datos desde Kafka para procesarlos en modo por lotes * Desplegar soluciones en producción y garantizar el funcionamiento fluido de los pipelines * Colaborar con equipos multifuncionales para comprender los requisitos comerciales y traducirlos en soluciones técnicas * Garantizar la calidad, integridad y seguridad de los datos durante todo el ciclo de vida del procesamiento de datos * Contribuir al desarrollo de mejores prácticas y estándares para la ingeniería y el análisis de Big Data **Requisitos** * Un mínimo de 3 años de experiencia en Ingeniería de Software de Datos, con enfoque en tecnologías y plataformas de Big Data * Conocimientos expertos en Snowflake, Amazon Web Services, Python y SQL * Amplia experiencia con Apache Hadoop, Apache Kafka, Apache Spark y Apache Impala * Experiencia en la escritura de pipelines de procesamiento por lotes utilizando Spark Scala y en el despliegue de soluciones en producción * Competencias sólidas en modelización de datos para nuevos productos de datos * Buen conocimiento de los conceptos de ingesta, procesamiento y almacenamiento de datos * Experiencia práctica en la prueba del código desarrollado, la implementación de pruebas unitarias e integrales y la solución de incidencias en producción * Excelentes habilidades comunicativas y una sólida capacidad de pensamiento crítico para transmitir eficazmente retroalimentación y conocimientos * Dominio oral y escrito del inglés a nivel intermedio alto o superior, que permita una comunicación efectiva **Deseable** * Experiencia con tecnologías de procesamiento de datos en tiempo real, como Apache Flink o Apache Storm * Conocimientos de tecnologías de contenerización, como Docker y Kubernetes * Experiencia trabajando con bases de datos NoSQL, como MongoDB o Cassandra * Familiaridad con conceptos y frameworks de aprendizaje automático, como TensorFlow o PyTorch * Experiencia con herramientas de visualización de datos, como Tableau o Power BI


