




Resumen del Puesto: Buscamos un Ingeniero de Datos apasionado con experiencia en transformación de ecosistemas de información, dominio en ETL’s con Spark (PySpark) y diseño de arquitecturas Data Lake y Lakehouse para liderar el ciclo completo del dato. Puntos Destacados: 1. Retos técnicos y personales que garantizan constante crecimiento 2. Cultura de mejora continua con apoyo y oportunidades de aprendizaje 3. Programas para potenciar talentos y cuidar el bienestar ¿**Estás buscando nuevos desafíos** y un lugar donde puedas disfrutar de un ambiente cercano mientras **aprendes** constantemente? ¡Bienvenido a un equipo con un propósito claro: **"TRANSFORMAR** la vida de las personas siendo el aliado **TECNOLÓGICO** más confiable"! ### **¡Prepárate y únete a esta aventura!** **¿Qué encontrarás?** --------------------- * **Retos técnicos** y personales que te mantendrán en constante crecimiento. * Un equipo conectado, enfocado en **tu bienestar físico y mental**. * **Cultura de mejora continua**, fresca y colaborativa, con oportunidades de aprendizaje y gente dispuesta a apoyarte. * **KaizenHub**, un programa diseñado para potenciar tus talentos, con **feedback**, mentorías y coaching a través de **Sofka U**. ¡Será un reto y un juego a la vez! * **Programas como Happy Kaizen y WeSofka** que cuidan tu bienestar físico y emocional. **¿Qué buscamos?** ------------------ Un **Ingeniero de Datos** apasionado, con al menos **3 años de experiencia** transformando ecosistemas de información. Tu perfil destaca por el dominio avanzado en la construcción de **ETL’s con Spark (PySpark)** y el diseño de arquitecturas modernas como **Data Lake y Lakehouse**. Esta es tu oportunidad para liderar el ciclo completo del dato en un entorno de vanguardia. Aquí, tu capacidad técnica no solo optimizará procesos, sino que será el motor de innovación que defina el futuro estratégico de nuestra organización. ### **Responsabilidades** * Analizar los requerimientos de negocio para diseñar modelos de datos alineados con los objetivos estratégicos. * Desarrollar flujos de datos eficientes utilizando herramientas especializadas para la integración y procesamiento. * Aplicar transformaciones complejas y controles rigurosos sobre las estructuras de datos para asegurar su integridad. * Implementar soluciones avanzadas de datos en entornos de nube para maximizar la escalabilidad. * Gestionar el ciclo de vida del desarrollo siguiendo estándares de alta calidad y limpieza de código. * Diseñar visualizaciones de datos que permitan a los stakeholders interpretar resultados de manera sencilla. * Colaborar en flujos de trabajo ágiles utilizando sistemas de control de versiones y entornos de desarrollo integrados. ### **Requisitos** * **Formación:** Profesional en Ingeniería de Sistemas, Computación, Electrónica o carreras afines con enfoque en datos. * **Experiencia:** Experiencia sólida en ingeniería de datos, modelado y desarrollo de soluciones Metadata Driven con parametrización. ### **Conocimientos Técnicos** * Construcción de ETL’s en Spark (PySpark) con Python y SQL. * Manejo de Databricks, Azure DataFactory y SQL Database. * Implementación de soluciones en nubes públicas (Azure, AWS o GCP). * Arquitecturas Data Lake y Lakehouse con implementaciones Metadata Driven. * Visualización de datos con Power BI o herramientas similares. * Control de versiones con Git y Azure DevOps. * Uso de IDEs como Jupyter Notebook o Visual Studio Code. ### **¡****PRESENTATE** **y sé parte de esta historia!** **Condiciones** --------------- * **Contrato a término indefinido** ¡Queremos relaciones a largo plazo y que seas parte de nuestra familia por mucho tiempo! * **¿Buscas crecimiento profesional?** En Sofka, te ofrecemos un **ecosistema de aprendizaje** con múltiples herramientas para cerrar brechas y potenciar tus habilidades. ¡Tú decides cómo quieres crecer!


