




**Descripción:** ---------------- **MISIÓN DEL CARGO** Responsable de diseñar, construir y mantener las infraestructuras de datos que soporten el crecimiento y la estrategia digital de la compañía. Su función principal es garantizar la disponibilidad, confiabilidad y calidad de los datos, habilitando el análisis avanzado, la inteligencia artificial y la toma de decisiones estratégicas. **RESPONSABILIDADES DEL CARG** * Diseñar, construir y optimizar pipelines de datos para ingesta, transformación y carga (ETL/ELT). * Administrar y mantener data lakes y data warehouses en entornos cloud o híbrido. * Integrar fuentes de datos estructurados y no estructurados (APIs, bases de datos, logs, etc.). * Asegurar la calidad, consistencia y gobernanza de los datos en toda la organización. * Colaborar con Data Scientists, Data Analysts y equipos de negocio para habilitar casos de uso de analítica avanzada. * Implementar procesos de monitoreo, versionamiento y orquestación de pipelines. * Optimizar el rendimiento de consultas y almacenamiento de datos. * Gestionar políticas de seguridad, accesos y compliance de datos (ej. GDPR, ISO, HIPAA según aplique). * Documentar arquitectura, procesos y estándares de datos. **Requisitos:** --------------- **Formación:** Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Datos o afines. **Experiencia:** 3\+ años de experiencia como Data Engineer o en roles relacionados con datos. Experiencia demostrada en construcción de pipelines de datos y entornos cloud. **Certificaciones deseables:** ✅AWS Certified Data Analytics o AWS Data Engineer Associate ✅Google Professional Data Engineer ✅Microsoft Certified: Azure Data Engineer Associate **Conocimientos especificos:** * Lenguajes de programación: Python, SQL (avanzado), Java o Scala (deseable). * Frameworks y librerías: PySpark, Pandas, NumPy. * Bases de datos: Relacionales (PostgreSQL, MySQL, SQL Server) y NoSQL (MongoDB, Cassandra). * Herramientas ETL/ELT: Airflow, dbt, Talend, Informatica o similares. * Cloud \& Big Data: * AWS (Glue, Redshift, S3, EMR), * Azure (Data Factory, Synapse, Data Lake), * GCP (BigQuery, Dataflow, Pub/Sub). * Data Warehousing: Snowflake, BigQuery, Redshift, Synapse. * Orquestación: Apache Airflow, Prefect o Luigi. * Mensajería y streaming: Kafka, Spark Streaming, Pub/Sub. * Gobernanza y calidad de datos: Data Catalog, Collibra, Great Expectations. * Herramientas de versionamiento y CI/CD: Git, Jenkins, GitHub Actions. **Habilidades:** Pensamiento analítico y resolución de problemas complejos. Capacidad de diseño arquitectónico y visión sistémica. Comunicación clara con equipos técnicos y de negocio. Organización, manejo de prioridades y trabajo autónomo. Colaboración en entornos ágiles y multidisciplinarios.


