





Linqia es líder en la industria del marketing de influencers. Somos una startup tecnológica en crecimiento, con un crecimiento anual del 100 % y ya alcanzamos el punto de equilibrio. En Linqia colaboramos con las marcas más grandes del mundo, como Danone, AB InBev, Kimberly-Clark, Unilever y Walmart, para crear campañas de marketing de influencers atractivas y eficaces. Nuestra plataforma impulsada por inteligencia artificial y nuestro equipo de expertos lideran la transformación del marketing de influencers. Valoramos la inteligencia, reconocemos el talento e impulsamos una cultura que apoya el desarrollo profesional y el crecimiento de nuestros empleados. Nos destacamos por la innovación y la responsabilidad, con una actitud centrada en el cliente que aporta un valor real a todo lo que tocamos. Nuestros miembros del equipo son inteligentes, trabajadores, íntegros y disfrutan divertirse mientras compiten para ganar. Puesto: Nivel de experiencia: uno a tres años Ubicación: Cualquier lugar de Colombia Tipo de empleo: Contrato a tiempo completo **ACERCA DEL PUESTO** ------------------ Únete a un equipo nativo en la nube que gestiona todo el ciclo de vida de entrega de software en Amazon Web Services. Combinarás tu profunda experiencia en Kubernetes con Python y scripts en shell para automatizar, supervisar y mejorar continuamente la plataforma Linqia, al tiempo que impulsa prácticas de FinOps para mantener eficiente nuestra infraestructura en la nube. Trabajarás en una cultura GitOps, donde cada cambio se entrega mediante solicitudes de extracción (pull requests) y se despliega mediante pipelines automatizados. **LO QUE HARÁS** -------------------- * Diseñar, mantener y evolucionar la estructura de cuentas de AWS, la red VPC, las políticas IAM, los límites de seguridad y los controles de gestión de costos mediante Terraform y la consola de AWS. * Operar y reforzar clústeres de Kubernetes de producción en AWS EKS, incluyendo actualizaciones, malla de servicios, gestión de políticas y arquitecturas multi-clúster impulsadas por Argo CD. * Crear módulos reutilizables de infraestructura como código (IaC) con Terraform que aprovisionen recursos en la nube en minutos, aplicando estándares de etiquetado y acceso con privilegios mínimos. * Construir pipelines CI/CD de autoservicio en Jenkins y GitHub Actions para lanzamientos rápidos y seguros, con pruebas automatizadas y promoción entre entornos. * Proporcionar observabilidad en tiempo real mediante Datadog, Prometheus, Grafana, CloudWatch y OpenTelemetry, incorporando Loki cuando se requiera análisis profundo de registros. * Implementar y escalar plataformas de streaming como Apache Kafka y almacenes de datos con estado como PostgreSQL, MySQL y Elasticsearch sobre Kubernetes mediante Operators y StatefulSets, o sobre máquinas virtuales EC2 endurecidas, seleccionando el patrón de despliegue óptimo para cada carga de trabajo. * Apoyar a los desarrolladores manteniendo entornos locales de desarrollo basados en Podman y entornos de preproducción que reflejen fielmente la producción, garantizando una transición fluida desde el código local hasta los despliegues nativos en la nube. * Implementar prácticas de FinOps: seguimiento y previsión de los gastos en AWS, aplicación obligatoria del etiquetado para asignación de costos, identificación de oportunidades de ajuste de recursos, gestión de planes de ahorro (Savings Plans) o instancias reservadas (Reserved Instances), y construcción de paneles de optimización de costos para partes interesadas de ingeniería y finanzas. * Mantener capas de redes seguras mediante balanceadores de carga de AWS, controladores de entrada (ingress controllers), políticas de malla de servicios, políticas de red y principios de confianza cero. * Desarrollar utilidades de automatización y herramientas de línea de comandos en Python, además de escribir scripts en shell que integren componentes y flujos de trabajo. * Impulsar la confiabilidad mediante revisiones de incidencias, planificación de capacidad, simulacros operativos (game days), pruebas de caos y seguimiento de objetivos de nivel de servicio (SLO). * Colaborar en rituales ágiles, planificar sprints, refinar tickets del backlog y trabajar en parejas con colegas para difundir las mejores prácticas de DevOps y FinOps. **QUÉ APORTAS** ------------------ * Título universitario en Ciencias de la Computación o experiencia práctica equivalente. * Uno a tres años de experiencia trabajando con infraestructura en la nube o ingeniería de plataformas centrada en AWS. * Experiencia práctica avanzada en Kubernetes, preferiblemente en EKS, abarcando actualizaciones, redes, almacenamiento, RBAC y recursos personalizados. * Competencia en Python y en scripting Bash o Zsh. * Conocimientos sólidos de servicios centrales de AWS: EC2, VPC, IAM, ALB, S3, RDS, CloudFormation y CloudWatch. * Experiencia demostrable aplicando principios de FinOps: monitoreo, previsión y optimización de costos en AWS. * Experiencia sólida con Docker y motores de contenedores, con énfasis en Podman para entornos locales de desarrollo. * Práctica con herramientas de gestión de configuración como Ansible o Puppet, y con infraestructura como código (IaC) mediante Terraform. * Uso comprobado de Datadog para métricas, registros y APM, además de familiaridad con paneles de Prometheus y Grafana. * Capacidad para trabajar con flujos basados en Git, ramas de características (feature branching) y revisiones de solicitudes de extracción (pull requests). * Competencia sólida en SQL y comprensión profunda de los aspectos internos de bases de datos relacionales, además de familiaridad con al menos un motor de búsqueda o análisis como Elasticsearch. * Competencia en administración de Linux, resolución de problemas de procesos y ajuste de rendimiento. * Conocimientos prácticos de TCP/IP, HTTP, TLS, DNS y herramientas comunes de redes. * Habilidades claras de comunicación y capacidad para traducir temas técnicos complejos para distintas audiencias. * Familiaridad con Scrum o Kanban y mentalidad orientada a la mejora continua. **VENTAJA ADICIONAL** ---------------- * Certificaciones de AWS como Arquitecto de Soluciones, Ingeniero DevOps o Practicante de FinOps. * Experiencia con herramientas de seguridad de AWS como GuardDuty, Security Hub, IAM Access Analyzer y KMS. * Construcción de pipelines de datos con Apache Spark, Flink u otros marcos similares. * Implementación de arquitecturas orientadas a eventos con Kafka Streams o KSQL. * Aplicación de prácticas de SRE como presupuestos de errores y paneles de nivel de servicio. * Exposición a flujos de trabajo de aprendizaje automático, ModelOps o MLOps en producción. Esta descripción de puesto tiene como finalidad detallar las funciones que con mayor frecuencia realiza una persona en este puesto. Linqia es una empresa que ofrece igualdad de oportunidades laborales y apoya la diversidad en su plantilla. Animamos activamente a mujeres, personas con discapacidad, veteranos, minorías subrepresentadas y personas LGBTQ+ a presentar su candidatura. No discriminamos por raza, religión, color, origen nacional, género, identidad o expresión de género, orientación sexual, edad, estado civil, condición de veterano o discapacidad. De conformidad con la Ordenanza de Oportunidades Justas de San Francisco, consideraremos para el empleo a solicitantes calificados con antecedentes de arresto o condena. Los headhunters y agencias de reclutamiento no pueden enviar currículums ni candidatos a través de este sitio web ni directamente a nuestros empleados. Linqia no acepta currículums ni candidatos de headhunters o agencias sin solicitud previa, ni pagará honorarios a ninguna agencia o empresa tercera que no tenga un acuerdo firmado con nosotros.


