En Datup, estamos revolucionando la forma en que las empresas gestionan sus cadenas de suministro a través de nuestra plataforma SaaS impulsada por inteligencia artificial. Ayudamos a empresas de diversos sectores a predecir la demanda con mayor precisión, optimizar inventarios y tomar decisiones estratégicas que impactan directamente en su rentabilidad y eficiencia operativa. ¿Qué harás día a día? - Implementar y mantener la infraestructura cloud de Datup sobre AWS en un entorno multi-cuenta. - Crear módulos reutilizables de Terraform que permitan escalar nuestros microservicios de forma segura y eficiente. - Diseñar y mantener pipelines de CI/CD híbridos usando GitHub Actions, GitLab CI y AWS CodePipeline. - Construir y mejorar la observabilidad de la plataforma (CloudWatch, X-Ray, Logs estructurados). - Habilitar la integración entre AWS y Google Cloud (BigQuery) para facilitar pipelines de datos seguros y eficientes. - Brindar soporte y mentoría técnica a los equipos de desarrollo.Liderar la estandarización de la infraestructura como producto interno (plantillas, convenciones, mejores prácticas). - Proponer soluciones de automatización para procesos manuales, con foco en reutilización y eficiencia. ¿Lo qué buscamos en tí? AWS Multi-Account & Networking - Conocimiento avanzado de AWS Organizations, Control Tower o arquitecturas equivalentes. - Experiencia en diseño de VPC, subredes, peering, NAT, Security Groups, NACLs en arquitecturas seguras y escalables. - Experticia en IAM y políticas de mínimo privilegio, especialmente para escenarios cross-account y CI/CD. Infraestructura como Código (IaC) - Experiencia avanzada con Terraform (módulos reutilizables, workspaces, state remoto en S3/DynamoDB). - Conocimiento de Terragrunt (deseable). - Capacidad de diseño de infra como producto: permitir que otros equipos reutilicen tu trabajo fácilmente. AWS Copilot + ECS/Fargate - Experiencia con AWS Copilot, incluyendo configuración de manifest.yml y uso de add-ons. - Profundo conocimiento de ECS/Fargate, desde configuración de tareas hasta auto-scaling y optimización de costos. - Gestión del ciclo de vida de imágenes en ECR. CI/CD Híbrido - Dominio de GitHub Actions, GitLab CI y AWS CodePipeline. - Capacidad para integrar pipelines (build/test en GitLab → deploy en CodePipeline, por ejemplo). - Diseño de pipelines genéricos y parametrizables para que otros equipos los adopten fácilmente. Observabilidad - CloudWatch Logs y Metrics: estructuración, custom metrics, queries con Logs Insights. - Alarmas efectivas con SNS, Slack, email. - Conocimiento de AWS X-Ray para tracing distribuido. - Familiaridad con OpenTelemetry (plus). Integración AWS GCP - Experiencia con pipelines de datos entre AWS y BigQuery (usualmente vía S3 → GCS → BQ). - Conocimiento en federación de identidades entre nubes, autenticación segura y patrones de ingesta. Soft Skills y Mindset - Pensamiento como “Product Owner” de plataforma: ves la infraestructura como un producto para desarrolladores. - Proactividad y sentido de ownership: no esperas a que te digan qué hacer, detectas problemas y propones soluciones. - Capacidad de mentoría: disfrutas enseñar, hacer code reviews y mejorar a otros. - Habilidad de comunicarte con claridad técnica y de negocio: traduces requerimientos técnicos en soluciones concretas. Bonus: Conocimiento y Experiencia Deseable - Experiencia con AWS Step Functions, Lambdas o EventBridge para automatización. - Conocimiento en seguridad avanzada (CIS Benchmarks, IAM Access Analyzer). - Familiaridad con herramientas como PostHog, Sentry o Prometheus para monitoreo adicional. - Experiencia liderando migraciones fuera de proveedores externos. Para aplicar al cargo debes enviar tu CV a rrhh@datup.ai en el asunto debe venir el cargo al que aplicas y tu nombre. Súper importante, un párrafo donde describas por qué eres la persona ideal y si cumples con lo solicitado. #J-18808-Ljbffr