Requisitos: • 7 a 10 años en proyectos de Big Data • 3 a 5 años como arquitecto de datos • Experiencia con Hadoop (HDFS, MapReduce, YARN), Spark, Kafka, Flink, HBase • Conocimiento avanzado de Python, Java, Scala, SQL y NoSQL • Experiencia con AWS (S3, Glue, Redshift), Azure (Synapse, Data Factory), GCP (BigQuery, Dataflow) • Conocimientos en seguridad de datos, gobernanza (Apache Ranger, Atlas), GDPR y CCPA • Certificaciones deseables: AWS Big Data Specialty, Azure Data Engineer, TensorFlow Developer • Inglés B2 mínimo Funciones: • Diseñar arquitecturas de datos escalables y resilientes • Optimizar pipelines y procesos ETL en tiempo real y por lotes • Administrar data lakes, almacenes y seguridad de datos • Liderar equipos técnicos y proyectos de adopción tecnológica • Documentar soluciones, generar reportes de rendimiento y evaluar nuevas herramientas • Alinear la arquitectura con los objetivos del negocio Condiciones del cargo: • Tipo de contrato: Prestación de servicios • Salario: A convenir • Lugar de trabajo: Remoto LATAM (preferencia por Colombia) • Modalidad: 100% remoto • Duración: Indefinido • Jornada: Tiempo completo (Horario laboral México) 3500 USD