Objetivo Desarrollar y mantener la infraestructura de datos para apoyar la toma de decisiones empresariales. Este rol implica crear y gestionar pipelines de datos, diseñar almacenes de datos y implementar soluciones para el procesamiento y análisis de datos. Responsabilidades Diseñar e implementar pipelines de datos escalables para la ingestión, limpieza, transformación y carga de datos desde diversas fuentes. Configurar y administrar sistemas de almacenamiento de datos, bases de datos y herramientas de procesamiento de datos para asegurar su escalabilidad, disponibilidad y rendimiento. Identificar y resolver problemas de rendimiento en pipelines de datos y sistemas de almacenamiento, implementando soluciones para mejorar la eficiencia y la velocidad de procesamiento. Crear y mantener sistemas de gestión de metadatos para catalogar y documentar conjuntos de datos, pipelines de datos y procesos de transformación. Implementar medidas de seguridad y cumplimiento para proteger la confidencialidad, integridad y disponibilidad de los datos. Habilidades y Experiencia Requerida Título académico en Ingeniería Informática, Ingeniería de Software o afines. Experiencia mínima de 2 años en modelado de bases de datos relacionales y no relacionales. Conocimientos en: SQL y manejo de sistemas de gestión de bases de datos como PostgreSQL, MySQL. Tecnologías de almacenamiento de datos, incluyendo data lakes y/o data warehouses (Redshift, BigQuery, Snowflake). Diseño y desarrollo de pipelines de datos escalables (ETL). Herramientas de orquestación de flujos de datos como Airflow. Dominio de Python. Integración de datos desde múltiples fuentes: APIs, archivos planos, sistemas internos. Entornos de nube como AWS (S3, Redshift, Glue), GCP o Azure. Manejo de Git y familiaridad con prácticas de CI/CD aplicadas a pipelines de datos. Priorización Se dará prioridad a las habilidades y experiencia relevantes en el campo de la ingeniería de datos.