• 5+ years of experience required on data architecture (order matters): o hands-on experience in defining and implementing data mesh principles across multiples domains o proven expertise in dimensional modeling (star and snowflake schema). o in-depth knowledge and hands-on experience with data vault 2.0 modeling. o experience designing enterprise data architecture using modern lakehouse, dalalake and warehouse patterns. o proficient in designing logica, physical, and canonical data models aligned with business domains. o experience working with metadata management and catalogs. o strong knowledge of master data management mdm, data lineage and data governance best practices. o knowledge of data privacy regulations and secure data architecture design. • technical proficiency in: o python expert. o open format table expert (delta lake or iceberg or hudi). o azure / gcp cloud professional data architect certification. o gcp dataplex expert. o databricks unity catalog expert. o spark y/o flink expert....
Encargado de diseñar, construir y optimizar pipelines de datos a gran escala, integrando diversas fuentes internas y externas (api, base de datos esto es de copilot). debe trabajar con tecnologías de procesamiento distribuido y almacenamiento masivo para habilitar análisis en tiempo real y batch. habilidades clave: experiencia con spark, hadoop, kafka o herramientas similares. dominio de sql avanzado y manejo de bases de datos relacionales y nosql. conocimiento en python o scala para desarrollo de etl/elt. experiencia en entornos de nube (azure, aws o gcp)....
Cree una alerta de empleo y reciba nuevas ofertas que se adaptan a su perfil desde más de 2550 sitios web de empleo