CREDICORP - DATA ENGINEER LIMA, PERU A TIEMPO COMPLETO [NP-265]

Tiempo completo
Grupocredicorp


CREDICORP – DATA ENGINEER La misión de Credicorp es transformar la sociedad ofreciendo los mejores servicios financieros para ayudar a nuestros clientes a cumplir sus objetivos. Como uno de los 10 principales grupos financieros de Latinoamérica, cubrimos todas las necesidades de nuestros clientes a través de: - Banca Universal: Banco de Crédito del Perú y Banco de Crédito de Bolivia - Banca de Inversión y Gestión de Patrimonios: Credicorp Capital y Atlantic Security Bank en Chile, Colombia, Perú, Panamá y EEUU. - Microfinanzas: MiBanco en Perú y Colombia. - Emprendimientos disruptivos: Yape, Krealo, IO, Tenpo, Tyba, otros. - Seguros y Pensiones: Pacífico y Prima AFP en Perú En Credicorp hemos iniciado un camino para convertirnos en la empresa más centrada en el cliente del país y la región. Si te apasiona innovar en la industria financiera, cambiar paradigmas financieros, facilitar la vida de los clientes a través de soluciones tecnológicas y digitales y, sobre todo, ayudar a nuestros clientes a alcanzar sus metas, este es el momento perfecto para unirte al mejor lugar para los mejores y empezar a generar impacto. El área se encarga de desarrollar capacidades de People Analytics proporcionando insights estratégicos que impacten en la toma de decisiones y la generación de valor. ¿Cómo saber que eres el indicado? - Egresado de Computación e Informática, Ingeniería de Sistemas o afines - Experiencia de 5 a más años en implementación de soluciones con las tecnologías requeridas. - Análisis y desarrollo de flujos de Ingesta y transformación de datos en Data lake o Lake House en plataformas On Premise y/o Cloud. - Análisis y Desarrollo utilizando procesamiento distribuido en Spark usando PySpark y Scala (Batch). - Optimización de los procesos a desarrollar o existentes con un enfoque de optimización de costos (tiempo de procesamiento y uso del clúster) con Spark. - Análisis y schedulamiento de los procesos de acuerdo con los criterios definidos por los usuarios. - Despliegue soluciones en producción haciendo uso de herramientas de integración y despliegue continuo (Dev SecOps). - Desarrollo de soluciones transversales para la mejora continua del framework de desarrollo y despliegue de soluciones. - Desarrollo de buenas prácticas, frameworks y estándares de desarrollo en Spark. - Consultoría y asesoría técnica en la estrategia de implementación de soluciones en plataformas distribuidas On Premise y/o Cloud. Funciones - Plantear estrategias de implementación eficientes y eficaces de las soluciones de acuerdo con la arquitectura unificada de datos. - Dirigir el análisis de la causa raíz de problemas (RCA) y brindar soluciones. - Diseñar, desarrollar y desplegar soluciones de datos de calidad, óptimos en costos (tiempo de procesamiento y uso del clúster), seguras y escalables (batch) de acuerdo con la arquitectura unificada de datos (On Premise / Cloud) y estrategias de implementación (To be y transitorias). - Desarrollar soluciones utilizando las buenas prácticas, frameworks, componentes y herramientas estandarizadas. - Co-crear lineamientos, buenas prácticas, estándares de desarrollo y asesoría técnica de las soluciones. - Demostrar liderazgo técnico y resolver temas complejos de ingeniería de datos, referidos a la programación y procesamiento de datos, en el Data lake On Premise o Lakehouse Cloud. - Realizar presentaciones sobre estado de avance del proyecto a nivel de jefaturas y a nivel gerencial. - Migración de procesos a Cloud Azure. - Procesos ETL (Datafactory, Databricks, data flow). - Desarrollo sobre plataformas Spark (Databricks, hadoop, Azure, Stream Analytics). - Generación de pipelines de datos. - Implementar automatizaciones y componentes reutilizables que permitan estandarizar las prácticas de desarrollo y construcción de soluciones. - Definición de almacenamiento Cloud (Storage Account). - Analizar y optimizar procesos en producción que presenten un deterioro en su rendimiento y uso inadecuado de los recursos computacionales con el fin de mantener la estabilidad de la plataforma, y de esta manera recoger las lecciones aprendidas y compartir buenas prácticas. Conocimientos requeridos - Python (Pyspark) o Scala como APIs de Spark - Avanzado (indispensable). - Experiencia en servicios de data - Cloud Computing (Suscripcion, RG, IAM, Service Principal, Servicios IaaS, PaaS, SaaS). - Databricks: Notebooks, Repos, Data Explorer. - Cluster Management, Workflows (Jobs, DLTs), Unit Catalog. - Manejo de Delta Lake (Schemas, Tables, Permissions, Versioning, Optimizing, Vacuuming, Cloning, Streaming Live). - Data Factory - Pipelines, Triggers, Activities, Linked Services, Datasets, Data Flow, Integration Runtime. - Big Data - avanzado: Arquitecturas, proyectos y frameworks con Big Data. - Data Lake, HDFS, Hadoop, Hive, Impala, Spark, Shell/Linux. - Tipos de datos: JSON, Parquet, AVRO. - Usa y propone buenas prácticas y estándares de desarrollo con Spark. - Tuning y optimización de procesos con Spark. - Shell scripting (deseable). - Manejo de SQL / PLSQL - Avanzado. - Conocimiento y experiencia en el ciclo de desarrollo y despliegue de modelos de ML - Deseable. ¿Qué te ofrecemos? - Pago de Bonos por Desempeño. - Flex time. - Plan de Salud para Colaboradores. - Oportunidades de desarrollo. #J-18808-Ljbffr

trabajosonline.net © 2017–2021
Más información