Descrição da vaga
Estamos à procura de um novo #Confidencial (Apenas para Cadastrados)ER para liderar um Time de alto nível que atua na automatização e análise de dados que impactam diretamente as tomadas de decisão do nosso negócio.
Para ajudar a empresa a atingir sua missão de transformar a logística com tecnologia inteligente, precisamos que você:
Responsabilidades e atribuições
● Garantir o uso correto dos dados na companhia
● Definir e implementar os modelos de dados que suportem o ciclo de vida dos dados;
● Conduzir o mapeamento e documentação da informação estratégica em formato tabular, incluindo data sets para modelagem estatística e auxílio no provisionamento de Data Marts.
● Efetuar manutenções em códigos existentes, desenvolver novas funcionalidades e manter "vivo" o ambiente atual;
● Atuar como especialista no assunto e fornecer liderança técnica para nossa plataforma de analytics, garantindo consistência, qualidade e integridade dos ativos de dados
● Desenvolver e melhorar processos, diretrizes e soluções para integração de dados, segurança de dados e gerenciamento de metadados.
● Prover análise e migrações de estruturas de dados vindas de diversas fontes;
● Suportar a construção e manutenção do ambiente de Data Lake;
Requisitos e qualificações
● Experiência de implementação de Banco de dados relacional (SQLServer, Athena, MySQL e PostgreSQL) e soluções Big Data (MongoDB, Spark).
● Conhecimento em modelagem de dados (relacional e não relacional);
● Conhecimento em tuning de queries (SQL);
● Experiência com ferramentas de ETL - extração, transformação e carregamento (AWS DMS, Glue, dbt, Airflow, Stitch, NiFi);
● Linguagens de programação: Python (bibliotecas Pandas, Arrow, scikit-learn, PySpark);
● Conhecimento em estratégias e ferramentas de gestão do ciclo de vida dos dados e replicação;
● Provisionamento de dados através da construção de APIs utilizando Python Flask;
● Experiência com ambientes e serviços de Cloud para suporte ao Data Lake. Conhecimentos de AWS e Google Cloud. Principais requisitos: AWS Lambda, ECS (Docker), EC2, VPC, cluster EMR, S3, EFS e SageMaker;
● Experiência com DataBricks e ferramentas de ingestão de dados;
● Bacharel em Ciência da Computação, Engenharia de Computação. Engenharia, Estatística / Matemática ou similar;
● Inglês Avançado/Fluente é obrigatório.
Informações adicionais
● Construir arquitetura de RPA e definição de novas funcionalidades, visando otimização de recursos e escalabilidade.
● Ter Vivência com ETL (Extract, Transform e Load) e DW (Data Warehouse);
● Garantir que cada solicitação de dados mestre esteja totalmente em conformidade com as regras e padrões de negócios;
● Fornecer orientação estratégica e auxiliar o time na priorização e mobilização de recursos para abordar oportunidades de dados e análises;
● Tiver conhecimentos de técnicas de Machine Learning;
● Conhecimento de ferramentas de visualização;
● Conhecimento de ferramentas de ingestão, orquestração e repositório de dados;
● Experiência prévia com ambientes de Data Warehouse.
● Liderança de Squad em processo Ágil.
● Ter Habilidade em comunicar os insights de forma clara e capacidade de traduzir os dados técnicos em termos de negócio;