Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400
CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Estamos em busca de profissionais para atuar como Engenheiro (a) de Dados Júnior, apaixonado (a) por construir e otimizar soluções de dados em larga escala no ecossistema Azure e Databricks. A sua missão será apoiar o desenvolvimento e a manutenção da nossa plataforma de dados, garantindo que nossas informações sejam robustas, confiáveis e prontas para o consumo analítico e estratégico.
Principais Responsabilidades:
- Auxiliar na implementação e manutenção de pipelines de dados escaláveis e eficientes, colaborando no gerenciamento do ciclo de vida dos dados nas camadas Bronze, Silver e Gold na plataforma Databricks.
Auxiliar e contribuir para a construção e gerenciamento de fluxos de ETL/ELT utilizando Azure Databricks (PySpark/SQL) e Azure Data Factory, garantindo a ingestão e transformação robusta dos dados.
- Aprender a otimizar o ciclo de desenvolvimento e a performance dos pipelines, utilizando ferramentas de IA generativa e assistentes de código para acelerar a entrega e melhorar a qualidade do código.
- Auxiliar na manutenção da integridade e performance do nosso Data Lakehouse, utilizando Delta Lake como camada de armazenamento principal.
- Colaborar com analistas e equipes de negócio para implementar modelos de dados otimizados para consumo de BI e análises.
- Apoiar na construção e implementação de APIs para facilitar a comunicação e consumo de dados entre sistemas.
- Trabalhar em conjunto com equipes multifuncionais (BI, Data Science, Negócios) e aprender sobre as melhores práticas de engenharia e governança de dados.
Requisitos:
- Conhecimento em engenharia de dados, preferencialmente em um ambiente Azure Cloud, mesmo que em projetos acadêmicos ou estágios.
- Conhecimento básico em Azure Databricks e Spark, com vontade de aprender mais sobre PySpark e Spark SQL.
- Interesse em aprender sobre Azure Data Factory (ADF) e criação de pipelines.
- Conhecimento em SQL e Python (com foco em engenharia de dados, como Pandas e PySpark).
- Compreensão básica dos fluxos de ETL/ELT e arquitetura Medallão.
- Noções de técnicas de modelagem de dados (dimensional, relacional) e familiaridade com ferramentas de modelagem.
#LI-DR3
#Junior