Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400
CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Estamos buscando um Engenheiro de Dados apaixonado por tecnologia e com expertise em construir e manter pipelines de dados robustos e escaláveis. Você será referência técnica em Oracle e PowerCenter, garantindo qualidade, governança e performance de ponta a ponta nos pipelines e no modelo dimensional do time. Ter expertise em Databricks e PySpark são diferenciais valiosos.
Suas responsabilidades serão:
- Projetar, desenvolver, orquestrar e otimizar processos ETL em PowerCenter, dominando o ciclo end‑to‑end para garantir a qualidade dos dados da extração à carga, com foco em escalabilidade e reprocessamento controlado.
- Escrever e otimizar PL/SQL e consultas SQL avançadas em Oracle
- Experiência sólida em modelagem dimensional (Star Schema), com capacidade de projetar e otimizar tabelas Fato e Dimensão, aplicando práticas de performance (particionamento de fato, índices adequados e estratégias de carga) para suportar consultas analíticas em escala.
- Diagnosticar e solucionar problemas relacionados aos dados, garantindo a estabilidade e o desempenho dos pipelines.
- Colaborar com diferentes áreas de negócio para entender as necessidades de dados e traduzi-las em soluções eficazes.
- Implementar testes para garantir a qualidade dos dados nos pipelines de dados.
- Aplicar princípios de FinOps para otimizar os custos relacionados à infraestrutura e aos serviços de dados.
Requisitos essenciais para a posição:
- Experiência comprovada em engenharia de dados on‑premise com foco em Data Warehouse corporativo.
- Domínio de Oracle Database: SQL/PL/SQL avançado.
- Forte experiência com PowerCenter: desenho de mapeamentos e workflows, otimização de sessões, tratamento de erros, reprocessamento controlado, parametrização e versionamento.
- Modelagem dimensional (Star Schema).
- Governança e qualidade de dados.
- Testes e confiabilidade: automação de testes unitários e de integração de dados.
- Orquestração e agendamento: experiência com schedulers (ex.: Control‑M ou similar) e monitoração ponta a ponta de pipelines.
- Capacidade de diagnóstico e resolução de problemas complexos de performance e integridade de dados.
- Habilidade de comunicação e colaboração com áreas técnicas e de negócio, traduzindo requisitos em soluções de dados eficazes.
- Capacidade de se manter atualizado com as últimas tendências e tecnologias em engenharia de dados.
Diferenciais para se destacar:
- Experiência com processos ETL, particularmente utilizando Databricks e Azure Data Factory.
- Projetar e implementar pipelines de dados complexos e eficientes utilizando Databricks e Azure Data Factory, seguindo padrões de arquitetura Medalhão.
- Orquestrar pipelines de dados complexos utilizando workflows e Azure Data Factory.
- Desenvolver e manter código em Spark/PySpark ou Python, com foco em orientação a objetos, utilizando boas práticas de engenharia de dados.
- Experiência com outras linguagens de programação.
- Implementar testes unitários e testes de integração para garantir a qualidade do código e dos pipelines de dados e familiaridade com frameworks de testes.
- Experiência na implementação de processos de governança de dados, utilizando ferramentas de data quality, profiling, catálogo e linhagem de dados.
- Certificações ou treinamento formal em serviços em nuvem Azure e Databricks.
#LI-DR3
#Senior