Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400
CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Estamos em busca de uma pessoa talentosa e motivada para atuar como Data Developer, integrando nosso time e contribuindo na construção de soluções escaláveis e inteligentes para grandes volumes de dados.
Responsabilidades:
-Projetar, desenvolver e manter pipelines de dados escaláveis e robustos.
-Criar soluções de ingestão, transformação e modelagem de dados utilizando Databricks, Spark/PySpark, Cloudera e Azure Data Factory (ADF).
-Garantir a qualidade, integridade e usabilidade dos dados ao longo de todo o pipeline.
-Implementar pipelines CI/CD voltados a processos ETL.
-Projetar e manter soluções de Data Lake e Data Warehouse, com aplicação de boas práticas de governança de dados.
-Aplicar conceitos de FinOps para otimização de custos relacionados ao processamento de dados na nuvem.
-Desenvolver e documentar workflows, processos e arquiteturas de dados.
-Realizar troubleshooting técnico de pipelines e infraestrutura de dados.
-Trabalhar com conceitos e estruturas como camadas Bronze, Silver e Gold, Star Schema, Delta Tables, Delta Sharing e tabelas analíticas.
-Colaborar com equipes técnicas e de negócios para orquestrar soluções alinhadas aos objetivos da empresa.
-Gerenciar roadmap técnico de projetos de dados, considerando dependências, trade-offs e gestão de mudanças.
Requisitos:
-Experiência com SAS.
-Experiência com Python / PySpark
-Experiência com Azure Databricks (workflows, jobs, delta tables, queries, etc)
-Experiência com SQL
-Experiência com Azure Data Factory (ADF)
-Experiência com Cloudera (Hive, Impala, HDFS, etc)
-Experiência com ETL/ELT e pipelines de dados
-Experiência com Modelagem de dados dimensionais
-Experiência com Data Lake / Data Warehouse
-Experiência com Governança e qualidade de dados
-Experiência com Vivência com práticas de CI/CD aplicadas ao ambiente de dados.
-Habilidade em comunicação e colaboração com times multidisciplinares.
-Capacidade de atuar em ambientes dinâmicos e lidar com escopo técnico pouco definido.
-Conhecimento em otimização de código em ambientes cloud.
Diferencial:
-Experiência com Teradata.
#LI-PA1