Ci&t

[Job- 26528] Data Developer Pleno

Brazil Full Time
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.

Estamos buscando um Engenheiro de Dados para atuar com soluções avançadas de engenharia de dados, com forte foco no ecossistema Azure. O profissional será responsável por projetar, desenvolver e manter pipelines e ambientes de dados escaláveis e de alta performance, utilizando tecnologias modernas. Procuramos alguém apaixonado por dados, com habilidades técnicas sólidas e interesse em trabalhar em um ambiente dinâmico e inovador.

Responsabilidades:
Projetar e gerenciar pipelines de dados utilizando Azure Data Factory.
Desenvolver e manter notebooks, workflows e Delta Tables no Databricks.
Implementar soluções de processamento de dados com Python e PySpark.
Construir procedures, views e funções no SQL Server (on-premises e na nuvem com Azure SQL).
Criar e gerenciar processos de ETL com SSIS.
Trabalhar com bancos de dados relacionais e não relacionais, garantindo eficiência e integridade no armazenamento e recuperação de dados.
Modelar dados utilizando ferramentas amplamente reconhecidas no mercado, incluindo estruturas como dimensional, estrela e floco de neve.
Garantir a qualidade, escalabilidade e segurança das soluções de dados implementadas.
Colaborar com equipes multidisciplinares (produto, desenvolvimento e analytics) para atender às necessidades da organização.
Desenvolver e manter processos de CI/CD para integração e entrega contínua em pipelines de dados.


Requisitos Obrigatórios:
Sólida atuação (3+ anos) na área de Engenharia de Dados, especialmente no ecossistema Azure.
Conhecimento avançado em tecnologias como Azure Data Factory, Azure SQL e Databricks.
Proficiência em Python e PySpark para processamento e manipulação de grandes volumes de dados.
Experiência com SQL Server (on-premises e na nuvem), incluindo desenvolvimento de procedures, views e funções.
Conhecimento em bancos de dados relacionais (como SQL Server e Oracle) e não relacionais (como CosmosDB e MongoDB).
Familiaridade com modelagem de dados utilizando ferramentas de mercado e abordagens como dimensional, estrela e floco de neve.
Experiência em otimização e transferência de grandes volumes de dados entre sistemas on-premises e transacionais na nuvem.

Requisitos Desejáveis:
Conhecimento em metodologias ágeis.
Familiaridade com ferramentas de gestão e colaboração, Jira e Confluence.
Experiencia com ferramentas de modelagem ERwin, DrawSql, Lucidchart.
Experiência com sistemas de versionamento de código, como GitHub ou Bitbucket.
Conhecimento em processos de CI/CD, utilizando ferramentas como Azure DevOps, GitHub Actions ou similares.
Compreensão de práticas de DevOps aplicadas ao ambiente de dados.
Familiaridade com outras soluções da Azure, como Azure Synapse Analytics, Azure Cosmos DB e Azure Data Lake Storage Gen2.