Necessário: Experiência sólida com Databricks (Delta Lake, Unity Catalog, Databricks SQL e configuração de Jobs/Clusters). É essencial domínio de Azure (ADLS, Key V ault, Synapse), Python, PySpark e SQL avançado. Conhecimento em arquitetura medalhão (Bronze/Silver/Gold) e modelagem de dados (dimensional e analítica) são fundamentais. É esperado também experiência em versionamento com GitHub e configuração de esteiras CI/CD, aplicando boas práticas de DataOps e FinOps. O trabalho segue metodologias ágeis, com interação frequente com diferentes áreas, exigindo autonomia, organização e visão ponta a ponta no ciclo de dados. Desejável: Idioma Espanhol e experiência em Instituição Financeira. Atividades a serem desempenhadas: Será responsável pela manutenção e criação de processos de ETL, garantindo que os requisitos de negócio sejam atendidos com qualidade. Atuará na construção de pipelines para ingestão de dados em batch e near real time, promovendo a democratização das informações na nuvem. Terá papel protagonista no projeto de modernização da área, propondo e implementando soluções inovadoras que agreguem valor ao negócio. Sua atuação será ponta a ponta (E2E), desde o entendimento da necessidade, definição da solução, desenvolvimento, testes, implantação e suporte aos consumidores. Além disso, deverá assegurar a disponibilidade, confiabilidade e performance das aplicações, contribuindo para que a área de Finanças tenha acesso a dados confiáveis e em tempo hábil para a tomada de decisões estratégicas.
Número de vagas: 1
Tipo de contrato e Jornada: Efetivo – CLT - Período Integral
Área Profissional: Analista em Informática, TI, Telecomunicações - Administrador de Banco de Dados