Desenvolver pipelines de dados eficientes e escaláveis em PySpark para substituir processos ODI. Criar e manter objetos em banco de dados Oracle com PL/SQL (procedures, packages, views, cenários e load plan). Modelar e manter dashboards em Power BI, com dados financeiros críticos e KPIs estratégicos. Manter e evoluir a infraestrutura de ingestão e transformação de dados em alto volume (~5Mi transações/mês). Garantir qualidade, confiabilidade e performance dos dados em ambientes de produção. Apoiar o time de negócios na tradução de demandas analíticas em soluções técnicas. Implementar boas práticas de versionamento, documentação e governança de dados. Colaborar na definição da nova arquitetura analítica e de engenharia de dados. Requisitos e qualificações Experiência com PySpark (DataFrames, UDFs, performance tuning). Domínio de PL/SQL em ambientes Oracle, incluindo manipulação de grandes massas de dados. Proficiência com Power BI (DAX, modelagem, publicação no Service). Experiência com ambientes de faturamento, financeiro ou cobrança. Familiaridade com ferramentas ETL (ODI, Pentaho, Kafka.). Vivência com ambientes de grande volume de dados. Desejáveis: Experiência com cloud (Azure, AWS ou GCP). Noções de arquitetura de dados (Data lake, Data warehouse, delta lake). Conhecimento de versionamento com Git. Experiência com ferramentas de orquestração (Airflow, Luigi, etc.). Noções de DevOps para dados (CI/CD, testes automatizados).
Número de vagas: 1
Tipo de contrato e Jornada: Efetivo – CLT - Período Integral
Área Profissional: Coordenador em Logística - Transporte