Desenvolver e manter pipelines de dados escaláveis: Criar fluxos de dados de ponta a ponta (extração, transformação e carregamento - ETL) que garantam a ingestão eficiente de dados, preparação e manutenção para uso em modelos de machine learning.
Suporte à implementação de modelos de machine learning em produção: Colaborar com cientistas de dados e engenheiros para integrar modelos em sistemas de produção e garantir que sejam executados de maneira eficiente e contÃnua.
Otimização e automação de processos: Identificar gargalos nos pipelines de dados e implementar soluções para aumentar a eficiência e reduzir custos computacionais.
Gerenciamento e monitoramento de pipelines: Monitorar a performance dos pipelines de dados e modelos de machine learning em produção, garantindo a integridade e a qualidade dos dados ao longo do ciclo de vida dos modelos.
Arquitetura de dados e armazenamento: Definir arquiteturas robustas para armazenamento de dados (Data Lakes, Data Warehouses) que suportem grande volume de dados e operações de ML, com foco em performance e segurança.
Melhoria contÃnua: Explorar novas ferramentas e tecnologias no espaço de engenharia de dados e machine learning para inovar e melhorar os fluxos de trabalho.
Requisitos: ;
Superior em Engenharia de Computação, Ciência da Computação, Análise e Desenvolvimento de Sistemas ou afins;
Experiência anterior na função;
Inglês avançado;
Espanhol desejável.
2x na semana no escritório - Próximo a ponte estaiada em SP. ;