Data Engineer Pleno/Sênior

para a vaga de

Emprego

em
São Carlos
/
SP
publicado há 3 semanas

O Birdie é uma startup fundada em 2018 para atender ao mercado americano e crescer para o mercado global. Sediada em Palo Alto, no Vale do Silício, o Birdie tem seu time de Pesquisa e Desenvolvimento orgulhosamente baseado em São Carlos e São Paulo e acabamos de captar ~ R$1.5 milhões em nossa primeira rodada de investimento.

Nós contamos com um time de especialistas em Data Science escavando e estruturando informação de todos os cantos da internet para montar uma gigante base de conhecimentos de produtos e suas opiniões e estamos procuramos por profissional para se juntar ao time para gerenciar nosso ambiente da nuvem e otimizar os processos armazenamento, recuperação, transformação e segurança de dados, bem como apoiar o time de cientistas de dados em todas as tarefas relacionadas à infra-estrutura.

Você irá fazer parte um time multi-disciplinar que compõem diferentes partes do projeto desde a coleta e estruturação de diferentes tipos dados sobre produtos até a criação de experiência (UX) web com usuários e seu marketing para atração de consumidores.

Principais responsabilidades
· Gerenciar uma infra-estrutura otimizada de pipeline de dados para armazenar, recuperar, transformar grandes volumes e variedade de dados em formato relacional e não-relacional
· Monitorar e manter os níveis de serviço e performance da infra-estrutura de dados para atender às aplicações em produção
· Implementar melhorias nos processos internos
· Implementar e utilizar ferramentas analytics para monitorar indicadores de negócio e de saúde do processo
· Apoiar o time de cientistas de dados em relação às necessidades técnicas de infra-estrutura e à integração ao pipeline dos métodos criados
· Gerenciar infra-estrutura de micro-serviços que acessam dados consolidados e disponibilizam para aplicações da empresa

É muito importante você conhecer...
· Infra-estrutura na nuvem (utilizamos Google Cloud)
· Bancos relacionais e não-relacionais
· Agendamento, automação e monitoramento de tarefas
· Recuperação, transformação e armazenamento de grande quantidade dados
· Criação e gestão de micro-serviços

Seria ainda mais incrível se você tiver...
· Experiência com ferramentas para processamento de grandes volumes de dados e computação distribuída como Apache Hadoop/Spark ou equivalentes
· Experiência em implementação de soluções de busca com tecnologias como SOLR, Elasticsearch ou Lucene
· Conhecimento em ferramentas de orquestração e automação de workflows como Apache Airflow ou equivalentes

Gostou do desafio!? Quer participar dessa mudança e ajudar as pessoas a consumirem melhor ao invés de comprarem mais!? Queremos te conhecer!!!

Faça sua candidatura: https://goo.gl/forms/emmULP9Vtqa2l0Dl1

Ops! Nenhuma vaga encontrada com esse critério de busca.