Descrição:
2508240202591713844
Soft Skills
- Raciocínio analítico e foco em solução de problemas.
- Proatividade, curiosidade e aprendizado contínuo.
- Boa comunicação com áreas técnicas e de negócio.
- Capacidade de trabalhar em equipe com engenheiros de dados e analistas.
- Graduação completa, preferencialmente em Ciência da Computação, Engenharia da computação e Sistemas de Informação.
Diferenciais:
- Experiência com CI/CD para modelos (ex: MLflow, DVC).
- Experiência com containers (Docker) para empacotamento de soluções de dados.
- Conhecimento em NLP, Visão Computacional ou séries temporais.
- Certificações em IA ou Data Science.
Cientista de Dados (com foco em IA e Python)
Conhecimentos Essenciais:
- Experiência com projetos de Inteligência Artificial e Machine Learning.
- Domínio de Python e bibliotecas como:
- Pandas, Numpy, Scikit-learn, TensorFlow, PyTorch, Keras, Matplotlib, Seaborn.
- Conhecimento em SQL e habilidade para escrever consultas complexas.
- Familiaridade com boas práticas de versionamento de código (Git).
- Conhecimento em tratamento, análise e preparação de dados (data wrangling, feature engineering).
- Experiência com testes automatizados com foco em dados e scripts (ex: pytest).
Ingestão e Manipulação de Dados
- Entendimento de processos de ETL / ELT e tratamento de dados.
- Experiência com ferramentas de ingestão e transformação de dados, como:
- Airbyte, dbt, Kafka Connect, Apache Nifi (desejável).
- Familiaridade com orquestradores de pipeline de dados como Apache Airflow, Dagster ou Prefect.
Bancos de Dados
- Experiência prática com bancos de dados relacionais:
- PostgreSQL, MySQL, SQL Server, Oracle.
- Conhecimento básico em bancos NoSQL:
- MongoDB, Redis.
- Capacidade de otimizar consultas para grandes volumes de dados.
Data Warehousing e Modelagem Dimensional
- Conhecimento em modelagem de dados e práticas de Data Warehousing:
- Star Schema, Snowflake Schema, Slowly Changing Dimensions, entre outros.
Big Data (Diferenciais)
- Familiaridade com ferramentas de Big Data, como:
- Apache Spark, Apache Kafka, Hadoop, Flink.
- Experiência em processamento de dados em larga escala será um diferencial.
APIs e Integrações
- Experiência no consumo de APIs REST (para coletar dados externos).
- Conhecimento de princípios REST e protocolo HTTP.
- Noções básicas sobre autenticação com OAuth/JWT.
Visualização e BI (Desejável)
- Experiência com ferramentas de visualização de dados, como:
- Power BI, Tableau, Dash, Streamlit.
2508240202591713844