Sobre mim

Meu nome é Gabriel Silverio

Eu possuo formação em Negócios Internacionais pela PUC-Campinas, obtida em 06/2022, além de 2 anos de experiência em cadeia de suprimentos, logística e armazenagem, comprovadamente em empresas multinacionais de médio e grande porte.

Atualmente, estou em transição para o campo de dados. Meu objetivo principal é desenvolver soluções de negócios abrangentes, desde a criação de dashboards e análise exploratória de dados até a elaboração de modelos de aprendizado de máquina, bem como sua implementação em ambientes de produção.

Isso envolve a aplicação de técnicas avançadas de análise estatística e de aprendizado de máquina para resolver desafios empresariais. Como profissional, tenho dedicado todo meu tempo e esforço para adquirir habilidades e me tornar um especialista independente em dados.

Habilidades

Linguagens de Programação e Banco de Dados

  • Python com foco em análise de dados.
  • Web scraping com Python.
  • SQL para extração de dados.
  • Banco de Dados SQLite

Estatística e Machine Learning

  • Estatística descritiva (localização, dispersão, assimetria, kurtosis, densidade).
  • Algoritmos de Regressão, classificação, clusterização e "learn to rank"
  • Técnicas de balanceamento dos dados, seleção de atributos e redução de dimensionalidade.
  • Métricas de performance dos algoritmos (RMSE, MAE, MAPE, Confusion Matrix, Precisão, Recall, Curva ROC, Curva Lift, AUC, Silhouette Score, DB-Index).
  • Pacotes de Machine Learning: Sklearn e Scipy.

Visualização de Dados

  • Matplotlib, Seaborn, Plotly
  • Power BI.

Engenharia de Software

  • Git, Github, Gitlab
  • Streamlit, Flask, Python API's.
  • Cloud Render

Experiências

4 Projetos completos de Ciência de Dados

Construção de soluções de dados para problemas de negócio, próximos dos desafios reais das empresas, utilizando dados públicos de competições de Ciência de Dados, onde eu abordei o problema desde a concepção do desafio de negócio até a publicação do algoritmo treinado em produção, utilizando ferramentas de Cloud Computing.

2 anos como Assistente Administrativo pela PROGEN na P&G Louveira

O feito mais importante foi desenvolver um relatório automatizado no SAP que compilava todos os materiais pendentes de entrega. Extraia os dados do SAP e os transferia para o Excel para posterior tratamento com macros. Em seguida, entrava em contato com os fornecedores para fazer o acompanhamento das datas de entrega. Além disso, utilizei o Power BI para criar um painel abrangente de acompanhamento para fins de monitoramento. Essa iniciativa otimizou nosso processo de rastreamento de entregas, aprimorando a eficiência e a precisão na gestão logística.

2 anos como Customer Assistente II na AGV Solística

Na Solística, meu principal desafio foi assumir uma área dentro da minha equipe que carecia de processos padronizados e controles adequados para demonstrar indicadores. Fui encarregado de desenvolver, praticamente do zero, os controles de devoluções. Para isso, foi necessário compilar informações de diversos departamentos, consolidá-las e realizar análises detalhadas sobre devoluções. Posteriormente, apresentava os indicadores resultantes ao cliente. Essa experiência exigiu habilidades de organização, análise e comunicação para resolver um problema complexo e crucial para a operação.

Projetos em Ciência de Dados

Construção de um algoritmo de machine learning para realizar a previsão de vendas para as próximas 6 semanas.

Eu usei Python, Estatística e técnicas supervisionadas de Machine Learning para prever as vendas de uma rede de farmácias nas próximas 6 semanas, a fim de definir qual seria o melhor e pior cenário de vendas para cada uma, com o objetivo de dar clareza ao CEO quais lojas deveriam receber mais budget. E o resultado dessa solução, caso fosse implementada, seria um modelo em produção em API que a pessoa de negócio poderia acessar as previsões em tempo real por um app no celular, apenas indicando o ID da loja que gostaria de saber.

    Ferramentas utilizadas

  • Git e Github.
  • Python, Pandas, Matplotlib e Seaborn
  • Jupyter Notebook.
  • XGB Regressor.
  • Render API
  • Telegram Bot

Identificação de clientes mais propensos a aceitar um novo seguro.

Identificar quais clientes têm maior probabilidade de aceitar um novo seguro pode economizar tempo e dinheiro para o time de compras. Ao saber quem realmente tem boas chances de adquirir o novo produto, evitamos contatos frios.

    Ferramentas utilizadas

  • Python, Pandas, Numpy e Seaborn, Scikitplot e Sklearn
  • Anaconda, Pycharm e Jupyter Notebook.

Construção de um programa de fidelidade com clusterização de clientes.

Eu usei Python, Estatística e técnicas não-supervisionadas de Machine Learning para segmentar um grupo de clientes com base em suas características de performance de compra, a fim de selecionar grupos de clientes para formar um programa de Fidelidade com o objetivo de aumentar a receita da empresa. E o resultado dessa solução, caso fosse implementada, seria de R$ 15MM de dólares de receita anual.

    Ferramentas utilizadas

  • Git, Gitlab e Github.
  • Python, Pandas, Matplotlib e Seaborn
  • Jupyter Notebook.
  • K-Means, Hierarquical Clustering, DBScan
  • AWS Cloud (EC2, S3, Postgres, SQLite)
  • Metabase Visualization

Análise exploratória dos Restaurantes Zomato.

Análise de Dados com Python, aprimorarando habilidades fundamentais para manipular e explorar informações, bem como extrair insights valiosos de conjuntos de dados. Além disso, nos permite criar dashboards intuitivos e informativos, que facilitam a visualização e a tomada de decisões fundamentadas.

    Ferramentas utilizadas

  • Python, Pandas, Numpy e Seaborn.
  • Anaconda, Pycharm e Jupyter Notebook.
  • Mapas interativos com Plotly e Folium.
  • Streamlit Python framework web.

Contato