Skip to content

Latest commit

 

History

History
112 lines (85 loc) · 7.56 KB

README.md

File metadata and controls

112 lines (85 loc) · 7.56 KB

🛒 Super Mercado 🛍️

Este projeto permitirá que a rede de supermercados compreenda melhor as interações entre clientes e funcionários, identificando oportunidades de aprimoramento no atendimento. Aumentando a satisfação do cliente e melhorando a eficiência, a empresa poderá criar uma experiência mais positiva para seus clientes, promovendo a fidelização e o sucesso a longo prazo.A analise pode ser conferida aqui 🌟🤝

Inicializando o projeto 🚀

  • Clone o projeto: git clone https://github.com/Jandersolutions/super_mercado.git
  • Crie uma máquina virtual: python -m venv myvenv
  • Ative a máquina virtual: source myvenv/bin/activate
  • Instale as requisições: pip install -r requirements.txt
  • Abra o JupyterLab: jupyter-lab 📊🔬
  • Docker: docker build -t janderscience . docker run -p 8888:8888 janderscience

Materiais e links 📕


Material Link
Notebook https://github.com/Jandersolutions/super_mercado/blob/main/notebooks/projeto.ipynb
Docker https://docs.docker.com/
Report do projeto https://github.com/Jandersolutions/super_mercado/blob/main/reports/relatorio.pdf
Gerador de Dataset¹ https://github.com/Jandersolutions/super_mercado/blob/main/src/data/geraDatasetVendas.py
Dataset https://github.com/Jandersolutions/super_mercado/blob/main/data/raw/venda_07-2023.csv
Cookiecutter Data Science https://drivendata.github.io/cookiecutter-data-science/
CRISP-DM https://pt.wikipedia.org/wiki/Cross_Industry_Standard_Process_for_Data_Mining
Faker https://faker.readthedocs.io/en/master/
Documentação do projeto https://github.com/Jandersolutions/super_mercado/blob/main/references/descric%C3%A3o%20do%20projeto.pdf
Dicionário de dados https://github.com/Jandersolutions/super_mercado/blob/main/references/dicionario%20dos%20dados.pdf

1 artigo que publiquei sobre o gerador de dataset -> artigo

Explicando o CRISP-DM:

O CRISP-DM, que significa "Cross Industry Standard Process for Data Mining", é um modelo de processo amplamente utilizado para a mineração de dados e análise de dados. Ele fornece uma estrutura e orientação para as etapas envolvidas no desenvolvimento de projetos de mineração de dados e análise de dados. O CRISP-DM é composto por várias fases interconectadas e iterativas, permitindo uma abordagem sistemática para resolver problemas de mineração de dados e alcançar insights a partir de grandes conjuntos de dados.

As fases do modelo CRISP-DM são as seguintes:

-Entendimento do Negócio (Business Understanding): Nesta fase, os objetivos do projeto são definidos, identificando-se as metas de negócios que a análise de dados deve alcançar. É crucial compreender o contexto do problema e como a análise de dados pode agregar valor ao negócio.

-Entendimento dos Dados (Data Understanding): Aqui, a equipe analisa e explora os dados disponíveis para entender sua estrutura, qualidade e natureza. Isso envolve coletar informações sobre os dados, identificar padrões iniciais e compreender o que os dados podem revelar.

-Preparação dos Dados (Data Preparation): Nesta fase, os dados são selecionados, limpos, transformados e formatados para serem adequados para a análise. É um estágio crítico para garantir que os dados estejam prontos para serem usados nos modelos de mineração.

-Modelagem (Modeling): Aqui, diferentes modelos de mineração de dados são criados e avaliados. Esses modelos podem incluir algoritmos de aprendizado de máquina, técnicas estatísticas e outras abordagens para gerar previsões, classificações ou outras análises.

-Avaliação (Evaluation): Nesta fase, os modelos criados são avaliados e comparados para determinar qual deles é o mais adequado para atender aos objetivos do projeto. A avaliação é feita com base em métricas de desempenho relevantes para o problema em questão.

-Implantação (Deployment): Uma vez que um modelo satisfatório é selecionado, ele é implantado em um ambiente operacional ou integrado a um fluxo de trabalho existente. Isso pode envolver a criação de sistemas automatizados para fazer previsões ou recomendações com base no modelo.

-Monitoramento (Monitoring): Após a implantação, é importante monitorar o desempenho contínuo do modelo e seus resultados. Se necessário, ajustes e otimizações podem ser feitos para garantir que o modelo continue fornecendo insights precisos e relevantes ao longo do tempo.

Como o projeto esta organizado 📚

├── LICENSE
├── Makefile           <- Makefile com comandos como make data ou make train
├── README.md          <- O README de nível superior para desenvolvedores que utilizam este projeto.o arquvo que você esta lendo
├── data
│   ├── external       <- Dados de fontes de terceiros.
│   ├── interim        <- Dados intermediários que foram transformados.
│   ├── processed      <- Conjuntos de dados finais e canônicos para modelagem.
│   └── raw            <- O dado original e imutável.
│
├── docs               <- Um projeto Sphinx padrão; veja sphinx-doc.org para detalhes.
│
├── models             <- Modelos treinados e serializados, previsões de modelos ou resumos de modelos.
│
├── notebooks          <- Notebooks Jupyter. A convenção de nomenclatura é um número (para ordenação),
│                         
│                         
│
├── references         <- Dicionários de dados, manuais e todos os outros materiais explicativos.
│
├── reports            <- Análises geradas como HTML, PDF, LaTeX, etc
│   └── figures        <-  Gráficos e figuras geradas para uso em relatórios
│
├── requirements.txt   <- O arquivo de requisitos para reproduzir o ambiente de análise
│                      
│
├── setup.py           <- Torna o projeto instalável via pip (pip install -e .), para que src possa ser importado.
├── src                <- Código-fonte para uso neste projeto
│   ├── __init__.py    <- Makes src a Python module
│   │
│   ├── data           <- Scripts para baixar ou gerar dados.
│   │   └── make_dataset.py
│   │
│   ├── features       <- Scripts para transformar dados brutos em recursos para modelagem.
│   │   └── build_features.py
│   │
│   ├── models         <- Scripts para treinar modelos e usar modelos treinados para fazer previsões
│   │   │                
│   │   ├── predict_model.py
│   │   └── train_model.py
│   │
│   └── visualization  <- Scripts para criar visualizações exploratórias e orientadas por resultados.
│       └── visualize.py
│
└── tox.ini            <- Arquivo tox com configurações para executar o tox; veja tox.readthedocs.io

Este projeto foi baseado nas melhores praticas cookiecutter data science project template. #cookiecutterdatascience