Este projeto permitirá que a rede de supermercados compreenda melhor as interações entre clientes e funcionários, identificando oportunidades de aprimoramento no atendimento. Aumentando a satisfação do cliente e melhorando a eficiência, a empresa poderá criar uma experiência mais positiva para seus clientes, promovendo a fidelização e o sucesso a longo prazo.A analise pode ser conferida aqui 🌟🤝
- Clone o projeto:
git clone https://github.com/Jandersolutions/super_mercado.git
- Crie uma máquina virtual:
python -m venv myvenv
- Ative a máquina virtual:
source myvenv/bin/activate
- Instale as requisições:
pip install -r requirements.txt
- Abra o JupyterLab:
jupyter-lab
📊🔬 - Docker:
docker build -t janderscience .
docker run -p 8888:8888 janderscience
1 artigo que publiquei sobre o gerador de dataset -> artigo
O CRISP-DM, que significa "Cross Industry Standard Process for Data Mining", é um modelo de processo amplamente utilizado para a mineração de dados e análise de dados. Ele fornece uma estrutura e orientação para as etapas envolvidas no desenvolvimento de projetos de mineração de dados e análise de dados. O CRISP-DM é composto por várias fases interconectadas e iterativas, permitindo uma abordagem sistemática para resolver problemas de mineração de dados e alcançar insights a partir de grandes conjuntos de dados.
As fases do modelo CRISP-DM são as seguintes:
-Entendimento do Negócio (Business Understanding): Nesta fase, os objetivos do projeto são definidos, identificando-se as metas de negócios que a análise de dados deve alcançar. É crucial compreender o contexto do problema e como a análise de dados pode agregar valor ao negócio.
-Entendimento dos Dados (Data Understanding): Aqui, a equipe analisa e explora os dados disponíveis para entender sua estrutura, qualidade e natureza. Isso envolve coletar informações sobre os dados, identificar padrões iniciais e compreender o que os dados podem revelar.
-Preparação dos Dados (Data Preparation): Nesta fase, os dados são selecionados, limpos, transformados e formatados para serem adequados para a análise. É um estágio crítico para garantir que os dados estejam prontos para serem usados nos modelos de mineração.
-Modelagem (Modeling): Aqui, diferentes modelos de mineração de dados são criados e avaliados. Esses modelos podem incluir algoritmos de aprendizado de máquina, técnicas estatísticas e outras abordagens para gerar previsões, classificações ou outras análises.
-Avaliação (Evaluation): Nesta fase, os modelos criados são avaliados e comparados para determinar qual deles é o mais adequado para atender aos objetivos do projeto. A avaliação é feita com base em métricas de desempenho relevantes para o problema em questão.
-Implantação (Deployment): Uma vez que um modelo satisfatório é selecionado, ele é implantado em um ambiente operacional ou integrado a um fluxo de trabalho existente. Isso pode envolver a criação de sistemas automatizados para fazer previsões ou recomendações com base no modelo.
-Monitoramento (Monitoring): Após a implantação, é importante monitorar o desempenho contínuo do modelo e seus resultados. Se necessário, ajustes e otimizações podem ser feitos para garantir que o modelo continue fornecendo insights precisos e relevantes ao longo do tempo.
├── LICENSE
├── Makefile <- Makefile com comandos como make data ou make train
├── README.md <- O README de nível superior para desenvolvedores que utilizam este projeto.o arquvo que você esta lendo
├── data
│ ├── external <- Dados de fontes de terceiros.
│ ├── interim <- Dados intermediários que foram transformados.
│ ├── processed <- Conjuntos de dados finais e canônicos para modelagem.
│ └── raw <- O dado original e imutável.
│
├── docs <- Um projeto Sphinx padrão; veja sphinx-doc.org para detalhes.
│
├── models <- Modelos treinados e serializados, previsões de modelos ou resumos de modelos.
│
├── notebooks <- Notebooks Jupyter. A convenção de nomenclatura é um número (para ordenação),
│
│
│
├── references <- Dicionários de dados, manuais e todos os outros materiais explicativos.
│
├── reports <- Análises geradas como HTML, PDF, LaTeX, etc
│ └── figures <- Gráficos e figuras geradas para uso em relatórios
│
├── requirements.txt <- O arquivo de requisitos para reproduzir o ambiente de análise
│
│
├── setup.py <- Torna o projeto instalável via pip (pip install -e .), para que src possa ser importado.
├── src <- Código-fonte para uso neste projeto
│ ├── __init__.py <- Makes src a Python module
│ │
│ ├── data <- Scripts para baixar ou gerar dados.
│ │ └── make_dataset.py
│ │
│ ├── features <- Scripts para transformar dados brutos em recursos para modelagem.
│ │ └── build_features.py
│ │
│ ├── models <- Scripts para treinar modelos e usar modelos treinados para fazer previsões
│ │ │
│ │ ├── predict_model.py
│ │ └── train_model.py
│ │
│ └── visualization <- Scripts para criar visualizações exploratórias e orientadas por resultados.
│ └── visualize.py
│
└── tox.ini <- Arquivo tox com configurações para executar o tox; veja tox.readthedocs.io
Este projeto foi baseado nas melhores praticas cookiecutter data science project template. #cookiecutterdatascience