object-recognition
Science Score: 44.0%
This score indicates how likely this project is to be science-related based on various indicators:
-
✓CITATION.cff file
Found CITATION.cff file -
✓codemeta.json file
Found codemeta.json file -
✓.zenodo.json file
Found .zenodo.json file -
○DOI references
-
○Academic publication links
-
○Academic email domains
-
○Institutional organization owner
-
○JOSS paper metadata
-
○Scientific vocabulary similarity
Low similarity (3.7%) to scientific vocabulary
Repository
Basic Info
- Host: GitHub
- Owner: LucasTNM
- License: agpl-3.0
- Language: Python
- Default Branch: master
- Size: 16.3 MB
Statistics
- Stars: 0
- Watchers: 0
- Forks: 0
- Open Issues: 1
- Releases: 0
Metadata Files
README.md
🔍 Detecção de Objetos com YOLOv5
Este repositório contém um projeto de detecção de objetos utilizando o framework YOLOv5, com um modelo já treinado e pronto para realizar inferência em novas imagens.
O projeto foi desenvolvido como parte da disciplina de Inteligência Computacional no IFB.
🧠 Sobre o projeto
- 📦 Framework: YOLOv5 (Ultralytics)
- 📸 Dataset: Imagens rotuladas do Kaggle
- 🧠 Treinamento: Modelo com 1 classe (
objeto) - ⚙️ Execução local com CPU
- ✅ Modelo já treinado incluído no repositório
📁 Estrutura do Projeto
yolov5/ ├── data/ │ ├── images/train/ # Imagens usadas no treinamento e teste │ ├── labels/train/ # Labels no formato YOLO (geradas a partir de CSV) │ └── dataset.yaml # Arquivo de configuração do dataset ├── runs/train/exp/weights/ │ └── best.pt # Modelo treinado (peso final) ├── train.py # Script de treinamento ├── detect.py # Script de inferência ├── requirements.txt # Dependências do YOLOv5 └── READMEPROJECT.md # Este arquivo
⚙️ Requisitos
- Python 3.8+
- PyTorch
- PIL, pandas, matplotlib
- Placa NVIDIA (opcional)
Instale as dependências com:
```bash pip install -r requirements.txt
🚀 Como Rodar a Inferência Você pode rodar a detecção de objetos nas imagens com o modelo treinado (best.pt) usando:
python detect.py --weights runs/train/exp/weights/best.pt --source data/images/train --conf 0.4
🔄 Parâmetros úteis: Parâmetro Descrição --weights Caminho para os pesos do modelo treinado --source Pasta ou imagem a ser analisada (.jpg, .mp4, etc.) --conf Nível mínimo de confiança (ex: 0.4) --device Use cpu ou 0 para GPU NVIDIA (se disponível)
🖼️ Onde Ver os Resultados Os resultados da inferência serão salvos automaticamente em:
runs/detect/exp/
Você encontrará as imagens com as caixas de detecção desenhadas ao redor dos objetos.
📌 Extras O modelo foi treinado com 30 épocas, mas pode ser ajustado facilmente com o parâmetro --epochs.
O script de conversão de CSV para YOLO format está disponível em outro branch/opcional.
A estrutura de diretórios segue o padrão oficial do YOLOv5 para facilitar reuso e expansão.
👨💻 Autor Lucas Tony Ciência da Computação – IFB - Campus Taguatinga Projeto acadêmico – Inteligência Computacional
Owner
- Login: LucasTNM
- Kind: user
- Repositories: 1
- Profile: https://github.com/LucasTNM
Citation (CITATION.cff)
cff-version: 1.2.0
preferred-citation:
type: software
message: If you use YOLOv5, please cite it as below.
authors:
- family-names: Jocher
given-names: Glenn
orcid: "https://orcid.org/0000-0001-5950-6979"
title: "YOLOv5 by Ultralytics"
version: 7.0
doi: 10.5281/zenodo.3908559
date-released: 2020-5-29
license: AGPL-3.0
url: "https://github.com/ultralytics/yolov5"
GitHub Events
Total
- Issue comment event: 1
- Push event: 2
- Create event: 3
Last Year
- Issue comment event: 1
- Push event: 2
- Create event: 3
Dependencies
- actions/checkout v4 composite
- actions/setup-python v5 composite
- astral-sh/setup-uv v6 composite
- slackapi/slack-github-action v2.1.0 composite
- contributor-assistant/github-action v2.6.1 composite
- actions/checkout v4 composite
- docker/build-push-action v6 composite
- docker/login-action v3 composite
- docker/setup-buildx-action v3 composite
- docker/setup-qemu-action v3 composite
- ultralytics/actions main composite
- actions/checkout v4 composite
- ultralytics/actions/retry main composite
- actions/checkout v4 composite
- actions/setup-python v5 composite
- actions/stale v9 composite
- pytorch/pytorch 2.0.0-cuda11.7-cudnn8-runtime build
- gcr.io/google-appengine/python latest build
- matplotlib >=3.3.0
- numpy >=1.22.2
- opencv-python >=4.6.0
- pandas >=1.1.4
- pillow >=7.1.2
- psutil *
- py-cpuinfo *
- pyyaml >=5.3.1
- requests >=2.23.0
- scipy >=1.4.1
- seaborn >=0.11.0
- thop >=0.1.1
- torch >=1.8.0
- torchvision >=0.9.0
- tqdm >=4.64.0
- ultralytics >=8.1.47
- PyYAML >=5.3.1
- gitpython >=3.1.30
- matplotlib >=3.3
- numpy >=1.23.5
- opencv-python >=4.1.1
- pandas >=1.1.4
- pillow >=10.3.0
- psutil *
- requests >=2.32.2
- scipy >=1.4.1
- seaborn >=0.11.0
- setuptools >=70.0.0
- thop >=0.1.1
- torchvision >=0.9.0
- tqdm >=4.66.3
- Flask ==2.3.2
- gunicorn ==23.0.0
- pip ==23.3
- werkzeug >=3.0.1
- zipp >=3.19.1