easy_mmseg

everyone can use mmseg easiely.

https://github.com/dyzy41/easy_mmseg

Science Score: 44.0%

This score indicates how likely this project is to be science-related based on various indicators:

  • CITATION.cff file
    Found CITATION.cff file
  • codemeta.json file
    Found codemeta.json file
  • .zenodo.json file
    Found .zenodo.json file
  • DOI references
  • Academic publication links
  • Academic email domains
  • Institutional organization owner
  • JOSS paper metadata
  • Scientific vocabulary similarity
    Low similarity (1.4%) to scientific vocabulary
Last synced: 6 months ago · JSON representation ·

Repository

everyone can use mmseg easiely.

Basic Info
  • Host: GitHub
  • Owner: dyzy41
  • License: apache-2.0
  • Language: Jupyter Notebook
  • Default Branch: master
  • Size: 8.67 MB
Statistics
  • Stars: 1
  • Watchers: 1
  • Forks: 0
  • Open Issues: 0
  • Releases: 0
Created over 2 years ago · Last pushed over 2 years ago
Metadata Files
Readme License Citation

README.md

easy_mmseg

everyone can use mmseg easiely. 1. 项目介绍
mmsegmentation是一个非常好用的框架,但是代码很复杂,调试起来也很麻烦,不熟悉分割的同学可能用不好这个项目库,这对cv learner来说是个巨大的损失,因此我把mmsegmentation最关键的一些地方做了修改,方便大家快速上手使用
2. 数据集使用方式
mmsegmentation里面的数据集模式主要是采用了一些常用的经典数据集的存储形式,比如VOC,city,isprs之类的。但是如果我们自己有一个数据集需要训练,重新整理数据就很麻烦,因此我把数据接口给修改了,改成了如下的格式
数据集导入方式就是三个文本文件,train.txt, val.txt, test.txt 里面的数据存储方式为:
imgpath1  labpath1
imgpath2  labpath2
...
(注意这里中间是有两个空格)
这样做的好处就是,不管多乱七八糟的数据集,只要写一个代码生成这样的文件就可以开始训练了。我在tools/write_names.py里提供了一种写法。

  1. 训练
    python tools/train.py configpath
    config
    path 这个就是配置文件,只需要给一个参数就行,就是配置文件路径,后面的就是可选参数,大家自己研究。

  2. 测试
    如果需要单独测试生成可视化结果
    python tools/test.py configpath checkpointpath
    configpath这个就是配置文件 checkpointpath是训练好的pth模型的路径。

  3. 项目注意事项
    5.1 配置文件
    如果按照我的方式去训练,可以参考这个配置文件 configs/psanet/psanetr50-d84xb4-20ktxt-512x512.py 主要的变化就是这里 base = [ '../base/models/psanetr50-d8.py', '../base/datasets/txt.py', '../base/defaultruntime.py', '../base/schedules/schedule20k.py' ] 这个txt.py就是我们使用的数据参数,通过这个参数来调用数据接口函数。 打开这个'../base/datasets/txt.py'文件 这个文件里面,主要需要注意的就是dataroot参数 以及traindataloader, valdataloader, testdataloader的annfile参数即可。 代码里读取三个txt的正确路径为: dataroot+ann_file

5.2 目前主要是适用于二分类 目前整个代码主要是适用于二分类,因为我用二分类数据做的测试,我后续改一下,也适配多分类。 也就是目前这个项目,只要是二分类的数据都可以无脑训练。 另外需要注意的是mask必须为0-255的二值灰度图。不然会训练不出来结果。

Owner

  • Name: dyzy
  • Login: dyzy41
  • Kind: user
  • Location: wuhan
  • Company: whu

cv student

Citation (CITATION.cff)

cff-version: 1.2.0
message: "If you use this software, please cite it as below."
authors:
  - name: "MMSegmentation Contributors"
title: "OpenMMLab Semantic Segmentation Toolbox and Benchmark"
date-released: 2020-07-10
url: "https://github.com/open-mmlab/mmsegmentation"
license: Apache-2.0

GitHub Events

Total
Last Year

Dependencies

.circleci/docker/Dockerfile docker
  • pytorch/pytorch ${PYTORCH}-cuda${CUDA}-cudnn${CUDNN}-devel build
docker/Dockerfile docker
  • pytorch/pytorch ${PYTORCH}-cuda${CUDA}-cudnn${CUDNN}-devel build
docker/serve/Dockerfile docker
  • pytorch/pytorch ${PYTORCH}-cuda${CUDA}-cudnn${CUDNN}-devel build
requirements/docs.txt pypi
  • docutils ==0.16.0
  • myst-parser *
  • sphinx ==4.0.2
  • sphinx_copybutton *
  • sphinx_markdown_tables *
requirements/mminstall.txt pypi
  • mmcv >=2.0.0rc4
  • mmengine >=0.5.0,<1.0.0
requirements/optional.txt pypi
  • cityscapesscripts *
  • nibabel *
requirements/readthedocs.txt pypi
  • mmcv >=2.0.0rc1,<2.1.0
  • mmengine >=0.4.0,<1.0.0
  • prettytable *
  • scipy *
  • torch *
  • torchvision *
requirements/runtime.txt pypi
  • matplotlib *
  • numpy *
  • packaging *
  • prettytable *
  • scipy *
requirements/tests.txt pypi
  • codecov * test
  • flake8 * test
  • interrogate * test
  • pytest * test
  • xdoctest >=0.10.0 test
  • yapf * test
requirements.txt pypi
setup.py pypi