pycorrector

pycorrector is a toolkit for text error correction. 文本纠错,实现了Kenlm,T5,MacBERT,ChatGLM3,Qwen2.5等模型应用在纠错场景,开箱即用。

https://github.com/shibing624/pycorrector

Science Score: 67.0%

This score indicates how likely this project is to be science-related based on various indicators:

  • CITATION.cff file
    Found CITATION.cff file
  • codemeta.json file
    Found codemeta.json file
  • .zenodo.json file
    Found .zenodo.json file
  • DOI references
    Found 1 DOI reference(s) in README
  • Academic publication links
    Links to: arxiv.org, springer.com
  • Committers with academic emails
  • Institutional organization owner
  • JOSS paper metadata
  • Scientific vocabulary similarity
    Low similarity (8.7%) to scientific vocabulary

Keywords

csc error-correction error-detection kenlm macbert4csc pycorrector spelling-errors t5

Keywords from Contributors

agent cryptocurrency
Last synced: 6 months ago · JSON representation ·

Repository

pycorrector is a toolkit for text error correction. 文本纠错,实现了Kenlm,T5,MacBERT,ChatGLM3,Qwen2.5等模型应用在纠错场景,开箱即用。

Basic Info
Statistics
  • Stars: 6,102
  • Watchers: 85
  • Forks: 1,146
  • Open Issues: 18
  • Releases: 10
Topics
csc error-correction error-detection kenlm macbert4csc pycorrector spelling-errors t5
Created almost 8 years ago · Last pushed 7 months ago
Metadata Files
Readme Contributing License Citation

README.md

🇨🇳中文 | 🌐English | 📖文档/Docs | 🤖模型/Models

Logo

pycorrector: useful python text correction toolkit

PyPI version Downloads GitHub contributors License Apache 2.0 python_vesion GitHub issues Wechat Group

pycorrector: 中文文本纠错工具。支持中文音似、形似、语法错误纠正,python3.8开发。

pycorrector实现了Kenlm、ConvSeq2Seq、BERT、MacBERT、ELECTRA、ERNIE、GPT等多种模型的文本纠错,评估各模型的效果。

Guide

Introduction

中文文本纠错任务,常见错误类型:

当然,针对不同业务场景,这些问题并不一定全部存在,比如拼音输入法、语音识别校对关注音似错误;五笔输入法、OCR校对关注形似错误, 搜索引擎query纠错关注所有错误类型。

本项目重点解决其中的"音似、形字、语法、专名错误"等类型。

News

[2025/07/08] v1.1.2版本:支持了基于Qwen3的中文文本纠错模型twnlp/ChineseErrorCorrector3-4B,支持多字、少字、错字、词序、语法等错误纠正。详见Release-v1.1.2

[2024/10/14] v1.1.0版本:新增了基于Qwen2.5的中文文本纠错模型,支持多字、少字、错字、词序、语法等错误纠正,发布了shibing624/chinese-text-correction-1.5bshibing624/chinese-text-correction-7b模型,及其对应的LoRA模型。详见Release-v1.1.0

[2023/11/07] v1.0.0版本:新增了ChatGLM3/LLaMA2等GPT模型用于中文文本纠错,发布了基于ChatGLM3-6B的shibing624/chatglm3-6b-csc-chinese-lora拼写和语法纠错模型;重写了DeepContext、ConvSeq2Seq、T5等模型的实现。详见Release-v1.0.0

Features

  • Kenlm模型:本项目基于Kenlm统计语言模型工具训练了中文NGram语言模型,结合规则方法、混淆集可以纠正中文拼写错误,方法速度快,扩展性强,效果一般
  • DeepContext模型:本项目基于PyTorch实现了用于文本纠错的DeepContext模型,该模型结构参考Stanford University的NLC模型,2014英文纠错比赛得第一名,效果一般
  • Seq2Seq模型:本项目基于PyTorch实现了用于中文文本纠错的ConvSeq2Seq模型,该模型在NLPCC-2018的中文语法纠错比赛中,使用单模型并取得第三名,可以并行训练,模型收敛快,效果一般
  • T5模型:本项目基于PyTorch实现了用于中文文本纠错的T5模型,使用Langboat/mengzi-t5-base的预训练模型finetune中文纠错数据集,模型改造的潜力较大,效果好
  • ERNIE_CSC模型:本项目基于PaddlePaddle实现了用于中文文本纠错的ERNIE_CSC模型,模型在ERNIE-1.0上finetune,模型结构适配了中文拼写纠错任务,效果好
  • MacBERT模型【推荐】:本项目基于PyTorch实现了用于中文文本纠错的MacBERT4CSC模型,模型加入了错误检测和纠正网络,适配中文拼写纠错任务,效果好
  • MuCGECBart模型:本项目基于ModelScope实现了用于文本纠错的Seq2Seq方法的MuCGECBart模型,该模型中文文本纠错效果较好
  • NaSGECBart模型: MuCGECBart的同作者模型,无需modelscope依赖,基于中文母语纠错数据集NaSGEC在Bart模型上微调训练得到,效果好
  • GPT模型:本项目基于PyTorch实现了用于中文文本纠错的ChatGLM/LLaMA模型,模型在中文CSC和语法纠错数据集上finetune,适配中文文本纠错任务,效果很好

  • 延展阅读:中文文本纠错实践和原理解读

    Demo

  • Official demo: https://www.mulanai.com/product/corrector/

  • Colab online demo: Open In Colab

  • HuggingFace demo: https://huggingface.co/spaces/shibing624/pycorrector

run example: examples/macbert/gradio_demo.py to see the demo: shell python examples/macbert/gradio_demo.py

Evaluation

评估脚本examples/evaluatemodels/evaluatemodels.py

  • 评测集:SIGHAN-2015(sighan2015_test.tsv)、 EC-LAW(eclawtest.tsv)、MCSC(mcsc_test.tsv)
  • 评估标准:纠错准召率,采用严格句子粒度(Sentence Level)计算方式,把模型纠正之后的与正确句子完成相同的视为正确,否则为错

评估结果

  • 评估指标:F1
  • CSC(Chinese Spelling Correction): 拼写纠错模型,表示模型可以处理音似、形似、语法等长度对齐的错误纠正
  • CTC(CHinese Text Correction): 文本纠错模型,表示模型支持拼写、语法等长度对齐的错误纠正,还可以处理多字、少字等长度不对齐的错误纠正
  • GPU:Tesla V100,显存 32 GB

| Model Name | Model Link | Base Model | Avg | SIGHAN-2015 | EC-LAW | MCSC | GPU | QPS | |:-----------------|:------------------------------------------------------------------------------------------------------------------------|:-------------------------------|:-----------|:------------|:-------|:-------|:--------|:--------| | Kenlm-CSC | shibing624/chinese-kenlm-klm | kenlm | 0.3409 | 0.3147 | 0.3763 | 0.3317 | CPU | 9 | | Mengzi-T5-CSC | shibing624/mengzi-t5-base-chinese-correction | mengzi-t5-base | 0.3984 | 0.7758 | 0.3156 | 0.1039 | GPU | 214 | | ERNIE-CSC | PaddleNLP/ernie-csc | PaddlePaddle/ernie-1.0-base-zh | 0.4353 | 0.8383 | 0.3357 | 0.1318 | GPU | 114 | | MacBERT-CSC | shibing624/macbert4csc-base-chinese | hfl/chinese-macbert-base | 0.3993 | 0.8314 | 0.1610 | 0.2055 | GPU | 224 | | ChatGLM3-6B-CSC | shibing624/chatglm3-6b-csc-chinese-lora | THUDM/chatglm3-6b | 0.4538 | 0.6572 | 0.4369 | 0.2672 | GPU | 3 | | Qwen2.5-1.5B-CTC | shibing624/chinese-text-correction-1.5b | Qwen/Qwen2.5-1.5B-Instruct | 0.6802 | 0.3032 | 0.7846 | 0.9529 | GPU | 6 | | Qwen2.5-7B-CTC | shibing624/chinese-text-correction-7b | Qwen/Qwen2.5-7B-Instruct | 0.8225 | 0.4917 | 0.9798 | 0.9959 | GPU | 3 | | Qwen3-4B-CTC | twnlp/ChineseErrorCorrector3-4B | Qwen/Qwen3-4B | 0.8521 | 0.6340 | 0.9360 | 0.9864 | GPU | 5 |

Install

shell pip install -U pycorrector

or

```shell pip install -r requirements.txt

git clone https://github.com/shibing624/pycorrector.git cd pycorrector pip install --no-deps . ```

通过以上两种方法的任何一种完成安装都可以。如果不想安装依赖包,可以拉docker环境。

  • docker使用

shell docker run -it -v ~/.pycorrector:/root/.pycorrector shibing624/pycorrector:0.0.2

Usage

本项目的初衷之一是比对、调研各种中文文本纠错方法,抛砖引玉。

项目实现了kenlm、macbert、seq2seq、 ernie_csc、T5、deepcontext、GPT(Qwen/ChatGLM)等模型应用于文本纠错任务,各模型均可基于已经训练好的纠错模型快速预测,也可使用自有数据训练、预测。

kenlm模型(统计模型)

中文拼写纠错

example: examples/kenlm/demo.py

python from pycorrector import Corrector m = Corrector() print(m.correct_batch(['少先队员因该为老人让坐', '你找到你最喜欢的工作,我也很高心。']))

output: shell [{'source': '少先队员因该为老人让坐', 'target': '少先队员应该为老人让座', 'errors': [('因该', '应该', 4), ('坐', '座', 10)]} {'source': '你找到你最喜欢的工作,我也很高心。', 'target': '你找到你最喜欢的工作,我也很高兴。', 'errors': [('心', '兴', 15)]}]

  • Corrector()类是kenlm统计模型的纠错方法实现,默认会从路径~/.pycorrector/datasets/zh_giga.no_cna_cmn.prune01244.klm加载kenlm语言模型文件,如果检测没有该文件, 则程序会自动联网下载。当然也可以手动下载模型文件(2.8G)并放置于该位置
  • 返回值: correct方法返回dict,{'source': '原句子', 'target': '纠正后的句子', 'errors': [('错误词', '正确词', '错误位置'), ...]},correct_batch方法返回包含多个dictlist

错误检测

example: examples/kenlm/detect_demo.py

python from pycorrector import Corrector m = Corrector() idx_errors = m.detect('少先队员因该为老人让坐') print(idx_errors)

output:

[['因该', 4, 6, 'word'], ['坐', 10, 11, 'char']]

  • 返回值:list, [error_word, begin_pos, end_pos, error_type]pos索引位置以0开始。

成语、专名纠错

example: examples/kenlm/usecustomproper.py

python from pycorrector import Corrector m = Corrector(proper_name_path='./my_custom_proper.txt') x = ['报应接中迩来', '这块名表带带相传',] for i in x: print(i, ' -> ', m.correct(i))

output:

报应接中迩来 -> {'source': '报应接踵而来', 'target': '报应接踵而来', 'errors': [('接中迩来', '接踵而来', 2)]} 这块名表带带相传 -> {'source': '这块名表代代相传', 'target': '这块名表代代相传', 'errors': [('带带相传', '代代相传', 4)]}

自定义混淆集

通过加载自定义混淆集,支持用户纠正已知的错误,包括两方面功能:1)【提升准确率】误杀加白;2)【提升召回率】补充召回。

example: examples/kenlm/usecustomconfusion.py

```python from pycorrector import Corrector

errorsentences = [ '买iphonex,要多少钱', '共同实际控制人萧华、霍荣铨、张旗康', ] m = Corrector() print(m.correctbatch(errorsentences)) print('*' * 42) m = Corrector(customconfusionpathordict='./mycustomconfusion.txt') print(m.correctbatch(error_sentences)) ```

output:

``` ('买iphonex,要多少钱', []) # "iphonex"漏召,应该是"iphoneX" ('共同实际控制人萧华、霍荣铨、张启康', [('张旗康', '张启康', 14)]) # "张启康"误杀,应该不用纠


('买iphonex,要多少钱', [('iphonex', 'iphoneX', 1)]) ('共同实际控制人萧华、霍荣铨、张旗康', []) ```

  • 其中./my_custom_confusion.txt的内容格式如下,以空格间隔:

iPhone差 iPhoneX 张旗康 张旗康

自定义混淆集ConfusionCorrector类,除了上面演示的和Corrector类一起使用,还可以和MacBertCorrector一起使用,也可以独立使用。示例代码 examples/macbert/modelcorrectionpipeline_demo.py

自定义语言模型

默认提供下载并使用的kenlm语言模型zh_giga.no_cna_cmn.prune01244.klm文件是2.8G,内存小的电脑使用pycorrector程序可能会吃力些。

支持用户加载自己训练的kenlm语言模型,或使用2014版人民日报数据训练的模型,模型小(140M),准确率稍低,模型下载地址:shibing624/chinese-kenlm-klm | people2014corpus_chars.klm(密码o5e9)

example:examples/kenlm/loadcustomlanguage_model.py

python from pycorrector import Corrector model = Corrector(language_model_path='people2014corpus_chars.klm') print(model.correct('少先队员因该为老人让坐'))

英文拼写纠错

支持英文单词级别的拼写错误纠正。

example:examples/kenlm/encorrectdemo.py

python from pycorrector import EnSpellCorrector m = EnSpellCorrector() sent = "what happending? how to speling it, can you gorrect it?" print(m.correct(sent))

output:

{'source': 'what happending? how to speling it, can you gorrect it?', 'target': 'what happening? how to spelling it, can you correct it?', 'errors': [('happending', 'happening', 5), ('speling', 'spelling', 24), ('gorrect', 'correct', 44)]}

中文简繁互换

支持中文繁体到简体的转换,和简体到繁体的转换。

example:examples/kenlm/traditionalsimplifiedchinese_demo.py

```python import pycorrector

traditionalsentence = '憂郁的臺灣烏龜' simplifiedsentence = pycorrector.traditional2simplified(traditionalsentence) print(traditionalsentence, '=>', simplified_sentence)

simplifiedsentence = '忧郁的台湾乌龟' traditionalsentence = pycorrector.simplified2traditional(simplifiedsentence) print(simplifiedsentence, '=>', traditional_sentence) ```

output:

憂郁的臺灣烏龜 => 忧郁的台湾乌龟 忧郁的台湾乌龟 => 憂郁的臺灣烏龜

命令行模式

支持kenlm方法的批量文本纠错

``` python -m pycorrector -h usage: main.py [-h] -o OUTPUT [-n] [-d] input

@description:

positional arguments: input the input file path, file encode need utf-8.

optional arguments: -h, --help show this help message and exit -o OUTPUT, --output OUTPUT the output file path. -n, --no_char disable char detect mode. -d, --detail print detail info ```

case:

python -m pycorrector input.txt -o out.txt -n -d

  • 输入文件:input.txt;输出文件:out.txt;关闭字粒度纠错;打印详细纠错信息;纠错结果以\t间隔

MacBert4CSC模型

基于MacBERT改变网络结构的中文拼写纠错模型,模型已经开源在HuggingFace Models:https://huggingface.co/shibing624/macbert4csc-base-chinese

模型网络结构: - 本项目是 MacBERT 改变网络结构的中文文本纠错模型,可支持 BERT 类模型为 backbone - 在原生 BERT 模型上进行了魔改,追加了一个全连接层作为错误检测即 detection , MacBERT4CSC 训练时用 detection 层和 correction 层的 loss 加权得到最终的 loss,预测时用 BERT MLM 的 correction 权重即可

macbert_network

详细教程参考examples/macbert/README.md

pycorrector快速预测

example:examples/macbert/demo.py

python from pycorrector import MacBertCorrector m = MacBertCorrector("shibing624/macbert4csc-base-chinese") print(m.correct_batch(['今天新情很好', '你找到你最喜欢的工作,我也很高心。']))

output:

bash {'source': '今天新情很好', 'target': '今天心情很好', 'errors': [('新', '心', 2)]} {'source': '你找到你最喜欢的工作,我也很高心。', 'target': '你找到你最喜欢的工作,我也很高兴。', 'errors': [('心', '兴', 15)]}

transformers快速预测

examples/macbert/README.md

T5模型

基于T5的中文拼写纠错模型,模型训练详细教程参考examples/t5/README.md

pycorrector快速预测

example:examples/t5/demo.py python from pycorrector import T5Corrector m = T5Corrector() print(m.correct_batch(['今天新情很好', '你找到你最喜欢的工作,我也很高心。']))

output:

[{'source': '今天新情很好', 'target': '今天心情很好', 'errors': [('新', '心', 2)]}, {'source': '你找到你最喜欢的工作,我也很高心。', 'target': '你找到你最喜欢的工作,我也很高兴。', 'errors': [('心', '兴', 15)]}]

GPT模型

基于ChatGLM3、Qwen2.5、Qwen3等模型微调训练纠错模型,训练方法见examples/gpt/README.md

pycorrector快速预测

example: examples/gpt/demo.py python from pycorrector.gpt.gpt_corrector import GptCorrector m = GptCorrector() print(m.correct_batch(['今天新情很好', '你找到你最喜欢的工作,我也很高心。']))

output: shell [{'source': '今天新情很好', 'target': '今天心情很好', 'errors': [('新', '心', 2)]}, {'source': '你找到你最喜欢的工作,我也很高心。', 'target': '你找到你最喜欢的工作,我也很高兴。', 'errors': [('心', '兴', 15)]}]

ErnieCSC模型

基于ERNIE的中文拼写纠错模型,模型已经开源在PaddleNLP。 模型网络结构:

详细教程参考examples/ernie_csc/README.md

pycorrector快速预测

example:examples/ernie_csc/demo.py ```python from pycorrector import ErnieCscCorrector

if name == 'main': errorsentences = [ '真麻烦你了。希望你们好好的跳无', '少先队员因该为老人让坐', ] m = ErnieCscCorrector() batchres = m.correctbatch(errorsentences) for i in batch_res: print(i) print() ```

output:

{'source': '真麻烦你了。希望你们好好的跳无', 'target': '真麻烦你了。希望你们好好的跳舞', 'errors': [{'position': 14, 'correction': {'无': '舞'}}]} {'source': '少先队员因该为老人让坐', 'target': '少先队员应该为老人让座', 'errors': [{'position': 4, 'correction': {'因': '应'}}, {'position': 10, 'correction': {'坐': '座'}}]}

Bart模型

基于SIGHAN+Wang271K中文纠错数据集训练的Bart4CSC模型,已经release到HuggingFace Models: https://huggingface.co/shibing624/bart4csc-base-chinese

```python from transformers import BertTokenizerFast from textgen import BartSeq2SeqModel

tokenizer = BertTokenizerFast.frompretrained('shibing624/bart4csc-base-chinese') model = BartSeq2SeqModel( encodertype='bart', encoderdecodertype='bart', encoderdecodername='shibing624/bart4csc-base-chinese', tokenizer=tokenizer, args={"maxlength": 128, "evalbatch_size": 128}) sentences = ["少先队员因该为老人让坐"] print(model.predict(sentences)) ```

output: shell ['少先队员应该为老人让座']

如果需要训练Bart模型,请参考 https://github.com/shibing624/textgen/blob/main/examples/seq2seq/trainingbartseq2seqzh_demo.py

MuCGECBart模型

模型在第一次运行时,会自动下载到"~/.cache/modelscope/hub/"子目录。 注意该模型在python=3.8.19环境下通过测试,其它依赖包版本可能会有问题。

安装依赖

shell pip install pycorrector modelscope==1.16.0 fairseq==0.12.2

使用示例

```python from pycorrector.mucgecbart.mucgecbart_corrector import MuCGECBartCorrector

if name == "main": m = MuCGECBartCorrector() result = m.correct_batch(['这洋的话,下一年的福气来到自己身上。', '在拥挤时间,为了让人们尊守交通规律,派至少两个警察或者交通管理者。', '随着中国经济突飞猛近,建造工业与日俱增', "北京是中国的都。", "他说:”我最爱的运动是打蓝球“", "我每天大约喝5次水左右。", "今天,我非常开开心。"]) print(result) ```

output: shell [{'source': '这洋的话,下一年的福气来到自己身上。', 'target': '这样的话,下一年的福气就会来到自己身上。', 'errors': [('洋', '样', 1), ('', '就会', 11)]}, {'source': '在拥挤时间,为了让人们尊守交通规律,派至少两个警察或者交通管理者。', 'target': '在拥挤时间,为了让人们遵守交通规则,应该派至少两个警察或者交通管理者。', 'errors': [('尊', '遵', 11), ('律', '则', 16), ('', '应该', 18)]}, {'source': '随着中国经济突飞猛近,建造工业与日俱增', 'target': '随着中国经济突飞猛进,建造工业与日俱增', 'errors': [('近', '进', 9)]}, {'source': '北京是中国的都。', 'target': '北京是中国的首都。', 'errors': [('', '首', 6)]}, {'source': '他说:”我最爱的运动是打蓝球“', 'target': '他说:“我最爱的运动是打篮球”', 'errors': [('”', '“', 3), ('蓝', '篮', 12), ('“', '”', 14)]}, {'source': '我每天大约喝5次水左右。', 'target': '我每天大约喝5杯水左右。', 'errors': [('次', '杯', 7)]}, {'source': '今天,我非常开开心。', 'target': '今天,我非常开心。', 'errors': [('开', '', 7)]}]

Dataset

| 数据集 | 语料 | 下载链接 | 压缩包大小 | |:-----------------------------|:-----------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------:|:-----:| | SIGHAN+Wang271K中文纠错数据集 | SIGHAN+Wang271K(27万条) | 百度网盘(密码01b9)
shibing624/CSC | 106M | | 原始SIGHAN数据集 | SIGHAN13 14 15 | 官方csc.html | 339K | | 原始Wang271K数据集 | Wang271K | Automatic-Corpus-Generation dimmywang提供 | 93M | | 人民日报2014版语料 | 人民日报2014版 | 飞书(密码cHcu) | 383M | | NLPCC 2018 GEC官方数据集 | NLPCC2018-GEC | 官方trainingdata | 114M | | NLPCC 2018+HSK熟语料 | nlpcc2018+hsk+CGED | 百度网盘(密码m6fg)
飞书(密码gl9y) | 215M | | NLPCC 2018+HSK原始语料 | HSK+Lang8 | 百度网盘(密码n31j)
飞书(密码Q9LH) | 81M | | 中文纠错比赛数据汇总 | Chinese Text Correction(CTC) | 中文纠错汇总数据集(天池) | - | | NLPCC 2023中文语法纠错数据集 | NLPCC 2023 Sharedtask1 | Task 1: Chinese Grammatical Error Correction(Training Set) | 125M | | 百度智能文本校对比赛数据集 | 中文真实场景纠错数据 | shibing624/chinesetextcorrection | 10M | | 200万中文纠错数据集 | 中文语法和拼写纠错数据 | twnlp/ChinseseErrorCorrectData | 2M |

说明:

  • SIGHAN+Wang271K中文纠错数据集(27万条),是通过原始SIGHAN13、14、15年数据集和Wang271K数据集格式转化后得到,json格式,带错误字符位置信息,SIGHAN为test.json, macbert4csc模型训练可以直接用该数据集复现paper准召结果,详见pycorrector/macbert/README.md
  • NLPCC 2018 GEC官方数据集NLPCC2018-GEC, 训练集trainingdata[解压后114.5MB],该数据格式是原始文本,未做切词处理。
  • 汉语水平考试(HSK)和lang8原始平行语料[HSK+Lang8]百度网盘(密码n31j),该数据集已经切词,可用作数据扩增。
  • NLPCC 2018 + HSK + CGED16、17、18的数据,经过以字切分,繁体转简体,打乱数据顺序的预处理后,生成用于纠错的熟语料(nlpcc2018+hsk) ,百度网盘(密码:m6fg) [130万对句子,215MB]

SIGHAN+Wang271K中文纠错数据集,数据格式: json [ { "id": "B2-4029-3", "original_text": "晚间会听到嗓音,白天的时候大家都不会太在意,但是在睡觉的时候这嗓音成为大家的恶梦。", "wrong_ids": [ 5, 31 ], "correct_text": "晚间会听到噪音,白天的时候大家都不会太在意,但是在睡觉的时候这噪音成为大家的恶梦。" } ]

字段解释: - id:唯一标识符,无意义 - originaltext: 原始错误文本 - wrongids: 错误字的位置,从0开始 - correct_text: 纠正后的文本

自有数据集

可以使用自己数据集训练纠错模型,把自己数据集标注好,保存为跟训练样本集一样的json格式,然后加载数据训练模型即可。

  1. 已有大量业务相关错误样本,主要标注错误位置(wrongids)和纠错后的句子(correcttext)
  2. 没有现成的错误样本,可以写脚本生成错误样本(originaltext),根据音似、形似等特征把正确句子的指定位置(wrongids)字符改为错字,附上 第三方同音字生成脚本同音词替换

Language Model

什么是语言模型?-wiki

语言模型对于纠错步骤至关重要,当前默认使用的是从千兆中文文本训练的中文语言模型zhgiga.nocna_cmn.prune01244.klm(2.8G), 提供人民日报2014版语料训练得到的轻量版语言模型people2014corpus_chars.klm(密码o5e9)

大家可以用中文维基(繁体转简体,pycorrector.utils.text_utils下有此功能)等语料数据训练通用的语言模型,或者也可以用专业领域语料训练更专用的语言模型。更适用的语言模型,对于纠错效果会有比较好的提升。

  1. kenlm语言模型训练工具的使用,请见博客:http://blog.csdn.net/mingzai624/article/details/79560063
  2. 16GB中英文无监督、平行语料Linly-AI/Chinese-pretraining-dataset
  3. 524MB中文维基百科语料wikipedia-cn-20230720-filtered

Contact

  • Github Issue(建议):GitHub issues
  • Github discussions:欢迎到讨论区GitHub discussions灌水(不会打扰开发者),公开交流纠错技术和问题
  • 邮件我:xuming: xuming624@qq.com
  • 微信我:加我微信号:xuming624, 进Python-NLP交流群,备注:姓名-公司名-NLP

Citation

如果你在研究中使用了pycorrector,请按如下格式引用:

APA: latex Xu, M. Pycorrector: Text error correction tool (Version 0.4.2) [Computer software]. https://github.com/shibing624/pycorrector

BibTeX: latex @misc{Xu_Pycorrector_Text_error, title={Pycorrector: Text error correction tool}, author={Ming Xu}, year={2023}, howpublished={\url{https://github.com/shibing624/pycorrector}}, }

License

pycorrector 的授权协议为 Apache License 2.0,可免费用做商业用途。请在产品说明中附加pycorrector的链接和授权协议。

Contribute

项目代码还很粗糙,如果大家对代码有所改进,欢迎提交回本项目,在提交之前,注意以下两点:

  • tests添加相应的单元测试
  • 使用python -m pytest来运行所有单元测试,确保所有单测都是通过的

之后即可提交PR。

References

Owner

  • Name: xuming
  • Login: shibing624
  • Kind: user
  • Location: Beijing, China
  • Company: @tencent

Senior Researcher, Machine Learning Developer, Advertising Risk Control.

Citation (CITATION.cff)

cff-version: 1.2.0
message: "If you use this software, please cite it as below."
authors:
- family-names: "Xu"
  given-names: "Ming"
  orcid: "https://orcid.org/0000-0003-3402-7159"
title: "Pycorrector: Text error correction tool"
url: "https://github.com/shibing624/pycorrector"
data-released: 2021-12-03
version: 0.4.2

GitHub Events

Total
  • Create event: 1
  • Release event: 1
  • Issues event: 72
  • Watch event: 564
  • Issue comment event: 92
  • Push event: 13
  • Pull request review event: 2
  • Pull request event: 6
  • Fork event: 62
Last Year
  • Create event: 1
  • Release event: 1
  • Issues event: 72
  • Watch event: 564
  • Issue comment event: 92
  • Push event: 13
  • Pull request review event: 2
  • Pull request event: 6
  • Fork event: 62

Committers

Last synced: 9 months ago

All Time
  • Total Commits: 880
  • Total Committers: 25
  • Avg Commits per committer: 35.2
  • Development Distribution Score (DDS): 0.342
Past Year
  • Commits: 47
  • Committers: 2
  • Avg Commits per committer: 23.5
  • Development Distribution Score (DDS): 0.021
Top Committers
Name Email Commits
shibing624 s****4@1****m 579
xuming06 5****9@q****m 244
Dian Chen o****0 14
Christian Clauss c****s@m****m 6
david ullua d****a@i****m 5
abtion a****n@o****m 4
jack z****e@b****m 4
xu-song x****p@g****m 3
KnightLancelot d****z@g****m 2
ghost h****w@1****m 2
luozhouyang z****o@g****m 2
Vela-zz 5****z 2
James0128 7****6@q****m 1
TrellixVulnTeam c****d@t****m 1
Xueying Jiao 3****g 1
_Joe j****0@g****m 1
cjh 4****0@q****m 1
codingma 4****0@q****m 1
liwenju0 l****b@g****m 1
张喜东 x****g@v****m 1
liangxiao12030 l****0@a****n 1
flemingxu f****u@t****m 1
Mark s****o@q****m 1
sullen777 1****4@q****m 1
treya-lin 8****n 1
Committer Domains (Top 20 + Academic)

Issues and Pull Requests

Last synced: 6 months ago

All Time
  • Total issues: 260
  • Total pull requests: 12
  • Average time to close issues: 3 months
  • Average time to close pull requests: about 13 hours
  • Total issue authors: 187
  • Total pull request authors: 11
  • Average comments per issue: 2.82
  • Average comments per pull request: 0.5
  • Merged pull requests: 11
  • Bot issues: 0
  • Bot pull requests: 0
Past Year
  • Issues: 52
  • Pull requests: 2
  • Average time to close issues: 18 days
  • Average time to close pull requests: about 16 hours
  • Issue authors: 49
  • Pull request authors: 2
  • Average comments per issue: 1.75
  • Average comments per pull request: 1.0
  • Merged pull requests: 1
  • Bot issues: 0
  • Bot pull requests: 0
Top Authors
Issue Authors
  • EASTERNTIGER (13)
  • suchstar (6)
  • Amber921463001 (5)
  • ZTurboX (5)
  • yongzhuo (5)
  • andy23andy7980 (5)
  • vigorous2008 (4)
  • s19293949 (4)
  • jangjun21 (4)
  • wnntju (3)
  • jinmu0410 (3)
  • Guozonghai (3)
  • jinxiqinghuan (3)
  • JaymzWang (2)
  • orangeecc (2)
Pull Request Authors
  • smartmark-pro (3)
  • treya-lin (2)
  • shibing624 (2)
  • Joe0120 (1)
  • Vela-zz (1)
  • sullen777 (1)
  • cwq19921112 (1)
  • xu-song (1)
  • davideuler (1)
  • TrellixVulnTeam (1)
  • liwenju0 (1)
Top Labels
Issue Labels
question (171) bug (45) wontfix (39) enhancement (28) help wanted (3) duplicate (1)
Pull Request Labels

Packages

  • Total packages: 2
  • Total downloads:
    • pypi 1,437 last-month
  • Total docker downloads: 28
  • Total dependent packages: 0
    (may contain duplicates)
  • Total dependent repositories: 12
    (may contain duplicates)
  • Total versions: 41
  • Total maintainers: 1
pypi.org: pycorrector

Chinese Text Error Corrector

  • Versions: 40
  • Dependent Packages: 0
  • Dependent Repositories: 12
  • Downloads: 1,437 Last month
  • Docker Downloads: 28
Rankings
Stargazers count: 1.0%
Forks count: 1.3%
Docker downloads count: 2.2%
Dependent repos count: 4.2%
Average: 4.4%
Downloads: 7.7%
Dependent packages count: 10.1%
Maintainers (1)
Last synced: 7 months ago
proxy.golang.org: github.com/shibing624/pycorrector
  • Versions: 1
  • Dependent Packages: 0
  • Dependent Repositories: 0
Rankings
Dependent packages count: 7.0%
Average: 8.2%
Dependent repos count: 9.3%
Last synced: 6 months ago

Dependencies

requirements-dev.txt pypi
  • jieba >=0.39
  • paddlenlp *
  • paddlepaddle-gpu *
  • pandas *
  • pypinyin *
  • pytorch-lightning >=1.1.2
  • scikit-learn >=0.19.1
  • tensorboardX *
  • torch >=1.3.1
  • transformers >=4.4.2
requirements.txt pypi
  • jieba >=0.39
  • loguru *
  • numpy *
  • pypinyin *
  • six *
setup.py pypi
  • jieba *
  • loguru *
  • numpy *
  • pypinyin *
  • six *
.github/workflows/ubuntu.yml actions
  • actions/cache v2 composite
  • actions/checkout v2 composite
  • actions/setup-python v2 composite
.github/workflows/windows.yml actions
  • actions/cache v2 composite
  • actions/checkout v2 composite
  • conda-incubator/setup-miniconda v2 composite
Dockerfile docker
  • centos 7 build