场景文本识别算法-ABINet¶
1. 算法简介¶
论文信息:
ABINet: Read Like Humans: Autonomous, Bidirectional and Iterative Language Modeling for Scene Text Recognition Shancheng Fang and Hongtao Xie and Yuxin Wang and Zhendong Mao and Yongdong Zhang CVPR, 2021
ABINet
使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法复现效果如下:
模型 | 骨干网络 | 配置文件 | Acc | 下载链接 |
---|---|---|---|---|
ABINet | ResNet45 | rec_r45_abinet.yml | 90.75% | 预训练、训练模型 |
2. 环境配置¶
请先参考《运行环境准备》配置PaddleOCR运行环境,参考《项目克隆》克隆项目代码。
3. 模型训练、评估、预测¶
3.1 模型训练¶
请参考文本识别训练教程。PaddleOCR对代码进行了模块化,训练ABINet
识别模型时需要更换配置文件为ABINet
的配置文件。
启动训练¶
具体地,在完成数据准备后,便可以启动训练,训练命令如下:
3.2 评估¶
可下载已训练完成的模型文件,使用如下命令进行评估:
3.3 预测¶
使用如下命令进行单张图片预测:
4. 推理部署¶
4.1 Python推理¶
首先将训练得到best模型,转换成inference model。这里以训练完成的模型为例(模型下载地址 ),可以使用如下命令进行转换:
注意:
- 如果您是在自己的数据集上训练的模型,并且调整了字典文件,请注意修改配置文件中的
character_dict_path
是否是所需要的字典文件。 - 如果您修改了训练时的输入大小,请修改
tools/export_model.py
文件中的对应ABINet的infer_shape
。
转换成功后,在目录下有三个文件:
执行如下命令进行模型推理:
执行命令后,上面图像的预测结果(识别的文本和得分)会打印到屏幕上,示例如下: 结果如下:
注意:
- 训练上述模型采用的图像分辨率是[3,32,128],需要通过参数
rec_image_shape
设置为您训练时的识别图像形状。 - 在推理时需要设置参数
rec_char_dict_path
指定字典,如果您修改了字典,请修改该参数为您的字典文件。 - 如果您修改了预处理方法,需修改
tools/infer/predict_rec.py
中ABINet的预处理为您的预处理方法。
4.2 C++推理部署¶
由于C++预处理后处理还未支持ABINet,所以暂未支持
4.3 Serving服务化部署¶
暂不支持
4.4 更多推理部署¶
暂不支持
5. FAQ¶
- MJSynth和SynthText两种数据集来自于ABINet源repo 。
- 我们使用ABINet作者提供的预训练模型进行finetune训练。
引用¶
@article{Fang2021ABINet,
title = {ABINet: Read Like Humans: Autonomous, Bidirectional and Iterative Language Modeling for Scene Text Recognition},
author = {Shancheng Fang and Hongtao Xie and Yuxin Wang and Zhendong Mao and Yongdong Zhang},
booktitle = {CVPR},
year = {2021},
url = {https://arxiv.org/abs/2103.06495},
pages = {7098-7107}
}