PaddleOCR安装、部署、测试

作者:

物流项目组 林阳

github地址:

https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/installation.md

官方建议我们使用使用docker运行PaddleOCR,可以省去很多麻烦。

所以,我们可以再服务器上先安装docker、nvidia-docker,感觉没必要用到gpu,所以接下来就不使用nvidia-docker了。
1.准备好docker环境

2.cd /home && mkdir Projects

首次运行需创建一个docker容器,再次运行时不需要运行当前命令,创建一个名字为ppocr的docker容器,并将当前目录映射到容器的/paddle目录下,这样我们可以在容器外放置图片,供容器内脚本使用

sudo docker run --name ppocr -v $PWD:/paddle --network=host -it hub.baidubce.com/paddlepaddle/paddle:latest-gpu-cuda9.0-cudnn7-dev /bin/bash
PaddleOCR安装、部署、测试
进入容器
PaddleOCR安装、部署、测试
3.安装PaddlePaddle Fluid v1.7

1)pip3 install --upgrade pip

2)python3 -m pip install paddlepaddle==1.7.2 -i https://pypi.tuna.tsinghua.edu.cn/simple

4.克隆PaddleOCR repo代码

git clone https://gitee.com/paddlepaddle/PaddleOCR
PaddleOCR安装、部署、测试5.安装第三方库

cd PaddleOCR

pip3 install -r requirments.txt

到这,容器的环境就配置好了。。。。。。

接下来就可以下载安装模型测试了。

提供的模型比较多

测试过发现: 超轻量级中文OCR模型就够用了,而且时间1s内就可以解析出来

接下来下载模型,并开始识别图片:

PaddleOCR安装、部署、测试
mkdir inference && cd inference

下载超轻量级中文OCR模型的检测模型并解压

wget https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db_infer.tar && tar xf ch_det_mv3_db_infer.tar

下载超轻量级中文OCR模型的识别模型并解压

wget https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn_infer.tar && tar xf ch_rec_mv3_crnn_infer.tar

cd …

预测image_dir指定的单张图像

python3 tools/infer/predict_system.py --image_dir="./doc/imgs/11.jpg" --det_model_dir="./inference/ch_det_mv3_db/" --rec_model_dir="./inference/ch_rec_mv3_crnn/"
PaddleOCR安装、部署、测试到这,单张图片就被识别出来了。

至此,提交更新镜像到私有仓库