diff --git a/docs/about_model/convert_model/index.html b/docs/about_model/convert_model/index.html index 0e3b8caf..c4b3d817 100644 --- a/docs/about_model/convert_model/index.html +++ b/docs/about_model/convert_model/index.html @@ -1371,7 +1371,7 @@
$$ Exact\ Match = \frac{1}{N}\sum_{i=0}^{N} s(p_{i}, g_{i}) @@ -1019,7 +1019,7 @@
$$ Char\ Match = 1 - \frac{1}{N} \sum_{i=0}^{N} s(p_{i}, g_{i}) @@ -1047,7 +1047,7 @@
$$ Score = \frac{1}{2}(Exact\ Match + Char\ Match) @@ -1714,7 +1714,7 @@
Rec
部分 Rec
部分
id: 8 ,
href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/",
title: "[GPU端] rapidocr_paddle",
- description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。",
+ description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来测试推理速度,需要先推理一张作为预热,后续再看推理速度。",
content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: "
}
);
@@ -1579,8 +1579,8 @@ import cv2
时会报ImportError: ligGL.so.1: cannot open shared object file: No such file or directory
?import cv2
时会报ImportError: ligGL.so.1: cannot open shared object file: No such file or directory
?A: : 取决于所使用的执行提供者,它可能没有完全支持模型中的所有操作。回落到CPU操作可能会导致性能速度的下降。此外,即使一个操作是由CUDA execution provider实现的,由于性能的原因,它也不一定会把操作分配/放置到CUDA EP上。要想看到ORT决定的位置,请打开verbose日志并查看控制台的输出。
+A: : 因为OCR任务中输入图像Shape是动态的。每次GPU上都需要重新清空上一次不同Shape的缓存结果。如果输入图像Shape不变的情况下,ONNXRuntime GPU版一般都要比CPU快的。该问题已经提了相关issue(issue #13198)。推荐CPU端推理用rapidocr_onnxruntime
或者rapidocr_openvino
,GPU端用rapidocr_paddle
。
A: C#可以32位,要用32位的dll,但nuget上的onnxruntime不支持win7。
A: 原因是Shapely库没有正确安装,如果是在Windows,可以在Shapely whl下载对应的whl包,离线安装即可;另外一种解决办法是用conda安装也可。
import cv2
时会报ImportError: ligGL.so.1: cannot open shared object file: No such file or directory
? A: 解决方法 有两个(来自群友ddeef):
@@ -792,9 +792,9 @@Last updated - 28 Sep 2023, 08:38 +0800 + data-authdate="2024-01-30T09:33:04+0800" + title="30 Jan 2024, 09:33 +0800"> + 30 Jan 2024, 09:33 +0800 .
前提是安装了CPU版的PaddlePaddle
@@ -854,7 +854,7 @@前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR
类时,需要通过参数显式指定使用GPU。
相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。
+相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来测试推理速度,需要先推理一张作为预热,后续再看推理速度。
经过初步粗略估计,同一张图像,推理10次,耗时情况见下表:
@@ -911,19 +911,19 @@rapidocr_onnxruntime
rapidocr_paddle[GPU]
Last updated - 31 Oct 2023, 19:49 +0800 + data-authdate="2024-01-30T09:33:04+0800" + title="30 Jan 2024, 09:33 +0800"> + 30 Jan 2024, 09:33 +0800 .