diff --git a/docs/about_model/convert_model/index.html b/docs/about_model/convert_model/index.html index 5694af4b..499fb1e0 100644 --- a/docs/about_model/convert_model/index.html +++ b/docs/about_model/convert_model/index.html @@ -1359,7 +1359,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/about_model/model_summary/index.html b/docs/about_model/model_summary/index.html index cfef9658..0e08c269 100644 --- a/docs/about_model/model_summary/index.html +++ b/docs/about_model/model_summary/index.html @@ -960,20 +960,20 @@

指标说明 Exact Match (精确匹配准确率) + id="cafebdTab" data-bs-toggle="tab" data-bs-target="#cafebd" + type="button" role="tab" aria-controls="cafebd" aria-selected="true">Exact Match (精确匹配准确率) Char Match (字符级准确率) + id="cdfabeTab" data-bs-toggle="tab" data-bs-target="#cdfabe" + type="button" role="tab" aria-controls="cdfabe" aria-selected="true">Char Match (字符级准确率) Score(两者综合) + id="abfcdeTab" data-bs-toggle="tab" data-bs-target="#abfcde" + type="button" role="tab" aria-controls="abfcde" aria-selected="true">Score(两者综合) @@ -989,7 +989,7 @@

指标说明 +

$$ Exact\ Match = \frac{1}{N}\sum_{i=0}^{N} s(p_{i}, g_{i}) @@ -1014,7 +1014,7 @@

指标说明 +

$$ Char\ Match = 1 - \frac{1}{N} \sum_{i=0}^{N} s(p_{i}, g_{i}) @@ -1042,7 +1042,7 @@

指标说明 +

$$ Score = \frac{1}{2}(Exact\ Match + Char\ Match) @@ -1702,7 +1702,7 @@

指标说明 情 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/blog/02_config_parameter/index.html b/docs/blog/02_config_parameter/index.html index c24f5675..28012f85 100644 --- a/docs/blog/02_config_parameter/index.html +++ b/docs/blog/02_config_parameter/index.html @@ -1598,7 +1598,7 @@

Rec部分 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/blog/04_inference_summary/index.html b/docs/blog/04_inference_summary/index.html index eef7e44c..863e36d7 100644 --- a/docs/blog/04_inference_summary/index.html +++ b/docs/blog/04_inference_summary/index.html @@ -1410,7 +1410,7 @@

获取字典内容 3. 使用该模型 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/business_support/index.html b/docs/business_support/index.html index c043b0d3..01dbfd7f 100644 --- a/docs/business_support/index.html +++ b/docs/business_support/index.html @@ -1349,7 +1349,7 @@

服务三:国产操作系 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/changelog/index.html b/docs/changelog/index.html index 4ef860dd..811cbee6 100644 --- a/docs/changelog/index.html +++ b/docs/changelog/index.html @@ -1294,7 +1294,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/changelog/rapidocr/index.html b/docs/changelog/rapidocr/index.html index c75a675d..b119587b 100644 --- a/docs/changelog/rapidocr/index.html +++ b/docs/changelog/rapidocr/index.html @@ -1605,7 +1605,7 @@

2021-03-24 udpate: 🍜2023-05-22 api update: 2023-10-23 v1.3.9 update: 🏸2023-04-16 ocrweb v0.1.1 update: QQ交流群 Q: 边缘总有一行 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/index.html b/docs/index.html index fcef3c03..949d75eb 100644 --- a/docs/index.html +++ b/docs/index.html @@ -1456,7 +1456,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/inference_engine/index.html b/docs/inference_engine/index.html index 77d3c02f..ec871c0a 100644 --- a/docs/inference_engine/index.html +++ b/docs/inference_engine/index.html @@ -1260,7 +1260,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/inference_engine/onnxruntime/index.html b/docs/inference_engine/onnxruntime/index.html index 082afb5c..a36ae4ea 100644 --- a/docs/inference_engine/onnxruntime/index.html +++ b/docs/inference_engine/onnxruntime/index.html @@ -1268,7 +1268,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/inference_engine/onnxruntime/infer_optim/index.html b/docs/inference_engine/onnxruntime/infer_optim/index.html index 12dc02bf..004052e0 100644 --- a/docs/inference_engine/onnxruntime/infer_optim/index.html +++ b/docs/inference_engine/onnxruntime/infer_optim/index.html @@ -1685,7 +1685,7 @@

参考资料 相关对比表格 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/inference_engine/openvino/infer-gpu/index.html b/docs/inference_engine/openvino/infer-gpu/index.html index 5b4db4a7..115d6714 100644 --- a/docs/inference_engine/openvino/infer-gpu/index.html +++ b/docs/inference_engine/openvino/infer-gpu/index.html @@ -1320,7 +1320,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/inference_engine/openvino/infer/index.html b/docs/inference_engine/openvino/infer/index.html index eeaf86b9..199f7071 100644 --- a/docs/inference_engine/openvino/infer/index.html +++ b/docs/inference_engine/openvino/infer/index.html @@ -1572,7 +1572,7 @@

OpenVINO与ONNXRuntime id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/install_usage/index.html b/docs/install_usage/index.html index 7f01d0cd..11c2ca27 100644 --- a/docs/install_usage/index.html +++ b/docs/install_usage/index.html @@ -1294,7 +1294,7 @@

id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/install_usage/index.xml b/docs/install_usage/index.xml index 4aa07cff..a17ffd51 100644 --- a/docs/install_usage/index.xml +++ b/docs/install_usage/index.xml @@ -19,7 +19,7 @@ 安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle import cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = "tests/test_files/ch_en_num.jpg" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。 import cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = "tests/test_files/ch_en_num.jpg" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link -推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。 +推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。 diff --git a/docs/install_usage/rapidocr/cli/index.html b/docs/install_usage/rapidocr/cli/index.html index b6724680..9791a424 100644 --- a/docs/install_usage/rapidocr/cli/index.html +++ b/docs/install_usage/rapidocr/cli/index.html @@ -808,26 +808,26 @@

使用示例 图像预测 + id="cbfaedTab" data-bs-toggle="tab" data-bs-target="#cbfaed" + type="button" role="tab" aria-controls="cbfaed" aria-selected="true">图像预测 只使用检测 + id="bcfaedTab" data-bs-toggle="tab" data-bs-target="#bcfaed" + type="button" role="tab" aria-controls="bcfaed" aria-selected="true">只使用检测 只使用识别 + id="adecfbTab" data-bs-toggle="tab" data-bs-target="#adecfb" + type="button" role="tab" aria-controls="adecfb" aria-selected="true">只使用识别 可视化查看 + id="faedbcTab" data-bs-toggle="tab" data-bs-target="#faedbc" + type="button" role="tab" aria-controls="faedbc" aria-selected="true">可视化查看 @@ -843,7 +843,7 @@

使用示例 +
@@ -876,7 +876,7 @@

使用示例 +
@@ -909,7 +909,7 @@

使用示例 +
@@ -942,7 +942,7 @@

使用示例 +
@@ -1621,7 +1621,7 @@

使用示例 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/install_usage/rapidocr/install/index.html b/docs/install_usage/rapidocr/install/index.html index c2aec9b1..3decbaed 100644 --- a/docs/install_usage/rapidocr/install/index.html +++ b/docs/install_usage/rapidocr/install/index.html @@ -1521,7 +1521,7 @@

安装 输入 str + id="adbfecTab" data-bs-toggle="tab" data-bs-target="#adbfec" + type="button" role="tab" aria-controls="adbfec" aria-selected="true">str np.ndarray + id="dfbaecTab" data-bs-toggle="tab" data-bs-target="#dfbaec" + type="button" role="tab" aria-controls="dfbaec" aria-selected="true">np.ndarray Bytes + id="daecfbTab" data-bs-toggle="tab" data-bs-target="#daecfb" + type="button" role="tab" aria-controls="daecfb" aria-selected="true">Bytes Path + id="dafcebTab" data-bs-toggle="tab" data-bs-target="#dafceb" + type="button" role="tab" aria-controls="dafceb" aria-selected="true">Path @@ -878,7 +878,7 @@

输入 +
@@ -918,7 +918,7 @@

输入 +
@@ -958,7 +958,7 @@

输入 +
@@ -1000,7 +1000,7 @@

输入 +
@@ -1052,38 +1052,38 @@

输出 只有检测 + id="efbcdaTab" data-bs-toggle="tab" data-bs-target="#efbcda" + type="button" role="tab" aria-controls="efbcda" aria-selected="true">只有检测 只有分类 + id="afebdcTab" data-bs-toggle="tab" data-bs-target="#afebdc" + type="button" role="tab" aria-controls="afebdc" aria-selected="true">只有分类 只有识别 + id="ebcfdaTab" data-bs-toggle="tab" data-bs-target="#ebcfda" + type="button" role="tab" aria-controls="ebcfda" aria-selected="true">只有识别 检测 + 识别 + id="ecbfdaTab" data-bs-toggle="tab" data-bs-target="#ecbfda" + type="button" role="tab" aria-controls="ecbfda" aria-selected="true">检测 + 识别 分类 + 识别 + id="cdabfeTab" data-bs-toggle="tab" data-bs-target="#cdabfe" + type="button" role="tab" aria-controls="cdabfe" aria-selected="true">分类 + 识别 检测 + 分类 + 识别 + id="bacfedTab" data-bs-toggle="tab" data-bs-target="#bacfed" + type="button" role="tab" aria-controls="bacfed" aria-selected="true">检测 + 分类 + 识别 @@ -1099,7 +1099,7 @@

输出 +
@@ -1163,7 +1163,7 @@

输出 +
@@ -1226,7 +1226,7 @@

输出 +
@@ -1289,7 +1289,7 @@

输出 +
@@ -1356,7 +1356,7 @@

输出 +
@@ -1419,7 +1419,7 @@

输出 +
@@ -1508,14 +1508,14 @@

可视化查看结果 只可视化检测 + id="adbecfTab" data-bs-toggle="tab" data-bs-target="#adbecf" + type="button" role="tab" aria-controls="adbecf" aria-selected="true">只可视化检测 可视化检测和识别 + id="bceafdTab" data-bs-toggle="tab" data-bs-target="#bceafd" + type="button" role="tab" aria-controls="bceafd" aria-selected="true">可视化检测和识别 @@ -1531,7 +1531,7 @@

可视化查看结果 +
@@ -1577,7 +1577,7 @@

可视化查看结果 +
@@ -2271,7 +2271,7 @@

可视化查看结果 Python调用 以文件方式发送POST请求 + id="cdaebfTab" data-bs-toggle="tab" data-bs-target="#cdaebf" + type="button" role="tab" aria-controls="cdaebf" aria-selected="true">以文件方式发送POST请求 以base64方式发送POST请求 + id="dfcbeaTab" data-bs-toggle="tab" data-bs-target="#dfcbea" + type="button" role="tab" aria-controls="dfcbea" aria-selected="true">以base64方式发送POST请求 @@ -856,7 +856,7 @@

Python调用 +
@@ -898,7 +898,7 @@

Python调用 +
@@ -1711,7 +1711,7 @@

API输出 +推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。" /> - + +推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。"/> @@ -783,14 +783,14 @@

使用 CPU端推理 + id="abdfceTab" data-bs-toggle="tab" data-bs-target="#abdfce" + type="button" role="tab" aria-controls="abdfce" aria-selected="true">CPU端推理 GPU端推理 + id="bfaecdTab" data-bs-toggle="tab" data-bs-target="#bfaecd" + type="button" role="tab" aria-controls="bfaecd" aria-selected="true">GPU端推理 @@ -806,7 +806,7 @@

使用 +

前提是安装了CPU版的PaddlePaddle

@@ -849,7 +849,7 @@

使用 +

前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。

@@ -897,7 +897,7 @@

推理速度比较

相关测评代码,参见AI Studio,Fork可直接运行查看。

+

相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。

经过初步粗略估计,同一张图像,推理10次,耗时情况见下表:

@@ -959,9 +959,9 @@

推理速度比较

Last updated - 25 Oct 2023, 19:36 +0800 + data-authdate="2023-10-31T19:49:32+0800" + title="31 Oct 2023, 19:49 +0800"> + 31 Oct 2023, 19:49 +0800 . history

@@ -1571,7 +1571,7 @@

推理速度比较 使用步骤 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/install_usage/rapidocr_web/nuitka_package/index.html b/docs/install_usage/rapidocr_web/nuitka_package/index.html index 44cd9ef6..b2ffcb49 100644 --- a/docs/install_usage/rapidocr_web/nuitka_package/index.html +++ b/docs/install_usage/rapidocr_web/nuitka_package/index.html @@ -1559,7 +1559,7 @@

补充 运行步骤 使用 在线Demo 整体框架 2. 使用 终端使用 + id="efabcdTab" data-bs-toggle="tab" data-bs-target="#efabcd" + type="button" role="tab" aria-controls="efabcd" aria-selected="true">终端使用 Python使用 + id="facedbTab" data-bs-toggle="tab" data-bs-target="#facedb" + type="button" role="tab" aria-controls="facedb" aria-selected="true">Python使用 @@ -737,7 +737,7 @@

2. 使用 +
@@ -770,7 +770,7 @@

2. 使用 +
@@ -1495,7 +1495,7 @@

3. 查看效果 id: 8 , href: "\/RapidOCRDocs\/docs\/install_usage\/rapidocr_paddle\/", title: "[GPU端] rapidocr_paddle", - description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。", + description: "简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: link\n推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。", content: " 简介 linkrapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。\n推荐GPU上用这个,CPU端还是以rapidocr_onnxruntime和rapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。\n封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。\n安装 link 根据自己需求,先安装PaddlePaddle框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功: import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。 安装rapidocr_paddle pip install rapidocr_paddle 使用 link CPU端推理 GPU端推理 前提是安装了CPU版的PaddlePaddle\nimport cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) print(result) print(elapse_list) 前提是安装了GPU版的PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用GPU。\nimport cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = \"tests/test_files/ch_en_num.jpg\" result, elapse_list = engine(image_path) 其他使用详情,同rapidocor_onnxruntime系列,参见: " } ); diff --git a/docs/related_projects/related_projects/index.html b/docs/related_projects/related_projects/index.html index c8a33f51..4cb4b914 100644 --- a/docs/related_projects/related_projects/index.html +++ b/docs/related_projects/related_projects/index.html @@ -1471,7 +1471,7 @@

印章OCR Buy me a Coffee +推理速度比较 link 相关测评代码,参见AI Studio,Fork可直接运行查看。不要只推理一张来推理速度,推理第一张时,需要预热。 diff --git a/sitemap.xml b/sitemap.xml index d407e70c..2ef4a73b 100644 --- a/sitemap.xml +++ b/sitemap.xml @@ -27,7 +27,7 @@ 2023-10-21T16:09:49+08:00 https://rapidai.github.io/RapidOCRDocs/docs/install_usage/rapidocr_paddle/ - 2023-10-25T19:36:06+08:00 + 2023-10-31T19:49:32+08:00 https://rapidai.github.io/RapidOCRDocs/docs/install_usage/rapidocr/install/ 2023-10-26T08:21:22+08:00 @@ -144,7 +144,7 @@ 2023-09-28T08:38:57+08:00 https://rapidai.github.io/RapidOCRDocs/ - 2023-10-26T20:42:15+08:00 + 2023-10-31T19:49:32+08:00 https://rapidai.github.io/RapidOCRDocs/categories/