Skip to content

Commit

Permalink
docs: fix invalid link
Browse files Browse the repository at this point in the history
  • Loading branch information
TingquanGao committed Sep 16, 2022
1 parent 7e0411c commit d7870ff
Show file tree
Hide file tree
Showing 28 changed files with 51 additions and 44 deletions.
2 changes: 1 addition & 1 deletion docs/zh_CN/FAQ/faq_2021_s2.md
Original file line number Diff line number Diff line change
Expand Up @@ -182,7 +182,7 @@ PaddlePaddle is installed successfully! Let's start deep learning with PaddlePad
**A**:如果使用的是 release/2.2 分支,建议更新为 release/2.3 分支,在 release/2.3 分支中,我们使用 faiss 检索模块替换了 Möbius 检索模型,具体可以参考[向量检索教程](../../../deploy/vector_search/README.md)。如仍存在问题,可以在用户微信群中联系我们,也可以在 GitHub 提 issue。

#### Q2.4.2: 识别模型怎么在预训练模型的基础上进行微调训练?
**A**:识别模型的微调训练和分类模型的微调训练类似,识别模型可以加载商品的预训练模型,训练过程可以参考[识别模型训练](../../zh_CN/models_training/recognition.md),后续我们也会持续细化这块的文档。
**A**:识别模型的微调训练和分类模型的微调训练类似,识别模型可以加载商品的预训练模型,训练过程可以参考[识别模型训练](../training/metric_learning/training.md),后续我们也会持续细化这块的文档。

#### Q2.4.3: 训练 metric learning 时,每个 epoch 中,无法跑完所有 mini-batch,为什么?
**A**:在训练 metric learning 时,使用的 Sampler 是 DistributedRandomIdentitySampler,该 Sampler 不会采样全部的图片,导致会让每一个 epoch 采样的数据不是所有的数据,所以无法跑完显示的 mini-batch 是正常现象。该问题在 release/2.3 分支已经优化,请更新到 release/2.3 使用。
Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/deployment/PP-ShiTu/cpp.md
Original file line number Diff line number Diff line change
Expand Up @@ -361,6 +361,6 @@ cd ..

## 4. 使用自己模型

使用自己训练的模型,可以参考[模型导出](../../docs/zh_CN/inference_deployment/export_model.md),导出`inference model`,用于模型预测。
使用自己训练的模型,可以参考[模型导出](../export_model.md),导出`inference model`,用于模型预测。

同时注意修改`yaml`文件中具体参数。
2 changes: 1 addition & 1 deletion docs/zh_CN/deployment/PP-ShiTu/paddle_serving.md
Original file line number Diff line number Diff line change
Expand Up @@ -225,7 +225,7 @@ python3.7 -m pip install paddle-serving-server-gpu==0.7.0.post112 # GPU with CUD
# 一键编译安装Serving server、设置 SERVING_BIN
source ./build_server.sh python3.7
```
**注:** [build_server.sh](../build_server.sh#L55-L62) 所设定的路径可能需要根据实际机器上的环境如CUDA、python版本等作一定修改,然后再编译;如果执行 `build_server.sh` 过程中遇到非网络原因的报错,则可以手动将脚本中的命令逐条复制到终端执行。
**注:** [build_server.sh](../../../../deploy/paddleserving/build_server.sh#L55-L62) 所设定的路径可能需要根据实际机器上的环境如CUDA、python版本等作一定修改,然后再编译;如果执行 `build_server.sh` 过程中遇到非网络原因的报错,则可以手动将脚本中的命令逐条复制到终端执行。

- C++ Serving使用的输入输出格式与Python不同,因此需要执行以下命令,将4个文件复制到下的文件覆盖掉[3.1](#31-模型转换)得到文件夹中的对应4个prototxt文件。
```shell
Expand Down
4 changes: 2 additions & 2 deletions docs/zh_CN/deployment/PP-ShiTu/python.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# Python 预测推理

首先请参考文档[环境准备](../installation/install_paddleclas.md)配置运行环境。
首先请参考文档[环境准备](../../installation.md)配置运行环境。

## 目录

Expand Down Expand Up @@ -79,4 +79,4 @@ python3.7 python/predict_rec.py -c configs/inference_rec.yaml

### 1.3 PP-ShiTu PipeLine推理

主体检测、特征提取和向量检索的串联预测,可以参考[图像识别快速开始](../quick_start/quick_start_recognition.md)
主体检测、特征提取和向量检索的串联预测,可以参考[图像识别快速开始](../../quick_start/quick_start_recognition.md)
4 changes: 2 additions & 2 deletions docs/zh_CN/deployment/PP-ShiTu/shitu_deploy.md
Original file line number Diff line number Diff line change
Expand Up @@ -77,7 +77,7 @@

在使用官方模型后,如果不满足精度需求,则可以参考此部分文档,进行模型调优

因为要对模型进行训练,所以收集自己的数据集。数据准备及相应格式请参考:[特征提取文档](../../training/PP-ShiTu/feature_extraction.md)`4.1数据准备`部分、[识别数据集说明](../../training/metric_learning/dataset.md)。值得注意的是,此部分需要准备大量的数据,以保证识别模型效果。训练配置文件参考:[通用识别模型配置文件](../../../../ppcls/configs/GeneralRecognition/GeneralRecognition_PPLCNet_x2_5.yaml),训练方法参考:[识别模型训练](../../models_training/recognition.md)
因为要对模型进行训练,所以收集自己的数据集。数据准备及相应格式请参考:[特征提取文档](../../training/PP-ShiTu/feature_extraction.md)`4.1数据准备`部分、[识别数据集说明](../../training/metric_learning/dataset.md)。值得注意的是,此部分需要准备大量的数据,以保证识别模型效果。训练配置文件参考:[通用识别模型配置文件](../../../../ppcls/configs/GeneralRecognition/GeneralRecognition_PPLCNet_x2_5.yaml),训练方法参考:[识别模型训练](../../training/metric_learning/training.md)

- 数据增强:根据实际情况选择不同数据增强方法。如:实际应用中数据遮挡比较严重,建议添加`RandomErasing`增强方法。详见[数据增强文档](../../training/config_discription/data_augmentation.md)
- 换不同的`backbone`,一般来说,越大的模型,特征提取能力更强。不同`backbone`详见[模型介绍](../../models/ImageNet1k/model_list.md)
Expand All @@ -94,4 +94,4 @@
模型加速主要以下几种方法:

- 替换小模型:一般来说,越小的模型预测速度相对越快
- 模型裁剪、量化:请参考文档[模型压缩](../../training/advanced/prune_quantization.md),压缩配置文件修改请参考[slim相关配置文件](../../../ppcls/configs/slim/)
- 模型裁剪、量化:请参考文档[模型压缩](../../training/advanced/prune_quantization.md),压缩配置文件修改请参考[slim相关配置文件](../../../../ppcls/configs/slim/)
19 changes: 13 additions & 6 deletions docs/zh_CN/deployment/export_model.md
Original file line number Diff line number Diff line change
Expand Up @@ -91,9 +91,16 @@ python3 tools/export_model.py \

导出的 inference 模型文件可用于预测引擎进行推理部署,根据不同的部署方式/平台,可参考:

* [Python 预测](./inference/python_deploy.md)
* [C++ 预测](./inference/cpp_deploy.md)(目前仅支持分类模型)
* [Python Whl 预测](./inference/whl_deploy.md)(目前仅支持分类模型)
* [PaddleHub Serving 部署](./deployment/paddle_hub_serving_deploy.md)(目前仅支持分类模型)
* [PaddleServing 部署](./deployment/paddle_serving_deploy.md)
* [PaddleLite 部署](./deployment/paddle_lite_deploy.md)(目前仅支持分类模型)
图像分类模型部署:
* [Python 预测](./image_classification/python.md)
* [C++ 预测](./image_classification/cpp/linux.md)
* [Python Whl 预测](./image_classification/whl.md)(目前仅支持分类模型)
* [PaddleHub Serving 部署](./image_classification/paddle_hub.md)(目前仅支持分类模型)
* [PaddleServing 部署](./image_classification/paddle_serving.md)
* [PaddleLite 部署](./image_classification/paddle_lite.md)

PP-ShiTu 部署:
* [Python 预测](./PP-ShiTu/python.md)
* [C++ 预测](./PP-ShiTu/cpp.md)
* [PaddleServing 部署](./PP-ShiTu/paddle_serving.md)
* [PaddleLite 部署](./PP-ShiTu/paddle_lite.md)
2 changes: 1 addition & 1 deletion docs/zh_CN/deployment/image_classification/paddle_lite.md
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@

本教程将介绍基于[Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite) 在移动端部署PaddleClas分类模型的详细步骤。

Paddle Lite是飞桨轻量化推理引擎,为手机、IOT端提供高效推理能力,并广泛整合跨平台硬件,为端侧部署及应用落地问题提供轻量化的部署方案。如果希望直接测试速度,可以参考[Paddle-Lite移动端benchmark测试教程](../../docs/zh_CN/extension/paddle_mobile_inference.md)
Paddle Lite是飞桨轻量化推理引擎,为手机、IOT端提供高效推理能力,并广泛整合跨平台硬件,为端侧部署及应用落地问题提供轻量化的部署方案。如果希望直接测试速度,可以参考[Paddle-Lite移动端benchmark测试教程](../../models/ImageNet1k/paddle_lite_benchmark.md)

---

Expand Down
4 changes: 2 additions & 2 deletions docs/zh_CN/deployment/image_classification/python.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# Python 预测推理

首先请参考文档[环境准备](../installation/install_paddleclas.md)配置运行环境。
首先请参考文档[环境准备](../../installation.md)配置运行环境。

## 目录

Expand All @@ -10,7 +10,7 @@

## 1. 图像分类推理

首先请参考文档[模型导出](./export_model.md)准备 inference 模型,然后进入 PaddleClas 的 `deploy` 目录下:
首先请参考文档[模型导出](../export_model.md)准备 inference 模型,然后进入 PaddleClas 的 `deploy` 目录下:

```shell
cd PaddleClas/deploy
Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/ImageNet1k/PP-HGNet.md
Original file line number Diff line number Diff line change
Expand Up @@ -387,7 +387,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="4.5"></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/ImageNet1k/PP-LCNet.md
Original file line number Diff line number Diff line change
Expand Up @@ -530,7 +530,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="4.5"></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/ImageNet1k/PP-LCNetV2.md
Original file line number Diff line number Diff line change
Expand Up @@ -409,7 +409,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="4.5"></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/ImageNet1k/ResNet.md
Original file line number Diff line number Diff line change
Expand Up @@ -421,7 +421,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="4.5"></a>

Expand Down
10 changes: 5 additions & 5 deletions docs/zh_CN/models/ImageNet1k/SwinTransformer.md
Original file line number Diff line number Diff line change
Expand Up @@ -70,14 +70,14 @@ Swin Transformer 是一种新的视觉 Transformer 网络,可以用作计算

## 2. 模型快速体验

安装 paddlepaddle 和 paddleclas 即可快速对图片进行预测,体验方法可以参考[ResNet50 模型快速体验](ResNet.md-模型快速体验)
安装 paddlepaddle 和 paddleclas 即可快速对图片进行预测,体验方法可以参考[ResNet50 模型快速体验](./ResNet.md#2)

<a name="3"></a>

## 3. 模型训练、评估和预测


此部分内容包括训练环境配置、ImageNet数据的准备、SwinTransformer 在 ImageNet 上的训练、评估、预测等内容。在 `ppcls/configs/ImageNet/SwinTransformer/` 中提供了 SwinTransformer 的训练配置,可以通过如下脚本启动训练:此部分内容可以参考[ResNet50 模型训练、评估和预测](ResNet.md-模型训练评估和预测)
此部分内容包括训练环境配置、ImageNet数据的准备、SwinTransformer 在 ImageNet 上的训练、评估、预测等内容。在 `ppcls/configs/ImageNet/SwinTransformer/` 中提供了 SwinTransformer 的训练配置,可以通过如下脚本启动训练:此部分内容可以参考[ResNet50 模型训练、评估和预测](./ResNet.md#3)

**备注:** 由于 SwinTransformer 系列模型默认使用的 GPU 数量为 8 个,所以在训练时,需要指定8个GPU,如`python3 -m paddle.distributed.launch --gpus="0,1,2,3,4,5,6,7" tools/train.py -c xxx.yaml`, 如果使用 4 个 GPU 训练,默认学习率需要减小一半,精度可能有损。

Expand All @@ -92,13 +92,13 @@ Swin Transformer 是一种新的视觉 Transformer 网络,可以用作计算

Paddle Inference 是飞桨的原生推理库, 作用于服务器端和云端,提供高性能的推理能力。相比于直接基于预训练模型进行预测,Paddle Inference可使用 MKLDNN、CUDNN、TensorRT 进行预测加速,从而实现更优的推理性能。更多关于Paddle Inference推理引擎的介绍,可以参考[Paddle Inference官网教程](https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/infer/inference/inference_cn.html)

Inference 的获取可以参考 [ResNet50 推理模型准备](ResNet.md1-推理模型准备)
Inference 的获取可以参考 [ResNet50 推理模型准备](./ResNet.md#4.1)

<a name="4.2"></a>

### 4.2 基于 Python 预测引擎推理

PaddleClas 提供了基于 python 预测引擎推理的示例。您可以参考[ResNet50 基于 Python 预测引擎推理](ResNet.md2-基于-python-预测引擎推理) 对 SwinTransformer 完成推理预测。
PaddleClas 提供了基于 python 预测引擎推理的示例。您可以参考[ResNet50 基于 Python 预测引擎推理](./ResNet.md#4.2) 对 SwinTransformer 完成推理预测。

<a name="4.3"></a>

Expand All @@ -112,7 +112,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="4.5"></a>

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -15,7 +15,7 @@

[Paddle-Lite](https://github.com/PaddlePaddle/Paddle-Lite) 是飞桨推出的一套功能完善、易用性强且性能卓越的轻量化推理引擎。
轻量化体现在使用较少比特数用于表示神经网络的权重和激活,能够大大降低模型的体积,解决终端设备存储空间有限的问题,推理性能也整体优于其他框架。
[PaddleClas](https://github.com/PaddlePaddle/PaddleClas) 使用 Paddle-Lite 进行了[移动端模型的性能评估](../models/Mobile.md),本部分以 `ImageNet1k` 数据集的 `MobileNetV1` 模型为例,介绍怎样使用 `Paddle-Lite`,在移动端(基于骁龙855的安卓开发平台)对进行模型速度评估。
[PaddleClas](https://github.com/PaddlePaddle/PaddleClas) 使用 Paddle-Lite 进行了[移动端模型的性能评估](./Mobile.md),本部分以 `ImageNet1k` 数据集的 `MobileNetV1` 模型为例,介绍怎样使用 `Paddle-Lite`,在移动端(基于骁龙855的安卓开发平台)对进行模型速度评估。

<a name='2'></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/PULC/PULC_car_exists.md
Original file line number Diff line number Diff line change
Expand Up @@ -451,7 +451,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="6.5"></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/PULC/PULC_language_classification.md
Original file line number Diff line number Diff line change
Expand Up @@ -434,7 +434,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="6.5"></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/PULC/PULC_person_attribute.md
Original file line number Diff line number Diff line change
Expand Up @@ -434,7 +434,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="6.5"></a>

Expand Down
2 changes: 1 addition & 1 deletion docs/zh_CN/models/PULC/PULC_person_exists.md
Original file line number Diff line number Diff line change
Expand Up @@ -453,7 +453,7 @@ PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服

Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)

PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../deployment/paddle_serving_deploy.md)来完成相应的部署工作。
PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../../deployment/image_classification/paddle_serving.md)来完成相应的部署工作。

<a name="6.5"></a>

Expand Down
Loading

0 comments on commit d7870ff

Please sign in to comment.