|
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168 |
- # Lite
-
- It is a lite warper of MegEngine, to enable MegEngine easy to be integrated in
- user's SDK
-
- ## 支持cmake构建
- cmake构建参考scripts/cmake-build/BUILD_README.md,下面example表示同时支持编译megengine
- 和RKNPU后端且打开OpenCL的release模式
- ```bash
- EXTRA_CMAKE_ARGS="-DANDROID_NATIVE_API_LEVEL=24 -DLITE_BUILD_WITH_RKNPU=ON -DMGE_WITH_OPENCL=ON \
- -DMGE_OPENCL_SEARCH_ALGO=ON -DCUSTOM_C_OPR_INIT_FUNC=custom_loader_func" ./scripts/cmake-build/cross_build_android_arm_inference.sh"
- ```
- * 如果需要支持性能分析的 profile 功能,则需要在编译时候加上
- --copt -DMGB_ENABLE_JSON=1 该参数
- * 如果需要支持 fast-run 功能则需要加上
- --copt -DMGB_ENABLE_FASTRUN=1,开启 fast-run 功能
- * 如果编译 arm64,可以加上 --copt -mcpu=cortex-a53 选项进行优化。
-
- ### midout 裁减编译
- 具体 midout 的裁减原理见 megbrain 中 midout 裁减,裁减方法见 MegBrain
- 和 MegEngine 的裁减方法
-
- ## 模型
-
- ### 支持的模型
-
- lite 目前支持只支持 MegEngine dump 的模型格式,可以加载的模型文件包括原始
- 的模型文件,原始的加密模型,pack 之后的加密或者非加密模型。加密算法以及
- 加密的秘钥可以用户自定义,然后注册到 lite 中,详见 example 中加解密部分。
-
- * 原始模型未加密:直接将完成训练的模型在 MegEngine 环境中进行 dump 生成的模型
- * 原始加密模型:将上述 dump 的模型通过加密算法进行加密,lite 提供两种默认
- 的加密算法,在 tools 中,分别为 aes 和 rc4. 对应为:aes_encypt.sh 和
- rc4_encrypt.cpp,rc4_encrypt.cpp 需要编译生成可执行文件。这种方式加密的模型在
- 加载时候需要在 Config 中配置模型的加密方式。
- * pack 之后的模型:模型结构将在下面介绍,可以将上面加密或者未加密的模型,和下面
- 定义的 json config 文件一同打包为一个 pack 之后的模型,可以使用 tools 下面
- 的 pack_model_and_info.py 工具中完成,pack_model_and_info.py 的使用详见其中
- 的 help 输出。
-
- ### 模型结构
-
- 不同的模型文件主要是通过 pack 之后的模型文件中的 model_tag 来区分.
-
- * 打包处理之后的文件:
- 模型打包过程可以通过脚本 pack_model_and_json.py 来完成,其将模型info文件(
- 可以是任意格式,推荐使用JSON,可以加密也可以不加密)和加密或者未加密的模型文件
- 一同打包在一起,并在文件开头加上 Header 来帮助解析。
- * 原始文件和原始的加密文件没有 Header 和模型 info部分,模型加载需要的信息
- 可以通过 Config 和 NetworkIO 进行传递。
-
- ### Header
-
- Header 部分最开始为一个明文固定model_tag,目前定义为"packed_model"字符串,
- 后面主要包含模型文件各个部分的信息,每个部分的加密方式,load 模型时候可以
- 调用相应的解密方法对各个部分进行解密,以及model infomation 部分的解析方法。
- 具体细节参考lite/src/parse_model/pack_model.fbs
-
- ### Info部分
-
- Info 部分主要用来解释模型,如用户关心的:模型的输入数据的格式,模型运行的平台
- 等信息,这部分信息也可以用于用户进行 check 运行的模型是否在指定的条件下运行。
- 由于这个 Info 部分不同的用户需求不一致,想传递的信息也无法统一,所以目前
- Lite 中提供自定义的方式,用户可以自定义自己 Info 部分的类容,并在 Header 中
- 指定 **Info 解析方式名字** ,并注册以该名字为 key 的解析函数到 Lite 中,
- 以这样方式来可以实现用户自定义 Info 格式。同时,Lite 中也提供了一套定义好的
- 格式,其名字为 "LITE_default",并已经实现了对应的解析函数,该 info
- 为 JSON 格式,具体内容定义如下:
-
- ```json
- {
- "name": "shufflenet_test",
- "valid": true,
- "version": "8.9999.0",
- "has_compression": false,
- "device": {
- "type": "CPU",
- "device_id": 0,
- "number_threads": 1,
- "use_tensor_rt": false,
- "enable_inplace_model": false
- },
- "options":{
- "weight_preprocess": false,
- "var_sanity_check_first_run": true,
- "const_shape": false,
- "jit_level": 0,
- "record_level": 0
- },
- "IO":{
- "inputs":[
- {
- "name": "data",
- "io_type": "value",
- "is_host": true,
- "dtype": "float32",
- "shape": {
- "dim0": 1,
- "dim1": 3,
- "dim2": 224,
- "dim3": 224
- }
- }
- ],
- "outputs":[
- {
- "name": "TRUE_DIV(EXP[12065],reduce0[12067])[12077]",
- "io_type": "value",
- "is_host": true,
- "dtype": "float32",
- "shape": {
- "dim0": 1,
- "dim1": 1000,
- "dim2": 0,
- "dim3": 0
- }
- }
- ]
- }
- }
- ```
-
- * model_name: 指这个模型的名字,用户可以用来验证是否运行了正确的模型,
- 和 Header 部分中的进行对比 check
- * valid: 指在这个 info 文件中的设置是否影响模型的 Config
- * version: 指模型对应的 megbrain 的版本号,load 模型时候会进行 check
- * has_compression: 标识这个模型文件中 tensor 的数据是否压缩过
- * device: 目前支持字段包括:"CPU","CUDA","OPENCL","ATLAS"
- * number_threads 和 is_inplace_model : 只有在 device 为 CPU 的情况下才生效
- * IO::inputs::type: 包括 value,shape,详见 include"network.h"
- * IO::inputs::is_host: 值输入数据来自 device 或者来自 host 端
- * IO::outputs::is_host: 值输出数据将保存在 device 或者 host 端
- * IO::outputs::shape::dimx: 如果为0,则便是该 dim 无效
-
- ### Model部分
-
- 可以是加密的模型文件或者未加密的模型文件
-
- ## 使用
-
- 丰富的使用方法详见文件 example 中文档和对应的 example。
-
- ## 工具
-
- 目前 lite 中有三个工具保存在 tools 目录中,其他 megbrain 工具
- 没有包含在内,分别为:
-
- * pack_model_and_info.py 为上面提到的模型打包工具,其为一个
- python 脚本,可以直接用其对已有的模型和模型 information 的文件,按照上面
- 的格式进行打包模型,用户可以指定模型名字,模型加密方式,模型信息
- 文件加密方式,解析方式等,如下:
-
- ```bash
- python3 pack_model_and_info.py --input-model xxx.mge \
- --model-name="shufflenet_test" \
- --model-cryption="RC4_default" \
- --input-info xxx.json \
- --info-cryption="RC4_default" \
- --info-parser="LITE_default" \
- -o xxx.lite
- ```
- * aes_encrypt.sh 为一个 aes 加密方式的加密脚本,可以将一个文件,
- 通过指定的的 key 加密成一个 aes 加密的文件,其中 key 为 32 个字节
- 16进制数。
- ```bash
- aes_encrypt.sh xxx.mdl xxx_encrypted.mdl \
- 000102030405060708090A0B0C0D0E0F101112131415161718191A1B1C1D1E1F
- ```
|