You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

README.md 2.5 kB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566
  1. ## 云端Serving代码
  2. ---
  3. **介绍**
  4. ----
  5. + **支持oneflow、tensorflow、pytorch三种框架模型部署** </br>
  6. 1、通过如下命令启动http在线推理服务
  7. ```
  8. python http_server.py --platform='框架名称' --model_path='模型地址'
  9. ```
  10. 通过访问localhost:5000/docs进入swagger页面,调用localhost:5000/inference进行图片上传得道推理结果,结果如下所示:
  11. ```
  12. {
  13. "image_name": "哈士奇.jpg",
  14. "predictions": [
  15. {
  16. "label": "Eskimo dog, husky",
  17. "probability": "0.679"
  18. },
  19. {
  20. "label": "Siberian husky",
  21. "probability": "0.213"
  22. },
  23. {
  24. "label": "dogsled, dog sled, dog sleigh",
  25. "probability": "0.021"
  26. },
  27. {
  28. "label": "malamute, malemute, Alaskan malamute",
  29. "probability": "0.006"
  30. },
  31. {
  32. "label": "white wolf, Arctic wolf, Canis lupus tundrarum",
  33. "probability": "0.001"
  34. }
  35. ]
  36. }
  37. ```
  38. 2、同理通过如下命令启动grpc在线推理服务
  39. ```
  40. python grpc_server.py --platform='框架名称' --model_path='模型地址'
  41. ```
  42. 再启动grpc_client.py进行上传图片推理得道结果,或者根据ip端口自行编写grpc客户端
  43. 3、支持多模型部署,可以自行配置config文件夹下的model_config_file.json进行多模型配置,启动http或grpc时输入不同的模型名称即可,或者自行修改inference接口入参来达到启动单一服务多模型推理的功能
  44. + **支持分布式模型部署推理** </br>
  45. 需要推理大量图片时需要分布式推理功能,执行如下命令:
  46. ```
  47. python batch_server.py --platform='框架名称' --model_path='模型地址' --input_path='批量图片地址' --output_path='输出JSON文件地址'
  48. ```
  49. 输入的所有图片保存在input文件夹下,输入json文件保存在output_path文件夹,json名称与图片名称对应
  50. + **代码还包含了各种参数配置,日志文件输出、是否启用TLS等** </br>

一站式算法开发平台、高性能分布式深度学习框架、先进算法模型库、视觉模型炼知平台、数据可视化分析平台等一系列平台及工具,在模型高效分布式训练、数据处理和可视分析、模型炼知和轻量化等技术上形成独特优势,目前已在产学研等各领域近千家单位及个人提供AI应用赋能

Contributors (1)